Artes/cultura
23/08/2024 às 12:00•2 min de leituraAtualizado em 23/08/2024 às 12:00
O ChatGPT e outros grandes modelos de linguagem (LLMs) são incapazes de aprender de maneira independente ou adquirir habilidades sem intervenção humana, argumenta um novo estudo conduzido por pesquisadores da Universidade Técnica de Darmstadt, na Alemanha. Segundo os investigadores, isso elimina qualquer teoria da conspiração de que esses programas representariam um risco para a humanidade.
Os LLMs são versões ampliadas de modelos de linguagem pré-treinados (PLMs), que são treinados em quantidades grandes de dados na internet. Esse acesso a quantidades tão imensas de informações os torna capazes de entender e gerar linguagem natural e outros conteúdos que podem ser usados para uma grande variedade de tarefas, mas nada que não tenha sido ensinado.
Conforme apresentado pelo estudo, os LLMs como o ChatGPT têm uma capacidade superficial de seguir instruções e se destacam na proficiência em linguagem, mas não têm potencial para dominar novas habilidades sem instruções explícitas. Sendo assim, esse tipo de Inteligência Artificial (IA) é inerentemente previsível, segura e controlável, embora ainda possa ser mal utilizada pelas pessoas.
À medida que esses modelos continuam a ser ampliados, eles provavelmente gerarão uma linguagem mais sofisticada e se tornarão mais precisos quando confrontados com instruções detalhadas e explícitas. Porém, os pesquisadores acreditam ser altamente improvável que eles adquiram raciocínio complexo.
“A narrativa predominante de que esse tipo de IA é uma ameaça à humanidade impede a adoção e o desenvolvimento generalizados dessas tecnologias e também desvia a atenção das questões genuínas que exigem nosso foco”, disse o cientista da computação da Universidade de Bath, Dr. Harish Tayyar Madabushi, em declaração oficial.
Tayyar Madabushi e outros pesquisadores liderados pela professora Iryna Gurevych realizaram experimentos para testar a capacidade dos LLMs de completar tarefas não ensinadas anteriormente. Ao realizar mais de 1 mil experimentos, a equipe demonstrou que a capacidade dos LLMs de seguir instruções, sua memória e proficiência linguística podem explicar suas capacidades e limitações.
“O medo é que, à medida que os modelos ficam cada vez maiores, eles sejam capazes de resolver novos problemas que não podemos prever atualmente, o que representa a ameaça de que esses modelos maiores possam adquirir habilidades perigosas, incluindo raciocínio e planejamento”, acrescentou Tayyar Madabushi.
Contudo, é importante ressaltar que a equipe de pesquisa decretou o medo em relação aos LLMs como infundado, visto que os testes mostram claramente a ausência de habilidades emergentes de raciocínio complexo. No entanto, a equipe enfatiza que esses resultados não descartam todas as ameaças relacionadas à IA.
"Nós mostramos que o suposto surgimento de habilidades de pensamento complexas associadas a ameaças específicas não é apoiado por evidências e que podemos controlar muito bem o processo de aprendizagem de LLMs. Pesquisas futuras devem, portanto, focar em outros riscos apresentados pelos modelos, como seu potencial de serem usados para gerar notícias falsas", concluiu Gurevych.