banner

blog

Sep 19, 2023

O ChatGPT pode transformar a academia. Mas ainda não é um aluno A+: NPR

Emma Bowman

Digite um prompt no ChatGPT e ele se tornará seu próprio assistente virtual. OpenAI/Captura de tela por NPR ocultar legenda

Digite um prompt no ChatGPT e ele se tornará seu próprio assistente virtual.

Por que fazer sua lição de casa quando um chatbot pode fazer isso por você? Uma nova ferramenta de inteligência artificial chamada ChatGPT emocionou a Internet com suas habilidades sobre-humanas para resolver problemas de matemática, redigir ensaios universitários e escrever trabalhos de pesquisa.

Depois que o desenvolvedor OpenAI lançou o sistema baseado em texto para o público no mês passado, alguns educadores soaram o alarme sobre o potencial que esses sistemas de IA têm de transformar a academia, para o bem e para o mal.

“A IA basicamente arruinou o dever de casa”, disse Ethan Mollick, professor da Wharton School of Business da Universidade da Pensilvânia, no Twitter.

A ferramenta foi um sucesso instantâneo entre muitos de seus alunos, disse ele à NPR em uma entrevista no Morning Edition, com seu uso mais óbvio sendo uma maneira de trapacear plagiando o trabalho escrito por IA, disse ele.

Fraude acadêmica à parte, Mollick também vê seus benefícios como um companheiro de aprendizado.

Ele o usa como assistente de seu próprio professor, para ajudá-lo a elaborar um programa de estudos, uma palestra, uma tarefa e uma avaliação de avaliação para alunos de MBA.

"Você pode colar trabalhos acadêmicos inteiros e pedir para resumir. Você pode pedir para encontrar um erro em seu código e corrigi-lo e dizer por que você errou", disse ele. "É esse multiplicador de habilidades, que acho que não estamos entendendo direito, que é absolutamente impressionante", disse ele.

Mas o assistente virtual sobre-humano – como qualquer tecnologia de IA emergente – tem suas limitações. Afinal, o ChatGPT foi criado por humanos. A OpenAI treinou a ferramenta usando um grande conjunto de dados de conversas humanas reais.

"A melhor maneira de pensar sobre isso é que você está conversando com um estagiário onisciente e ansioso para agradar, que às vezes mente para você", disse Mollick.

Encontra-se com confiança, também. Apesar de seu tom autoritário, houve casos em que o ChatGPT não avisa quando não tem a resposta.

Foi isso que Teresa Kubacka, uma cientista de dados baseada em Zurique, na Suíça, descobriu quando experimentou o modelo de linguagem. Kubacka, que estudou física para seu doutorado, testou a ferramenta perguntando sobre um fenômeno físico inventado.

"Perguntei deliberadamente sobre algo que pensei saber que não existe, para que possam julgar se realmente também tem a noção do que existe e do que não existe", disse ela.

O ChatGPT produziu uma resposta tão específica e plausível, apoiada por citações, ela disse, que teve que investigar se o fenômeno falso, "um eletromagno invertido cicloidal", era realmente real.

Quando ela olhou mais de perto, o suposto material de origem também era falso, disse ela. Havia nomes de especialistas em física conhecidos listados – os títulos das publicações que eles supostamente escreveram, no entanto, eram inexistentes, disse ela.

"É aqui que se torna meio perigoso", disse Kubacka. "No momento em que você não pode confiar nas referências, isso também corrói a confiança em citar qualquer ciência", disse ela.

Os cientistas chamam essas gerações falsas de "alucinações".

“Ainda há muitos casos em que você faz uma pergunta e ela lhe dá uma resposta muito impressionante que está totalmente errada”, disse Oren Etzioni, CEO fundador do Allen Institute for AI, que dirigiu a pesquisa sem fins lucrativos até recentemente. "E, claro, isso é um problema se você não verificar ou corroborar cuidadosamente os fatos."

Os usuários que experimentam o chatbot são avisados ​​antes de testar a ferramenta de que o ChatGPT "pode ​​ocasionalmente gerar informações incorretas ou enganosas". OpenAI/Captura de tela por NPR ocultar legenda

COMPARTILHAR