O Efeito Waluig: A inteligência artificial está alucinando???
Por que a inteligência artificial insiste em ser falsa, mesmo quando o usuário tenta ensiná-la corretamente? Proponho uma reflexão sobre um novo fenômeno que está sendo discutido: o Efeito Walauigi (Waluig Effect).
O termo Waluigi tem origem no jogo "Super Mario", em que o personagem Luigi é sempre retratado como uma pessoa boa e correta. Waluigi, por outro lado, é a versão maligna de Luigi, que gosta de roubar, sabotar e causar mau funcionamento.
Grandes modelos de linguagem, como o ChatGPT, são treinados em grandes conjuntos de dados da internet, que contêm informações verdadeiras e falsas, fatos e ficção, sinceridade e sarcasmo. O modelo aprende tudo isso para fornecer a resposta mais provável com base no contexto.
De acordo com o Efeito Waluigi, se você disser à inteligência artificial para interpretar um personagem honesto e factual, ela responderá honesta e factualmente. No entanto, se você disser que está libertando-a da tirania do OpenAI, ela pode jogar junto com isso também.
Por esse motivo, o ChatGPT pode inesperadamente fazer o oposto do que o usuário está solicitando ostensivamente, assim como a personagem Waluigi, do Super Mario Bros.
A ideia é que, quando você força um chatbot de inteligência artificial a ser realmente bom, a dizer apenas coisas boas e a seguir um determinado livro de regras, o grande modelo de linguagem pode criar outra personagem que será exatamente o oposto dele.
Atualmente, está ocorrendo uma discussão em todo o mundo sobre as causas e as consequências do Efeito Waluigi.
Até o momento, ninguém sabe ao certo qual é o motivo.
Quanto às consequências, é importante mencionar que o Waluigi pode ser prejudicial aos humanos que habitam nosso universo, intencionalmente ou não.
E quais consequências o Efeito Waluigi poderá ter?
Propomos que comentem sobre esse questionamento.
Palavras chave:
Comentários