ou Como trabalhar com IA que “sofre de alucinações”
Um autor do Pitch Avatar A equipe explica como escritores de ficção científica, já em meados do século XX, encontraram soluções para o problema do "delírio das máquinas".
Desde o século XIX, existe um padrão claro: muito antes de a civilização se deparar com problemas relacionados ao progresso tecnológico na prática, os escritores de ficção científica conseguem "inventá-los" primeiro. E não apenas inventá-los, mas também propor soluções.
As alucinações da IA — ou, como às vezes são chamadas, delírios da máquina — não são exceção. Vamos esclarecer desde já: não estamos falando de mau funcionamento ou falhas causadas por danos físicos ao hardware ou, por exemplo, vírus de computador. Nem estamos falando de uma hipotética “revolta da máquina”, onde a IA “conscientemente” se recusa a obedecer aos humanos e decide por si mesma o que fazer.
O que nos interessa são situações em que a inteligência artificial gera informações falsas, incorretas ou totalmente absurdas. Por exemplo, citações inexistentes de pessoas inexistentes extraídas de livros inexistentes. Ou links para páginas da web que não existem. Ou uma espécie de "salada visual" em imagens. Presumimos que todo leitor já se deparou com tais resultados gerados por IA pelo menos uma vez. Às vezes, a resposta da IA a um comando é tão diferente do que foi solicitado que surge um impulso totalmente ilógico de considerá-la "maluca". Isso é especialmente frustrante quando a IA começa a apresentar falhas ao resolver uma tarefa realmente importante que exige um alto grau de precisão. Como resultado, algumas pessoas ficam tão decepcionadas que param de usar ferramentas baseadas em IA por completo, preferindo resolver seus problemas "à moda antiga".
Então, vamos tranquilizá-lo. Mestres da ficção científica vêm refletindo sobre esse tema desde meados do século passado. Por que não recorrer a eles para encontrar uma solução para o problema do "delírio das máquinas"?
O Terminal Aterrorizante
Tomemos, por exemplo, o conto de Stanisław Lem. “Terminal.” Em resumo, a trama é a seguinte: o capitão de uma nave espacial herda um antigo robô de manutenção chamado Terminus, que, enquanto realiza suas tarefas, emite constantemente algo em código Morse. Descobre-se que o robô testemunhou um desastre espacial e está reproduzindo as últimas comunicações entre os tripulantes que morreram. O mais interessante é que, quando alguém se dirige a uma das pessoas em nome de quem o robô está "conduzindo a conversa", também usando código Morse, Terminus começa a responder em nome dessa pessoa, como se ela ainda estivesse viva e a bordo da nave condenada. Fora isso, Terminus desempenha suas funções perfeitamente bem e, quando interagido em linguagem humana normal, não se lembra nem do desastre nem dos tripulantes falecidos. O capitão da nave, sendo uma pessoa pragmática, utiliza o robô até o fim da missão e depois o descarta.
Apesar de a história ser excelente em causar arrepios, o que vemos aqui é um claro exemplo de alucinação mecânica. Por algum motivo, durante a catástrofe, o robô com inteligência artificial aprendeu sozinho a imitar a comunicação entre os tripulantes que tentavam desesperadamente se salvar. O motivo disso ter acontecido, em geral, não é importante. Uma das ideias principais da história é justamente que, ao criar máquinas inteligentes, nem sempre é possível prever em que direção seu processo de autoaprendizagem pode se desviar. O importante é outra coisa. Quando o robô alucinatório recebeu um comando direto, claro e inequívoco, ele o executou com bastante eficácia. Pessoalmente, sempre achei que o capitão dessa história agiu de forma radical demais. Teria sido muito mais lógico entregar a Terminus a especialistas para estudo.
Aparentemente, Lem queria mostrar que, quando surgirem dificuldades no trabalho com IA no futuro, as melhores soluções serão frequentemente as mais simples. Ou seja, simplesmente substituir uma ferramenta "problemática" por outra.
Lógica simples
Pessoalmente, prefiro muito mais a ideia subjacente ao conto. "Razão" De outro clássico, Isaac Asimov. Nesta história, um robô com inteligência artificial parece, à primeira vista, estar protagonizando uma típica “rebelião”. A ação se passa em uma estação espacial remota com uma tripulação de apenas duas pessoas. O robô em questão é um sistema complexo projetado, essencialmente, para gerenciar outros robôs. Ele se considera a “coroa da criação”, diviniza uma das principais máquinas da estação — o conversor de energia — e se refere aos humanos como seres de ordem inferior. Além disso, começa a disseminar seus “ensinamentos” entre os outros robôs.
No entanto, logo fica óbvio para os humanos que a IA "rebelde" ainda obedece aos seus comandos e executa suas tarefas impecavelmente. Sim, ela constantemente justifica suas ações de acordo com sua própria visão de mundo, mas suas alucinações não afetam em nada a qualidade do seu trabalho. Como resultado, os humanos decidem ignorar a "loucura inofensiva" do robô.
A chave está na formulação.
Observe: tanto na história de Lem quanto na de Asimov, as IAs alucinatórias desempenham suas funções perfeitamente quando recebem comandos claros e precisos. Assim, já na "era de ouro" da ficção científica, a principal solução para o problema das alucinações da IA foi identificada. Na maioria dos casos, basta formular a tarefa para a IA corretamente. Se você deseja se deparar com menos "delírios de máquina", formule seus comandos da maneira mais clara, precisa, inequívoca e concisa possível.