Utilizando o enredo de um clássico romance gótico de ficção científica, os autores do Pitch Avatar A equipe explora o que devemos evitar ao criar e aprimorar a inteligência artificial.
Diz-se frequentemente que aqueles que temem que a inteligência artificial possa sair do controle e representar sérias ameaças à humanidade sofrem da “Síndrome de Frankenstein”. É uma comparação apropriada. Para contextualizar, no romance de Mary Shelley de 1818 Frankenstein: ou, O Prometeu Moderno, o protagonista, Victor Frankenstein, cria uma criatura humanoide a partir de partes de corpos e lhe dá vida. A criatura, no entanto, se rebela contra seu criador e embarca em uma onda de violência, cometendo uma série de assassinatos.
Este conto clássico, um dos primeiros do gênero ficção científica, é frequentemente citado como um alerta contra os esforços para criar uma inteligência que rivalize com o poder humano. Shelley, com notável perspicácia, demonstrou que tais ambições poderiam levar a resultados desastrosos.
No entanto, vamos analisar mais a fundo a trama e examinar a verdadeira mensagem que o romance de Mary Shelley oferece. Sobre o que exatamente ela está nos alertando?
Para começar, Victor Frankenstein não é motivado por um objetivo prático. Ele sequer pode ser descrito como alguém puramente obcecado por curiosidade científica. Seu trabalho é uma tentativa de lidar com o luto pessoal pela morte de sua mãe. Em outras palavras, ele não tem um propósito claro ao criar sua criatura de laboratório. Ele não considera as consequências de sua descoberta, nem toma as precauções de segurança necessárias.
O próximo erro de Frankenstein é que, aterrorizado com sua criação, ele a abandona à própria sorte. A criatura, dotada de razão, aprende a sobreviver entre os humanos por conta própria, mas sua autoeducação é desestruturada e acaba levando ao seu primeiro ato de violência.
Finalmente, ao perceber que sua criação se tornou perigosa, o cientista, em vez de buscar ajuda de colegas ou autoridades, tenta lidar sozinho com as consequências de seu experimento. Isso resulta em mais vítimas e, por fim, na própria morte de Frankenstein.
Assim, se analisarmos a história objetivamente, o alerta de Mary Shelley não se refere à descoberta científica em si, mas sim à experimentação mal planejada, insegura e imprudente. Isso serve como uma advertência universal para todos os cientistas, não apenas para aqueles que trabalham com inteligência artificial.
Resumo
Ao desenvolver modelos de inteligência artificial, é crucial definir claramente sua finalidade e escopo de aplicação. Igualmente importante é avaliar os riscos potenciais e implementar um sistema de desligamento confiável.
Cada modelo deve passar por um treinamento sistemático e de alta qualidade, com supervisão especializada em todas as etapas.
Se a experimentação com um determinado modelo de IA apresentar um perigo real, e não hipotético, os especialistas envolvidos devem alertar imediatamente as autoridades e os colegas para mobilizar os recursos necessários para mitigar o risco.
Seguindo estas diretrizes simples, inspiradas no romance de Mary Shelley, podemos minimizar os riscos associados ao que os defensores da "síndrome de Frankenstein" temem.