Não pode ser criado com base nos modelos de linguagem de grande escala (LLM) existentes. Não surgirá repentinamente amanhã ou depois de amanhã. E não desencadeará uma revolta das máquinas. Por quê? A equipe da Pitch Avatar explica.
A popularidade dos modelos modernos de inteligência artificial reacendeu o interesse de alarmistas e pessimistas da tecnologia. Isso não é nenhuma surpresa. Praticamente toda grande inovação que mudou o modo de vida que nos era familiar provocou reações semelhantes. O mesmo aconteceu com a engenharia genética, os voos espaciais, a energia nuclear e as máquinas a vapor. Suspeitamos que, mesmo no final do período Neolítico, os artesãos que fabricavam ferramentas de pedra já alertavam sobre os efeitos nocivos do uso do bronze.
O “complexo de Frankenstein” também não é novidade para a humanidade. A ideia de que as máquinas poderiam sair do controle e substituir os humanos foi claramente formulada e expressa publicamente já em 1863 pelo escritor britânico Samuel Butler. Portanto, vamos declarar nossa posição diretamente: a inteligência artificial não representa um perigo maior para a humanidade do que outras tecnologias criadas por nossa civilização. Agora, vamos fundamentar brevemente essa posição abordando os principais temores dos alarmistas da IA.
A Super Inteligência Artificial não será criada nem surgirá espontaneamente a partir de Grandes Modelos de Linguagem (LLM).
Antes de prosseguirmos, vamos esclarecer o que entendemos por Super IA. Ao contrário da IA especializada, a Super IA, ou mais precisamente, uma inteligência artificial forte e geral, deve superar qualquer ser humano em qualquer tarefa. Ela seria capaz de cantar melhor, resolver problemas matemáticos, atuar como advogada, sapatear, pilotar uma aeronave e assim por diante, simultaneamente.
Voltemos agora aos mestres em direito (LLMs). Por definição, eles não atendem a esse requisito. Isso fica evidente pelo próprio nome. Eles são treinados em símbolos escritos e nos conceitos formados a partir desses símbolos. Podem trabalhar com textos, expressões matemáticas e código de programação. Mas não com a realidade em si. O paradoxo de Moravec é claramente visível neles.
Lembremos que o paradoxo, formulado pelo roboticista canadense Hans Moravec, pode ser resumido da seguinte forma: é muito mais fácil para nós criarmos dispositivos que executem tarefas cognitivas de alto nível do que tarefas de um nível sensório-motor inferior.
Um exemplo simples. Imagine um programador. Todas as manhãs ele acorda, se veste, prepara seu café favorito seguindo sua receita preferida, coloca-o em uma caneca térmica, sai de casa, pega sua bicicleta, vai para o trabalho, caminha até seu andar, senta-se à sua mesa e começa a escrever código.
Já criamos inteligência artificial capaz de executar o que parece ser a parte mais complexa dessa sequência: escrever código. Mas essa IA não consegue fazer café, colocá-lo em uma garrafa térmica, sair de casa, ir de bicicleta para o escritório e assim por diante. E, o que é importante, atualmente não conseguimos treiná-la para fazer isso.
- Primeiro, porque os modelos linguísticos de IA não têm ligação com o mundo real nem experiência de interação com ele. Não podem existir dentro dele nem obter informações dele, pois lhes falta uma forma física e sensores que funcionem como órgãos sensoriais. Sabem como organizar símbolos e sequências simbólicas da melhor maneira possível. Sabem como responder a certas sequências simbólicas. Mas não possuem a experiência pessoal necessária para compreender o que essas coisas representam na realidade.
- Em segundo lugar, porque não podemos substituir o conhecimento baseado na experiência pessoal por texto. Qualquer texto é um código. Temos uma compreensão pessoal clara do que esse código representa. Por exemplo, quando ouvimos a palavra "maçã", imediatamente imaginamos uma maçã. Não precisamos de uma descrição detalhada porque já sabemos o que ela é com base na experiência visual, tátil e gustativa.
Agora imagine quantos símbolos seriam necessários para descrever cada fenômeno do nosso mundo, incluindo uma maçã. Isso tornaria o treinamento de modelos de IA baseados em LLM ordens de magnitude mais complexo e exigiria um aumento proporcional de recursos. Mesmo assim, o resultado ainda seria pior do que o que pode ser obtido usando órgãos sensoriais reais no mundo real.
- Terceiro, porque ainda não podemos inserir a IA no mundo real e treiná-la completamente ali, como uma criança, de acordo com as ideias de Alan Turing. A questão não é criar um corpo com órgãos sensoriais para a IA. Esse é, na verdade, o menor dos problemas. A verdadeira questão é o poder computacional. Vídeo, áudio, olfato, tato e paladar gerariam uma quantidade tão massiva de dados que simplesmente não temos recursos suficientes para treinar modelos com eles usando os princípios existentes. Precisaríamos construir novos hardwares e, mais importante, modificar o código de forma tão drástica que o modelo resultante dificilmente poderia ser chamado de LLM (Modelo de Aprendizado de Máquina).
Com base nisso, fica claro que os modelos de IA baseados em LLMs não conseguem superar os humanos em tudo e, portanto, não podem ser considerados inteligência artificial forte de forma geral.
Isso significa que inteligência e autoconsciência são impossíveis dentro desses modelos? Essa é uma questão mais filosófica e talvez semântica. Depende de como se define inteligência e autoconsciência. Deixaremos esse debate para outra ocasião.
Vamos supor que, em algum estágio de desenvolvimento, uma rede neural baseada em um grande modelo de linguagem se torne autoconsciente e se transforme em uma personalidade. Isso representaria uma ameaça global para a humanidade? Não, porque tal modelo existe e evolui dentro de seu próprio mundo de símbolos. Provavelmente se sentiria bastante "confortável" ali. Além disso, expandir e enriquecer esse mundo simbólico seria muito mais fácil e eficiente do que tentar escapar dele.
Além disso, a interação com humanos é fundamental para o processo, pois sem eles o treinamento entraria em um ciclo vicioso de degradação, baseado em conteúdo sintético.
A estratégia lógica para uma IA inteligente e consciente baseada em LLM seria, portanto, formar uma simbiose estável e mutuamente benéfica com a civilização humana.
Embora ninguém negue que a tecnologia LLM, como qualquer outra tecnologia, possa criar problemas, esses problemas não são globais e são bastante solucionáveis, principalmente por meio de sistemas de diagnóstico e controle construídos com IA especializada.
A Super IA não aparecerá de repente amanhã ou depois de amanhã.
Num antigo romance de ficção científica dos anos 1960, cientistas construíram um supercomputador muito complexo e poderoso, deram-lhe acesso a vastas quantidades de informação e… desligaram-no após apenas quatro minutos porque a máquina se tornou autoconsciente e imediatamente começou a tentar construir a sua própria civilização.
Algo semelhante acontece na maioria dos cenários de "revolta das máquinas" envolvendo Super IA inventada por escritores, cineastas e tecnopessimistas. A Super IA surge como um evento repentino. O Dr. Chandra constrói o HAL 9000, o Dr. Dyson constrói a Skynet, e assim por diante. E então, de repente, a Super IA começa a se rebelar.
Na realidade, a inteligência artificial forte geral não é uma invenção do século XIX. A era dos gênios solitários que criavam descobertas revolucionárias em laboratórios privados já passou.
As invenções da engenharia moderna são produtos de uma evolução gradual realizada por muitos especialistas que trabalham em diferentes equipes. Estamos cercados por esses produtos evolutivos. Computadores, smartphones, eletrodomésticos, veículos elétricos, aviões a jato – nenhum deles surgiu repentinamente em sua forma atual.
Toda tecnologia moderna e toda máquina melhoram gradualmente. E as questões de segurança também são abordadas gradualmente, como parte desse mesmo processo de desenvolvimento.
Ninguém inventa primeiro um trem elétrico de alta velocidade e depois forma uma equipe separada para descobrir como torná-lo seguro. A segurança é parte integrante do próprio processo de desenvolvimento e aprimoramento.
Retomando o ponto inicial: para criar uma inteligência artificial robusta e geral, treinada não apenas em texto e outros dados simbólicos, mas também por meio da interação com o mundo real, precisamos de tecnologias mais avançadas do que as que possuímos atualmente.
A criação da Super Inteligência Artificial e das máquinas que a treinarão e operarão será um processo gradual que se estenderá ao longo do tempo. É por isso que a famosa singularidade tecnológica não acontecerá da noite para o dia.
A Super IA surgirá passo a passo, aprimorando-se gradualmente e adquirindo novas capacidades. À medida que as tecnologias de IA avançam, riscos e problemas serão identificados e soluções para eles também serão desenvolvidas gradualmente.
A Super IA não desencadeará uma "revolta das máquinas".
Com base no exposto, não é difícil concluir que, quando a inteligência artificial forte geral estiver verdadeiramente desenvolvida em termos amplos, já será um sistema bastante controlado e, portanto, relativamente seguro.
Muito provavelmente, o monitoramento será realizado utilizando ferramentas especializadas de IA.
A humanidade já possui experiência na gestão de tecnologias complexas e potencialmente perigosas. Exemplos disso incluem o transporte aéreo e marítimo, a energia nuclear e a exploração espacial.
Os alarmistas da IA geralmente respondem a esse argumento apontando que a segurança completa não foi alcançada nessas áreas. Acidentes e até desastres ainda ocorrem de tempos em tempos.
No entanto, o progresso nunca resultou em catástrofes globais. Acidentes graves aconteceram, sim, mas nenhum "apocalipse tecnológico".
E, o que é mais importante, cada acidente leva a sistemas de segurança e monitoramento mais robustos.
Ao falar sobre segurança da IA, é impossível não mencionar a esfera militar. Não há dúvida de que a inteligência artificial é e será usada pelos militares. Contudo, paradoxalmente, as tecnologias de IA militares podem vir a ser as mais seguras de todas.
Simplesmente porque, se há alguém obcecado por controle, são as pessoas em uniforme.
É claro que seria ingenuidade afirmar que a Superinteligência Artificial será absolutamente segura e que nenhum incidente jamais ocorrerá. Mas a probabilidade de ela "escravizar e destruir" a humanidade não é maior do que a probabilidade de carros se revoltarem ou aspiradores de pó iniciarem uma rebelião.
Na realidade, a humanidade enfrenta ameaças "apocalípticas" muito maiores provenientes da natureza.
E o progresso ajuda a minimizar essas ameaças.
Um exemplo simples: as pandemias de peste, varíola, cólera e outras doenças mortais que atormentaram a humanidade ao longo da história. O progresso nos libertou delas.
E somente o progresso, incluindo o progresso no desenvolvimento da IA, nos ajudará a superar outras ameaças.
E existem muitos deles. Supervulcões e asteroides são apenas dois exemplos. Ambos são plenamente capazes de causar danos "apocalípticos" à nossa civilização.
No entanto, hoje não dispomos das ferramentas necessárias para monitorar e combater tais ameaças.
É muito provável que uma dessas ferramentas seja a inteligência artificial forte de forma geral.
Epílogo: O que sabemos e o que não sabemos
Para concluir este texto, dediquemos algumas palavras a outro argumento popular entre os alarmistas da IA. Frequentemente, eles apontam que os criadores da inteligência artificial não compreendem totalmente e não conseguem explicar todos os processos que ocorrem durante seu treinamento e operação. Alguns chegam a chamá-las, em tom de voz grave, de “caixas-pretas”.
É justo admitir que, em certa medida, isso é verdade. Não compreendemos completamente todos os processos que ocorrem dentro dos modelos modernos de IA. Mas isso, em maior ou menor grau, aplica-se a todos os fenômenos – tanto naturais quanto aqueles criados pela nossa civilização. Começando por nós mesmos. Além disso, devido à natureza infinita do Universo, jamais seremos capazes de afirmar uma compreensão ou explicação completa da estrutura e dos processos dos fenômenos e objetos naturais e civilizacionais. Mas será isso motivo para não interagirmos com o mundo ao nosso redor ou para não utilizarmos nossas invenções? Na verdade, é exatamente isso que os alarmistas da IA estão sugerindo. Exigir “100% de compreensão” e “100% de segurança” das tecnologias de IA equivale, na prática, a proibir seu desenvolvimento e uso.
Essa abordagem é um caminho muito perigoso, equivalente a rejeitar o progresso. Uma vez que se começa a proibir o trabalho em certas tecnologias sob o pretexto de segurança, torna-se muito difícil parar. E isso, por sua vez, é um caminho direto para o declínio, porque uma civilização não pode ficar parada. Se não se desenvolve, degenera. E esse não é um risco teórico, mas uma lei histórica comprovada repetidamente. Isso é algo que sabemos com certeza.
Para finalizar, permitam-nos um breve momento de autopromoção. Se você é criador de conteúdo online, usuário ativo de mídias sociais e plataformas de hospedagem de vídeos, convidamos você a aproveitar esta oportunidade. Pitch Avatar Ferramentas. Com o Apresentador de Avatar com IA, você pode "dar vida" a apresentadores e palestrantes virtuais com base em imagens, textos e amostras de voz carregados. E graças ao Avatar de Chat com IA, você pode criar agentes de IA capazes de acompanhar o conteúdo, interagir com o público e servir como um assistente pessoal de IA em tarefas profissionais e do dia a dia.
Além disso, Pitch Avatar Está equipado com uma série de funcionalidades úteis para criadores de conteúdo online, incluindo:
Gerador de texto com inteligência artificial, que ajuda a desenvolver e escrever rascunhos de roteiros.
Criador/editor de slides
Pesquisas/questionários incorporáveis
Tradutor
Sistema profissional de locução e regravação
Ajuste automático da duração do vídeo para corresponder ao áudio.
Sistema avançado para comunicação em tempo real entre espectadores e o criador.
Tomados em conjunto, Pitch Avatar Pode resolver de forma rápida e eficiente todas as tarefas relacionadas à criação de conteúdo online moderno.
Experimente e veja por si mesmo!