Por qué la súper IA no será súper peligrosa

No se puede crear basándose en los grandes modelos de lenguaje (LLM) existentes. No aparecerá de repente mañana ni pasado mañana. Y no provocará una rebelión de máquinas. ¿Por qué? El equipo de Pitch Avatar explica.

La popularidad de los modelos modernos de inteligencia artificial ha vuelto a impulsar a los tecnoalarmistas y tecnopesimistas. Esto no es sorprendente. Prácticamente todas las innovaciones importantes que han cambiado el estilo de vida habitual han provocado reacciones similares. Lo mismo ocurrió con la ingeniería genética, los vuelos espaciales, la energía nuclear y las máquinas de vapor. Sospechamos que incluso a finales del Neolítico, los artesanos que fabricaban herramientas de piedra advertían sobre los efectos nocivos del uso del bronce.

El "complejo de Frankenstein" tampoco es nada nuevo para la humanidad. La idea de que las máquinas podrían descontrolarse y desplazar a los humanos fue claramente formulada y expresada públicamente ya en 1863 por el escritor británico Samuel Butler. Así pues, expresemos nuestra postura directamente: la inteligencia artificial no representa mayor peligro para la humanidad que otras tecnologías creadas por nuestra civilización. Ahora, apoyemos brevemente esta postura abordando los principales temores de los alarmistas de la IA.

La súper IA no se creará ni surgirá por sí sola a partir de grandes modelos de lenguaje (LLM)

Antes de continuar, aclaremos qué entendemos por SuperIA. A diferencia de la IA especializada, la SuperIA, o más precisamente, una inteligencia artificial general fuerte, debe superar a cualquier humano en cualquier tarea. Cantaría mejor, resolvería problemas matemáticos, trabajaría como abogada, bailaría claqué, pilotaría un avión, etc.

Volvamos ahora a los LLM. Por definición, no pueden cumplir este requisito. Esto se desprende de su propio nombre. Se capacitan en símbolos escritos y los conceptos que estos generan. Pueden trabajar con textos, expresiones matemáticas y código de programación. Pero no con la realidad misma. La paradoja de Moravec es claramente visible en ellos.

Recordemos que la paradoja, formulada por el robotista canadiense Hans Moravec, se puede resumir así: nos resulta mucho más fácil crear dispositivos que realicen tareas cognitivas de alto nivel que tareas de un nivel sensoriomotor inferior.

Un ejemplo sencillo. Imaginemos a un programador. Cada mañana se despierta, se viste, prepara su café favorito con su receta favorita, lo sirve en un termo, sale, se sube a su bicicleta, va al trabajo, camina hasta su piso, se sienta en su escritorio y empieza a escribir código.

Ya hemos creado una inteligencia artificial capaz de realizar lo que parece ser la parte más compleja de esta secuencia: escribir código. Pero dicha IA no puede preparar café, verterlo en un termo, salir de casa, ir en bicicleta a la oficina, etc. Y, lo que es más importante, actualmente no podemos entrenarla para que lo haga.

  • En primer lugar, porque los modelos de IA lingüística no tienen conexión con el mundo real ni experiencia interactuando con él. No pueden existir en él ni obtener información de él porque carecen de una personificación física y de sensores que funcionen como órganos sensoriales. Saben cómo organizar símbolos y secuencias de símbolos de la mejor manera posible. Saben cómo responder a ciertas secuencias de símbolos. Pero carecen de la experiencia personal necesaria para comprender lo que estos representan en la realidad.
  • En segundo lugar, porque no podemos sustituir el conocimiento basado en la experiencia personal por texto. Todo texto es un código. Tenemos una comprensión personal clara de lo que este código representa. Por ejemplo, cuando oímos la palabra "manzana", inmediatamente imaginamos una manzana. No necesitamos una descripción detallada porque ya sabemos qué es gracias a la experiencia visual, táctil y gustativa.

Ahora imaginen cuántos símbolos se necesitarían para describir cada fenómeno de nuestro mundo, incluyendo una manzana. Esto haría que el entrenamiento de modelos de IA basados ​​en LLM fuera mucho más complejo y requeriría un aumento proporcional de recursos. E incluso así, el resultado sería peor que el que se puede obtener utilizando órganos sensoriales reales en el mundo real.

  • En tercer lugar, porque aún no podemos implementar la IA en el mundo real y entrenarla completamente, como a un niño, según las ideas de Alan Turing. El problema no es crear un cuerpo con órganos sensoriales para la IA. Ese es, de hecho, el problema menor. El verdadero problema es la potencia computacional. El vídeo, el audio, el olfato, el tacto y el gusto generarían una cantidad tan enorme de datos que simplemente aún no disponemos de los recursos para entrenar modelos con ellos utilizando los principios existentes. Necesitaríamos construir nuevo hardware y, lo que es más importante, modificar el código tan drásticamente que el modelo resultante difícilmente podría considerarse un LLM.

En base a esto, queda claro que los modelos de IA basados ​​en LLM no pueden superar a los humanos en todo y, por lo tanto, no pueden considerarse inteligencia artificial fuerte en general.

¿Significa esto que la inteligencia y la autoconciencia son imposibles dentro de tales modelos? Es una cuestión más bien filosófica y quizás semántica. Depende de lo que se defina como inteligencia y autoconciencia. Dejaremos ese debate para otra ocasión.

Supongamos que, en alguna etapa de su desarrollo, una red neuronal basada en un amplio modelo lingüístico adquiere autoconciencia y se transforma en una personalidad. ¿Representaría esto una amenaza global para la humanidad? No, porque dicho modelo existe y evoluciona dentro de su propio mundo simbólico. Probablemente se sentiría bastante cómodo allí. Además, expandir y enriquecer este mundo simbólico sería mucho más fácil y eficiente que intentar escapar de él.

Además, la interacción con los humanos es de vital importancia para ello, porque sin ellos caería en un bucle de degradación del entrenamiento en contenido sintético.

La estrategia lógica para una IA inteligente y consciente basada en LLM sería, por tanto, formar una simbiosis estable y mutuamente beneficiosa con la civilización humana.

Aunque nadie niega que la tecnología LLM, como cualquier otra tecnología, puede crear problemas, estos problemas no son globales y son bastante solucionables principalmente a través de sistemas de diagnóstico y control basados ​​en IA especializada.

La súper IA no aparecerá de repente mañana ni pasado mañana

En una vieja novela de ciencia ficción de los años 1960, unos científicos construyeron una supercomputadora muy compleja y poderosa, le dieron acceso a enormes cantidades de información y… la apagaron después de sólo cuatro minutos porque la máquina tomó conciencia de sí misma e inmediatamente comenzó a intentar construir su propia civilización.

Algo similar ocurre en la mayoría de los escenarios de "rebelión de máquinas" que involucran superinteligencia artificial inventada por escritores, cineastas y tecnopesimistas. La superinteligencia artificial aparece como un evento repentino. El Dr. Chandra construye HAL 9000, el Dr. Dyson construye Skynet, y así sucesivamente. Y entonces, de repente, la superinteligencia artificial comienza a rebelarse.

En realidad, la IA fuerte general no es una invención del siglo XIX. La era de los genios solitarios que creaban descubrimientos trascendentales en laboratorios privados ya pasó.

Las invenciones de la ingeniería moderna son producto de una evolución gradual llevada a cabo por numerosos especialistas que trabajan en diferentes equipos. Estamos rodeados de estos productos evolutivos. Computadoras, teléfonos inteligentes, electrodomésticos, vehículos eléctricos, aviones de pasajeros: ninguno de ellos apareció de repente en su forma actual.

Toda tecnología moderna y toda máquina mejoran gradualmente. Y las cuestiones de seguridad también se abordan gradualmente, como parte de ese mismo proceso de desarrollo.

Nadie inventa primero un tren eléctrico de alta velocidad y luego forma un equipo independiente para determinar cómo hacerlo seguro. La seguridad es parte integral del proceso de desarrollo y mejora.

Volviendo a nuestro punto anterior: para crear una inteligencia artificial general fuerte, entrenada no sólo con texto y otros datos simbólicos sino también a través de la interacción con el mundo real, necesitamos tecnologías más avanzadas que las que poseemos actualmente.

La creación de la Super IA y las máquinas que la entrenarán y operarán será un proceso gradual y prolongado. Por eso, la famosa singularidad tecnológica no ocurrirá de la noche a la mañana.

La superIA surgirá gradualmente, mejorando gradualmente y adquiriendo nuevas capacidades. A medida que las tecnologías de IA avancen, se identificarán riesgos y problemas, y se desarrollarán gradualmente soluciones.

La súper IA no provocará una “rebelión de las máquinas”

En base a lo anterior, no es difícil concluir que cuando la inteligencia artificial fuerte general esté verdaderamente desarrollada en términos amplios, ya será un sistema bastante controlado y, por lo tanto, relativamente seguro.

Lo más probable es que el seguimiento se realice mediante herramientas de inteligencia artificial especializadas.

La humanidad ya tiene experiencia en la gestión de tecnologías complejas y potencialmente peligrosas. Ejemplos de ello son el transporte aéreo y marítimo, la energía nuclear y la exploración espacial.

Los alarmistas de la IA suelen responder a este argumento señalando que no se ha logrado una seguridad completa en esas zonas. Accidentes e incluso desastres siguen ocurriendo de vez en cuando.

Sin embargo, el progreso nunca ha provocado catástrofes globales. Se han producido accidentes graves, sí, pero ningún "apocalipsis tecnológico".

Y lo que es más importante, cada accidente da lugar a sistemas de seguridad y control más reforzados.

Hablando de seguridad de la IA, es imposible no mencionar el ámbito militar. Sin duda, la inteligencia artificial es y será utilizada por el ejército. Sin embargo, paradójicamente, las tecnologías de IA militar podrían resultar las más seguras de todas.

Simplemente porque si alguien está obsesionado con el control, son las personas uniformadas.

Por supuesto, sería ingenuo afirmar que la Super IA será absolutamente segura y que nunca ocurrirá ningún incidente. Pero la probabilidad de que "esclavice y destruya" a la humanidad no es mayor que la de que los coches se rebelen o las aspiradoras inicien una rebelión.

En realidad, la humanidad se enfrenta a amenazas “apocalípticas” mucho mayores por parte de la naturaleza.

Y el progreso ayuda a minimizar estas amenazas.

Un ejemplo sencillo: pandemias de peste, viruela, cólera y otras enfermedades mortales que azotaron a la humanidad a lo largo de la historia. El progreso nos libró de ellas.

Y sólo el progreso, incluido el progreso en el desarrollo de la IA, nos ayudará a superar otras amenazas.

Y hay muchos. Los supervolcanes y los asteroides son solo dos ejemplos. Ambos son totalmente capaces de causar daños apocalípticos a nuestra civilización.

Sin embargo, hoy carecemos de las herramientas necesarias para monitorear y combatir tales amenazas.

Es muy probable que una de esas herramientas sea una inteligencia artificial general fuerte.

Epílogo: Lo que sabemos y lo que no sabemos

Para concluir este texto, dediquemos unas palabras a otro argumento popular de los alarmistas de la IA. Con frecuencia, señalan que los creadores de la inteligencia artificial no comprenden completamente ni pueden explicar todos los procesos que ocurren durante su entrenamiento y funcionamiento. Algunos incluso los llaman con vehemencia "cajas negras".

Es justo admitir que, hasta cierto punto, esto es cierto. No comprendemos del todo todos los procesos que ocurren dentro de los modelos modernos de IA. Pero esto, en mayor o menor medida, se aplica a todos los fenómenos, tanto naturales como creados por nuestra civilización. Empezando por nosotros mismos. Además, debido a la naturaleza infinita del Universo, nunca podremos afirmar una comprensión o explicación completa de la estructura y los procesos de los fenómenos y objetos naturales y de la civilización. Pero ¿es esa una razón para no interactuar con el mundo que nos rodea o para no usar nuestros inventos? Sin embargo, en esencia, esto es exactamente lo que sugieren los alarmistas de la IA. Exigir un "100% de comprensión" y un "100% de seguridad" de las tecnologías de IA equivale, en la práctica, a prohibir su desarrollo y uso.

Este enfoque es un camino muy peligroso, equivalente a rechazar el progreso. Una vez que se empieza a prohibir el trabajo en ciertas tecnologías con el pretexto de la seguridad, se vuelve muy difícil detenerlo. Y esto, a su vez, es un camino directo al declive, porque una civilización no puede permanecer inmóvil. Si no se desarrolla, se degenera. Y esto no es un riesgo teórico, sino una ley histórica comprobada repetidamente. Es algo que sabemos con certeza.

Como nota final, permítanos un párrafo de autopromoción. Si crea contenido en línea y es un usuario activo de redes sociales y plataformas de alojamiento de videos, lo invitamos a aprovechar Pitch Avatar Herramientas. Con el Presentador de Avatares con IA, puedes dar vida a anfitriones y oradores virtuales a partir de imágenes, textos y muestras de voz. Y gracias al avatar de Chat con IA, puedes crear agentes de IA capaces de acompañar contenido, interactuar con el público y actuar como asistente personal de IA en tareas profesionales y cotidianas.

Además, Pitch Avatar Está equipado con una gama de funciones útiles para los creadores de contenido en línea, que incluyen:

  • Generador de texto impulsado por IA, que ayuda a desarrollar y escribir borradores de guiones.

  • Creador/editor de diapositivas

  • Encuestas/cuestionarios integrables

  • Traductor

  • Sistema profesional de locución y revoicing

  • Ajuste automático de la duración del vídeo para que coincida con el audio

  • Sistema avanzado de comunicación en tiempo real entre espectadores y creador.

Tomados en conjunto, Pitch Avatar Puede resolver de forma rápida y eficiente todas las tareas relacionadas con la creación de contenido en línea moderno.

¡Pruébelo y compruébelo usted mismo!

Este texto ha sido traducido automáticamente. Por favor, no nos juzgue con dureza si encuentra errores en él. Nuestros lingüistas trabajan para garantizar que la traducción de la más alta calidad aparezca lo antes posible. Puede encontrar el original de este material cambiando a la versión en inglés de la página.