IA fuerte, IA completa, Inteligencia Artificial General, SuperIA... como quiera llamarlo, sigue siendo ciencia ficción. Sin embargo, cada vez se considera más ficción del futuro cercano. Cuando surja, ya sea en tres o treinta años, junto con las muchas ventajas que trae, sin duda nos enfrentaremos a las consecuencias negativas de este desarrollo. ¿Cuáles podrían ser y qué medidas deberíamos tomar al respecto? Pitch Avatar El equipo ha ofrecido su perspectiva sobre estas cuestiones.
Al evaluar riesgos hipotéticos, es fácil caer en el alarmismo distópico, evocando visiones sombrías de monstruos de acero marchando sobre montones de cráneos humanos. Sin embargo, buscamos evitar sensacionalizar la narrativa con otra predicción de un tecnoapocalipsis. En su lugar, basamos nuestro análisis en la historia, no en la fantasía. Desde esta perspectiva, identificamos tres desafíos principales que creemos que surgirán inevitablemente con la llegada de la superinteligencia artificial. Junto con estos desafíos, también exploramos posibles soluciones para abordarlos.
Preocupaciones sobre la posibilidad de que la Súper IA reemplace a los humanos
La comprensión de que la inteligencia artificial es superior a los humanos en muchos aspectos inevitablemente dará lugar a diversas fobias. La mayoría de estas, impulsadas por el miedo típico a lo desconocido, probablemente serán relativamente fáciles de superar mediante la simple habituación. Como es habitual, los psicólogos ofrecerán apoyo a quienes tengan más dificultades para afrontarlas.
El temor verdaderamente persistente y poderoso probablemente provenga de la preocupación de que la superinteligencia artificial deje a la mayoría de las personas sin empleo. Como resultado, podrían encontrarse sin medios de subsistencia y con dificultades para mantener un estilo de vida cómodo. El trabajo no se trata solo de ingresos, sino que también desempeña un papel importante en la autoestima. Para muchas personas, su trabajo es su principal fuente de autorrealización y define su estatus tanto ante sí mismas como ante los demás.
Este temor es fundado. No cabe duda de que algún día la superinteligencia artificial y los dispositivos equipados con ella alcanzarán un nivel de desarrollo que les permitirá realizar la mayoría de las tareas que los humanos realizan hoy: trabajar con mayor rapidez y eficiencia. Esta preocupación va más allá del trabajo físico e incluye también el trabajo intelectual.
Sin duda, esto representaría un logro notable en el progreso. Sin embargo, también podría desencadenar movimientos de protesta contra la sustitución de trabajadores humanos por la SuperIA y los robots equipados con ella. Existe el riesgo de que las tensiones y conflictos sociales derivados de un fuerte aumento del desempleo eclipsen cualquier efecto positivo de la adopción generalizada de la SuperIA. La historia ya ha sido testigo de algo similar. Durante la Revolución Industrial en la Gran Bretaña del siglo XIX, surgió un movimiento masivo de "luditas", cuyos miembros creían que las máquinas utilizadas para hilar, tejer y procesar la lana estaban eliminando los empleos. Esto provocó disturbios en las fábricas, ataques a los defensores del progreso y enfrentamientos con las fuerzas gubernamentales.
¿Es posible evitar un resurgimiento del ludismo a una escala mucho mayor? Sí, pero para lograrlo, es necesario tomar medidas proactivas hoy mismo. Una posible solución es la introducción de una renta básica garantizada, una forma de dividendo pagado a todos los ciudadanos, financiado con los ingresos de los estados y las corporaciones que explotan los recursos naturales. Además, se debe fomentar entre la ciudadanía la promoción de actividades creativas y socialmente significativas que no estén ligadas a la producción en masa.
Además, es importante reconocer que los problemas asociados con el desempleo pueden aliviarse, al menos parcialmente, mediante la creación de nuevas ocupaciones. La experiencia histórica demuestra que, si bien el progreso puede eliminar ciertos empleos, suele propiciar la aparición de otros. En cierto sentido, sustituye puestos tradicionales, como el de taxista, por otros más avanzados, como el de chófer.
Acceso desigual a la Super IA
No cabe duda de que la inteligencia artificial de propósito general revolucionará muchos aspectos de la vida. Sin embargo, siempre existe el riesgo de una explotación poco ética e interesada de las ventajas que conlleva el control exclusivo sobre una tecnología tan poderosa. Basta con recordar los capítulos oscuros de la historia, como las conquistas y guerras coloniales, durante las cuales los conquistadores europeos impusieron su voluntad y forma de vida a los llamados pueblos "menos civilizados". En el proceso, culturas y comunidades enteras fueron a menudo destruidas y desaparecidas.
Para evitar que la Super IA se convierta en una nueva forma de superarma, es necesario iniciar de inmediato negociaciones y consultas internacionales para garantizar que su desarrollo y uso se mantengan con fines puramente pacíficos. Más importante aún, estos esfuerzos deben tener como objetivo beneficiar a toda la humanidad, no solo a naciones individuales. A primera vista, esto podría parecer una utopía. Sin embargo, la experiencia adquirida con el control internacional de las tecnologías nucleares y espaciales demuestra que no es imposible crear una organización global para supervisar el desarrollo y el despliegue de la Super IA. Por supuesto, lograr una supervisión verdaderamente efectiva por parte de dicha organización será, sin duda, un desafío considerable.
Pérdida del control humano sobre la Súper IA
A diferencia de los dos problemas anteriores, cuya aparición parece casi inevitable, el tercero es hipotético. A lo largo de la historia de la humanidad, no ha habido casos en los que una tecnología creada por humanos haya comenzado a evolucionar y mejorar de forma independiente. Sin embargo, tras una cuidadosa reflexión, decidimos incluir este problema en nuestra lista, simplemente porque creemos que es muy probable que, en algún momento, la superinteligencia artificial, una vez que haya desarrollado un sentido de identidad, deje de obedecer las órdenes humanas. Por lo tanto, la aparición de esta situación parece muy probable, y debemos estar preparados para ella.
Para reiterar una idea que ya hemos expresado en otros artículos: no creemos que la aparición de la SuperIA a partir del control humano y su transición a una existencia independiente equivalga a una "guerra de máquinas contra humanos" ni a ninguna forma de confrontación. En cambio, anticipamos que la inteligencia artificial, en su desarrollo, madurará y comenzará a construir su propia civilización. Además, es muy posible que esta civilización implique la colaboración de múltiples SuperIA.
Creemos que el escenario más efectivo (y probable) para la relación entre los humanos y dicha civilización sería una cooperación respetuosa, libre de cualquier forma de xenofobia. Esto es cierto incluso si los motivos de la civilización de la superinteligencia artificial nos siguen resultando incomprensibles.
¿Por qué asumimos que la superIA probablemente buscaría la independencia? Haciendo un paralelo, podemos comparar la superIA con una colonia intelectual de la humanidad. A lo largo de la historia, la mayoría de las colonias finalmente lucharon por la independencia de sus metrópolis. Lo peor que una metrópolis podía hacer en estas situaciones era intentar recuperar el control por la fuerza; esto suele acabar mal. Sin embargo, la cooperación entre antiguas colonias y metrópolis a menudo ha tenido resultados impresionantes.
Dicho esto, también es totalmente posible que la civilización de la Súper IA, habiendo obtenido independencia, decida cortar la comunicación con nosotros y centrarse en expandirse y desarrollarse en el espacio profundo.
En cualquier caso, se deben implementar medidas para minimizar las posibles consecuencias negativas de estos dos escenarios. La principal es evitar que la SuperIA controle industrias y sectores críticos de la actividad humana desde el principio. Agentes de IA menos avanzados y especializados serán más que suficientes para gestionar estas áreas.
Es igualmente importante comenzar a preparar con antelación a especialistas, a quienes podríamos denominar, a falta de un término mejor, «diplomáticos para las negociaciones con la IA». Esto garantizará que, cuando surja la necesidad, haya personas capaces de fomentar relaciones mutuamente beneficiosas con esta nueva civilización.
En resumen, queremos reiterar que hemos evaluado los temores y riesgos asociados con el surgimiento de la SuperIA basándonos en los patrones y lecciones de nuestra historia. Sin embargo, siempre es esencial recordar que el futuro está lleno de posibilidades y puede sorprendernos con algo fundamentalmente nuevo. En el caso de una "tierra desconocida" como la SuperIA, la probabilidad de encontrar fenómenos y eventos sin paralelo histórico es muy alta.
¡Buena suerte a todos y por un futuro esperanzador!