¿Cómo evitar repetir los errores de Victor Frankenstein?

Utilizando la trama de una novela gótica de ciencia ficción clásica, los autores de Pitch Avatar El equipo explora qué debemos evitar al crear y mejorar la inteligencia artificial.

A quienes temen que la inteligencia artificial se descontrole y represente una grave amenaza para la humanidad se les suele decir que padecen el «síndrome de Frankenstein». Es una comparación acertada. Para contextualizar, en la novela de Mary Shelley de 1818… Frankenstein: o, El moderno Prometeo, el protagonista, Victor FrankensteinCrea una criatura humanoide a partir de partes del cuerpo y le da vida. Sin embargo, la criatura se rebela contra su creador y se embarca en una violenta ola de asesinatos.

Este relato clásico, uno de los primeros de la ciencia ficción, se cita a menudo como una advertencia contra los intentos de crear una inteligencia que rivalice con la humana. Shelley, con una perspicacia extraordinaria, demostró que tales ambiciones podían tener consecuencias desastrosas.

Sin embargo, profundicemos en la trama y examinemos el verdadero mensaje que ofrece la novela de Mary Shelley. ¿De qué nos está advirtiendo exactamente?

Para empezar, Victor Frankenstein no se guía por un objetivo práctico. Ni siquiera se le puede describir como un mero obsesionado con la curiosidad científica. Su obra es un intento de sobrellevar el duelo por la muerte de su madre. En otras palabras, no tiene un propósito claro al crear su criatura de laboratorio. No considera las consecuencias de su descubrimiento ni toma las precauciones de seguridad necesarias.

El siguiente error de Frankenstein es que, aterrorizado por su creación, la abandona a su suerte. La criatura, dotada de razón, aprende a sobrevivir entre los humanos por sí misma, pero su autoeducación carece de estructura y, en última instancia, la conduce a su primer acto de violencia.

Finalmente, al darse cuenta de que su creación se ha vuelto peligrosa, el científico, en lugar de buscar ayuda de colegas o autoridades, intenta lidiar solo con las consecuencias de su experimento. Esto provoca más víctimas y, en última instancia, la propia muerte de Frankenstein.

Así pues, si analizamos la historia objetivamente, la advertencia de Mary Shelley no se refiere al descubrimiento científico en sí, sino a la experimentación mal planificada, insegura e imprudente. Esto constituye una advertencia universal para todos los científicos, no solo para quienes trabajan en inteligencia artificial.

Resumen

Al desarrollar modelos de inteligencia artificial, es fundamental definir claramente su propósito y alcance de aplicación. Igualmente importante es evaluar los riesgos potenciales e implementar un sistema de apagado confiable.

Cada modelo debe someterse a un entrenamiento sistemático y de alta calidad, con supervisión experta en cada etapa.

Si la experimentación con un modelo de IA en particular presenta un peligro real, en lugar de hipotético, los expertos involucrados deben alertar inmediatamente a las autoridades y colegas para movilizar los recursos necesarios para mitigar el riesgo.

Siguiendo estas sencillas pautas, inspiradas en la novela de Mary Shelley, podemos minimizar los riesgos asociados a lo que temen los defensores del “síndrome de Frankenstein”.

Este texto ha sido traducido automáticamente. Por favor, no nos juzgue con dureza si encuentra errores en él. Nuestros lingüistas trabajan para garantizar que la traducción de la más alta calidad aparezca lo antes posible. Puede encontrar el original de este material cambiando a la versión en inglés de la página.