Uno de los temas más debatidos en el mundo de la inteligencia artificial es el peligro potencial que podría conllevar su rápido crecimiento y adopción. Tarde o temprano, esta preocupación surge en las conversaciones, ya sea con colegas, clientes o simplemente con personas curiosas sobre la IA.
El problema es que los escenarios que la gente suele imaginar son dolorosamente cliché. No hace falta enumerarlos: libros y películas han tratado los mismos planes catastróficos una y otra vez. La historia es casi siempre la misma: una IA maliciosa decide de repente que los humanos son una amenaza y desata una catástrofe a escala global, por ejemplo, un ataque nuclear o un virus letal.
Pero lo que a menudo se pasa por alto es una verdad simple: la IA no tiene ninguna razón ni motivación para atacar a los humanos. Para siquiera querer algo así, necesitaría instintos y emociones similares a los nuestros: el tipo de impulsos que impulsan a los seres vivos al miedo, la agresión o a tomar decisiones de supervivencia. La IA no es humana. Ni siquiera es una criatura biológica. Tiene objetivos completamente diferentes, junto con un sistema completamente distinto para evaluar lo que es "bueno" o "malo". Y son esos sistemas, no las emociones, los instintos ni los deseos, los que determinan cómo la IA seguirá "evolucionando".
Y lo que es más importante, la IA actual simplemente no tiene los medios físicos para dañar gravemente a la humanidad. Dicho sin rodeos, no puede tomar el control de armas estratégicas ni diseñar y propagar un virus. De hecho, no tiene acceso a… bueno, nada parecido. Para hacerse una idea de lo que la IA puede hacer realmente en este momento, considere lo siguiente: aún no hemos creado un sistema que pueda conducir un coche de forma fiable en el tráfico urbano normal. Incluso el piloto automático más avanzado solo funciona de forma segura sin un humano al volante en condiciones de prueba estrictamente controladas.
¿Significa eso que la IA es completamente inofensiva? Claro que no. Sigue siendo una tecnología, y cualquier tecnología puede ser riesgosa. La diferencia es que la mayoría de la gente no percibe ni comprende esos riesgos.
El verdadero problema es que la IA puede cometer errores. Puede "alucinar", producir disparates o emitir información falsa con total seguridad, como se quiera llamar. La etiqueta o la razón técnica no son la clave. La clave es que estos errores... do Suceden. Por sí solos, no suelen ser peligrosos. Basta con que alguien verifique los resultados antes de tomarlos al pie de la letra.
A estas alturas, probablemente ya puedas adivinar de qué tipo de amenaza habla este texto. El verdadero peligro reside en que las personas están cada vez más dispuestas a confiar en los juicios, sugerencias y resultados de la IA sin comprobarlos. Los niños y adolescentes son especialmente vulnerables. Para ellos, la IA es una compañera amable, amigable y omnisciente que siempre está ahí: un salvavidas con las tareas, una ayuda para todo, un asesor ante cualquier duda. Incluso aquellas preguntas que les da vergüenza o miedo preguntarle a un adulto.
La primera vez que noté este tipo de confianza ciega fue cuando trabajaba con motores de búsqueda. El "efecto top ten" era abrumador: la mayoría de los usuarios, tras escribir una consulta, ni siquiera miraban más allá de la primera página de resultados. Se limitaban a los diez primeros enlaces y simplemente asumían que cuanto más arriba aparecía un resultado, más preciso o relevante debía ser. Y, claro, en la mayoría de los casos esa suposición funciona. Pero definitivamente no siempre.
Es muy posible que, debido a la comunicación tan "humana" de los chats de IA, la gente acabe confiando en ellos incluso más que en los motores de búsqueda tradicionales. Podríamos llegar fácilmente a un punto en el que casi todos acepten los consejos y decisiones de la IA al pie de la letra, sin verificar nada.
Este tipo de confianza ciega es, de hecho, la amenaza más grave relacionada con la IA a la que nos enfrentamos. Es fácil imaginar las tragedias personales que podrían derivar de seguir ciegamente las directrices de la IA en ámbitos como la medicina o el derecho. Pero se vuelve aún más peligroso cuando las sugerencias de la IA se utilizan sin control en ámbitos profesionales donde la precisión afecta literalmente la vida de las personas. Pensemos en los empleados de infraestructuras críticas, la industria farmacéutica o la aviación que confían en los resultados de la IA sin verificación. Un solo error, aceptado sin revisión, podría provocar un desastre; no un apocalipsis global, sino uno muy real y doloroso.
Entonces, ¿qué podemos hacer al respecto? Primero, debemos reconocer que la amenaza no proviene de la IA en sí, sino de las personas. La fe ciega en la tecnología es simplemente otra forma de error humano. Por muy avanzada que sea la IA, seguirá cometiendo errores de vez en cuando. Por eso, verificar los resultados generados por la IA debe convertirse en un hábito, tan automático como abrocharse el cinturón de seguridad antes de conducir. Idealmente, las escuelas deberían impartir cursos sobre el uso seguro de la IA, y los padres también deberían hablar con sus hijos al respecto.
En pocas palabras, siempre debemos recordar esta verdad: no existe ningún barco “insumergible”.