Narrativa alarmante 2026: advertencias de empresas de inteligencia artificial
mayo 8, 2026
By: Carlos Graterol

Las principales compañías de inteligencia artificial han intensificado en los últimos años una narrativa que mezcla avances tecnológicos con advertencias sobre posibles escenarios catastróficos.

Desde ejecutivos de grandes firmas hasta investigadores vinculados con el sector han insistido en que algunos modelos de IA podrían representar riesgos capaces de alterar economías, sistemas de seguridad e incluso el futuro de la humanidad.

Leer más: El Salvador quiere mejorar su sistema de salud con ayuda de IA

Uno de los casos más recientes involucra a Anthropic, empresa que presentó su nuevo modelo de inteligencia artificial llamado Claude Mythos.

La compañía aseguró que esta herramienta posee capacidades avanzadas para detectar vulnerabilidades de ciberseguridad, incluso por encima de expertos humanos. Según la firma, el sistema podría tener consecuencias graves si llegara a manos equivocadas.

Narrativa
Foto de Getty Images

Alarmante narrativa con la IA

La empresa sostuvo que las repercusiones potenciales afectarían la seguridad pública, las economías y la seguridad nacional. Incluso surgieron advertencias que señalaban que tecnologías como esta podrían obligar a reemplazar dispositivos conectados a internet para evitar riesgos digitales.

Sin embargo, especialistas y académicos cuestionan la forma en que estas empresas presentan sus desarrollos.

Para algunos analistas, el constante énfasis en posibles escenarios apocalípticos forma parte de una estrategia para generar temor y, al mismo tiempo, fortalecer la percepción de que estas compañías son indispensables para controlar la tecnología que ellas mismas crean.

La profesora Shannon Vallor, especialista en ética de datos e inteligencia artificial de la Universidad de Edimburgo, considera que este tipo de mensajes provoca una sensación de impotencia social.

Según explica, al describir la inteligencia artificial como una fuerza casi incontrolable, las empresas logran posicionarse como las únicas capaces de proteger a la sociedad de los riesgos futuros.

Anthropic no es la única compañía señalada por utilizar este tipo de narrativa. OpenAI también protagonizó situaciones similares años atrás.

En 2019, cuando varios de sus ejecutivos trabajaban en el desarrollo de GPT-2, la empresa aseguró inicialmente que el modelo era demasiado peligroso para ser liberado públicamente debido a posibles usos malintencionados. Meses después, el sistema terminó siendo publicado.

El actual director ejecutivo de OpenAI, Sam Altman, ha realizado durante años declaraciones sobre los riesgos potenciales de la inteligencia artificial. En una oportunidad afirmó que la IA podría conducir al fin del mundo, aunque también destacó que surgirían enormes oportunidades empresariales.

Más adelante reconoció haber perdido el sueño pensando si lanzar ChatGPT había sido una decisión equivocada.

En paralelo, líderes tecnológicos como Elon Musk, Bill Gates, Demis Hassabis y el propio Altman respaldaron en 2023 una declaración donde afirmaban que el riesgo de extinción derivado de la inteligencia artificial debía considerarse una prioridad global comparable a las pandemias o la guerra nuclear.

No obstante, críticos de la industria sostienen que este enfoque desvía la atención de problemas que ya existen actualmente alrededor de la inteligencia artificial.

Entre ellos mencionan el impacto ambiental derivado del funcionamiento de grandes centros de datos, el posible deterioro cognitivo asociado al uso excesivo de sistemas automatizados, la proliferación de deepfakes y el impacto sobre la salud mental de usuarios vulnerables.

La profesora Emily M. Bender, experta en lingüística computacional y procesamiento del lenguaje natural, considera que gran parte del discurso de la industria busca minimizar preocupaciones más inmediatas.

Según señala, mientras las empresas hablan sobre hipotéticos escenarios de destrucción global, otros problemas concretos relacionados con explotación laboral, consumo energético y desinformación quedan relegados.

Las dudas también alcanzan las afirmaciones técnicas realizadas sobre Claude Mythos. Heidy Khlaaf, científica especializada en inteligencia artificial y seguridad digital, cuestionó la ausencia de datos relacionados con falsos positivos en las pruebas presentadas por Anthropic.

Para la investigadora, este indicador es fundamental para medir la utilidad real de una herramienta de ciberseguridad.

Khlaaf reconoció que la inteligencia artificial puede ser útil para analizar grandes volúmenes de código y detectar vulnerabilidades, pero considera que las afirmaciones de la empresa carecen de pruebas suficientes que respalden el nivel de peligro descrito públicamente.

Narrativa
Foto de Serenity Strull/ BBC/ Getty Images

Mientras tanto, compañías como OpenAI y Anthropic continúan avanzando en sus planes de expansión y transformación empresarial. Ambas organizaciones, que originalmente promovieron modelos enfocados en seguridad y responsabilidad, trabajan actualmente en procesos que buscan fortalecer su presencia comercial y financiera.

El debate sobre la IA sigue creciendo entre promesas de avances revolucionarios y advertencias sobre riesgos extremos. Para muchos expertos, el verdadero desafío consiste en encontrar mecanismos de regulación y supervisión que permitan aprovechar el potencial de esta tecnología sin convertir esta narrativa en el miedo a la principal herramienta de comunicación de la industria.

Fuente: BBC

inSouth Magazine, desde el 2015 exaltando los valores de nuestra comunidad Latina. Síguenos en nuestras redes sociales como @insouthmagazine y mantente informado.

¡inSouth Magazine siempre contigo!

Seguir leyendo…

Revelan peligros silenciosos por pasar muchas horas sentado

Hacer ejercicio sigue siendo esencial, pero también resulta fundamental evitar permanecer sentado durante demasiadas horas consecutivas. En una sociedad cada vez más dependiente de las pantallas y el trabajo de oficina, reducir el tiempo de inmovilidad podría convertirse en uno de los hábitos más importantes para proteger el bienestar físico, cuidarte de estos peligros y mental a largo plazo.

Revelan peligros silenciosos por pasar muchas horas sentado

Revelan peligros silenciosos por pasar muchas horas sentado

Hacer ejercicio sigue siendo esencial, pero también resulta fundamental evitar permanecer sentado durante demasiadas horas consecutivas. En una sociedad cada vez más dependiente de las pantallas y el trabajo de oficina, reducir el tiempo de inmovilidad podría convertirse en uno de los hábitos más importantes para proteger el bienestar físico, cuidarte de estos peligros y mental a largo plazo.