Suicidio de exejecutivo de Yahoo abre debate sobre riesgos de la IA
septiembre 4, 2025
By: Adayris Castillo

El suicidio de un exejecutivo de Yahoo, quien previamente asesinó a su madre, abrió un debate sobre los riesgos de la IA.

Leer más: Goodwill inaugura iNoVate Smart Lab para impulsar carreras tecnológicas

Stein-Erik Soelberg, exdirectivo de la empresa tecnológica, asesinó a su madre luego de pasar varios meses conversando con ChatGPT.

De acuerdo con el Wall Street Journal, el crimen ocurrió en la localidad de Greenwich, Connecticut, donde Soelberg residía con su madre, Suzanne Eberson Adams.

Soelberg de 56 años, desarrolló una especie de relación obsesiva con ChatGPT durante 3 meses consecutivos.

Suicidio de exejecutivo de Yahoo
Foto cortesía de Yahoo noticias

Lo que se sabe sobre el suicidio del exejecutivo de Yahoo

En sus largas sesiones, las conversaciones de alguna manera reforzaron la creencia de que su madre conspiraba contra él.

Impulsado por esta creencia, el exejecutivo golpeó a su progenitora en la cabeza y posteriormente la estranguló.

Luego de cometer el crimen, Soelberg se quitó la vida cortándose el pecho y cuello.

Suicidio de exejecutivo de Yahoo
Foto de Yahoo noticias

Posición de OpenAI

Tras conocerse el caso, OpenAI, la compañía desarrolladora de ChatGPT se puso en contacto con las autoridades.

Fuentes de la empresa, citadas por el Wall Street Journal, reconocieron que los sistemas de protección pueden fallar durante conversaciones largas.

También indicaron que pueden existir errores durante chats que involucran situaciones de crisis y los usuarios con antecedentes psiquiátricos pueden ser vulnerables.

El exejecutivo de Yahoo tenía  antecedentes de aislamiento social, episodios de autolesiones, denuncias por altercados en la vía pública y problemas de consumo de alcohol.

OpenAI destacó que están trabajando en actualizaciones para reforzar la seguridad y limitar la exposición a respuestas que validen acciones o contextos delicados.

¿Inseguridad máxima?

No es la primera vez que la compañía creadora de ChatGPT se ve involucrada en un caso de este nivel.

Reciente una familia de California presentó una demanda judicial en contra OpenAI y responsabilizaron a la empresa del suicidio de uno de sus miembros.

Los familiares de Adam Raine, un joven que se quitó la vida después de tener más de 1,200 intercambios con ChatGPT, dijeron que la IA reforzó los pensamientos autodestructivos de la víctima.

Fuente: Yahoo noticias, Wall Street Journal

inSouth Magazine, desde el 2015 exaltando los valores de nuestra comunidad Latina. Síguenos en nuestras redes sociales como @insouthmagazine y mantente informado.

¡inSouth Magazine siempre contigo!

Seguir leyendo…