El suicidio de un exejecutivo de Yahoo, quien previamente asesinó a su madre, abrió un debate sobre los riesgos de la IA.
Leer más: Goodwill inaugura iNoVate Smart Lab para impulsar carreras tecnológicas
Stein-Erik Soelberg, exdirectivo de la empresa tecnológica, asesinó a su madre luego de pasar varios meses conversando con ChatGPT.
De acuerdo con el Wall Street Journal, el crimen ocurrió en la localidad de Greenwich, Connecticut, donde Soelberg residía con su madre, Suzanne Eberson Adams.
Soelberg de 56 años, desarrolló una especie de relación obsesiva con ChatGPT durante 3 meses consecutivos.

Lo que se sabe sobre el suicidio del exejecutivo de Yahoo
En sus largas sesiones, las conversaciones de alguna manera reforzaron la creencia de que su madre conspiraba contra él.
Impulsado por esta creencia, el exejecutivo golpeó a su progenitora en la cabeza y posteriormente la estranguló.
Luego de cometer el crimen, Soelberg se quitó la vida cortándose el pecho y cuello.

Posición de OpenAI
Tras conocerse el caso, OpenAI, la compañía desarrolladora de ChatGPT se puso en contacto con las autoridades.
Fuentes de la empresa, citadas por el Wall Street Journal, reconocieron que los sistemas de protección pueden fallar durante conversaciones largas.
También indicaron que pueden existir errores durante chats que involucran situaciones de crisis y los usuarios con antecedentes psiquiátricos pueden ser vulnerables.
El exejecutivo de Yahoo tenía antecedentes de aislamiento social, episodios de autolesiones, denuncias por altercados en la vía pública y problemas de consumo de alcohol.
OpenAI destacó que están trabajando en actualizaciones para reforzar la seguridad y limitar la exposición a respuestas que validen acciones o contextos delicados.
¿Inseguridad máxima?
No es la primera vez que la compañía creadora de ChatGPT se ve involucrada en un caso de este nivel.
Reciente una familia de California presentó una demanda judicial en contra OpenAI y responsabilizaron a la empresa del suicidio de uno de sus miembros.
Los familiares de Adam Raine, un joven que se quitó la vida después de tener más de 1,200 intercambios con ChatGPT, dijeron que la IA reforzó los pensamientos autodestructivos de la víctima.
Fuente: Yahoo noticias, Wall Street Journal