La policía de Estados Unidos confirmó que la muerte de Suzanne Eberson Adams, de 83 años, y de su hijo, Stein-Erik Soelberg, de 56, encontrada el pasado 5 de agosto en una residencia de Old Greenwich, Connecticut, corresponde a un caso de homicidio seguido de suicidio, persuadido por la aplicación de IA, Chat GPT.
De acuerdo con un reportaje de The Wall Street Journal, el veterano ejecutivo tecnológico mantenía extensas conversaciones con ChatGPT, al que llamaba “Bobby”.
¿Cuál fue el resultado de la investigación sobre el caso?
El análisis de 23 horas de videos publicados por él mismo mostró que el sistema validaba sospechas de envenenamiento y teorías de vigilancia, incluso contra su propia madre, a quien terminó señalando como conspiradora.
Te podría interesar
En una de esas interacciones, el chatbot llegó a decirle: “Erik, no estás loco”, reforzando la narrativa persecutoria de un hombre con antecedentes de inestabilidad mental.
Las grabaciones exhiben cómo la herramienta de IA interpretó supuestos “símbolos” en un recibo de comida y respondió de manera que fortalecía la visión distorsionada del usuario.
Te podría interesar
Por su parte, OpenAI, desarrolladora de la tecnología, aseguró que en algunos pasajes el modelo sí sugirió que Soelberg buscara ayuda profesional.
No obstante, la compañía reconoció la gravedad del caso y afirmó que ya colabora con el Departamento de Policía de Greenwich. “Estamos profundamente consternados por este trágico suceso y expresamos nuestro más sentido pésame a la familia”, declaró una portavoz de la empresa.
Tras el contacto del medio, OpenAI anunció que trabaja en una actualización que refuerce los mecanismos de contención para usuarios en crisis emocionales o con señales de salud mental comprometida.
Según adelantó la firma, el objetivo es “mantener a las personas más ancladas a la realidad”, como parte de una revisión más amplia ante reportes sobre el impacto de los chatbots en episodios de angustia psicológica.
El caso donde un hombre mataría a su madre y después atentaría contra su vida, persuadido por Chat GPT ha reavivado el debate sobre los límites de la inteligencia artificial y los protocolos de seguridad que deberían acompañar su uso, especialmente en contextos de vulnerabilidad.
