ENTREVISTAS LUIS CÁRDENAS

El rol de ChatGPT en un tiroteo escolar

Según informó la especialista Laura Coronado, el Fiscal General de Florida ha sido contundente en sus declaraciones.

El caso involucra a un estudiante de 20 años que abrió fuego en su campus.
El caso involucra a un estudiante de 20 años que abrió fuego en su campus.Créditos: Canva.
Escrito en ENTREVISTAS el

Audio relacionado

Su navegador no soporta la reproducción de audio por HTML 5
Colaboración Laura Coronado.

En colaboración para MVS Noticias con Luis Cárdenas, Laura Coronado, colaboradora, habló sobre que Florida abre una investigación criminal contra OpenAI por el rol de ChatGPT en un tiroteo en una universidad.

El estado de Florida ha encendido las alarmas en el sector tecnológico al iniciar una investigación criminal sin precedentes contra OpenAI. El motivo es el presunto rol de su herramienta de inteligencia artificial, ChatGPT, en un tiroteo ocurrido en una universidad estatal. Según informó la especialista Laura Coronado, el Fiscal General de Florida ha sido contundente en sus declaraciones, sugiriendo que la responsabilidad de la empresa va más allá de ofrecer una simple herramienta digital.

Un tiroteo que pone a la IA en el banquillo

El caso involucra a un estudiante de 20 años que abrió fuego en su campus, hiriendo a seis personas y terminando con la vida de dos. La controversia escala porque la familia de una de las víctimas, de origen latino, ha interpuesto una demanda civil, mientras el estado procede por la vía penal contra OpenAI.

Pexels.

"El Fiscal General del estado de Florida está haciendo una rueda de prensa en donde dice que si ChatGPT fuera persona, estaría en la cárcel", señaló Coronado.

¿Instrucción o simple información?

La investigación se centra en cómo el atacante utilizó el chat para obtener detalles logísticos. Aunque el joven intentó disfrazar sus intenciones bajo el pretexto de escribir un libro o jugar con armas de juguete, las consultas eran específicas sobre vestimenta táctica y puntos de mayor afluencia de personas.

Al respecto, Laura Coronado explicó la táctica del usuario:

"Lo que pasa es que engañan al chat. O sea, te dicen: 'Oye, si yo quisiera hacer esto de manera simulada, si yo estoy escribiendo un libro y quiero hacer una escena sobre un asesinato', y entonces empiezan a tener información".

Los límites de la seguridad de OpenAI

A pesar de que la empresa detectó comportamientos inusuales y cerró la cuenta del joven meses antes del ataque, surge el debate sobre si debieron alertar a las autoridades. La experta destaca que los filtros de seguridad pueden ser vulnerables:

"Viene una discusión en la empresa de '¿avisamos a la policía o no?' y lo que dicen es 'es inocuo, o sea, nada más está preguntando, pero vamos a bajársela'. Y él crea una nueva cuenta".

Pexels.

Además, el entorno del tirador añade complejidad al caso, ya que era hijastro de una integrante de la oficina del sheriff y utilizó su arma de cargo. Esto plantea si la tecnología solo agilizó un plan que ya estaba en marcha debido a la radicalización del joven y su acceso a armamento real.

Regulación: ¿Solución o "carta a Santa Claus"?

Finalmente, la discusión pone sobre la mesa la efectividad de las nuevas regulaciones de inteligencia artificial. Para Coronado, muchos de los decálogos actuales carecen de fuerza real frente a problemas sociales profundos como el aislamiento y la falta de comunicación familiar.

Mientras el proceso avanza, queda en el aire la pregunta de hasta dónde llega la responsabilidad de OpenAI en el uso malintencionado de sus algoritmos. La presión política en Florida busca poner el reflector en la herramienta, aunque el debate sobre la privacidad y la prevención de crímenes a través de la IA apenas comienza a desmenuzarse bajo la lupa de la justicia contra OpenAI.