Audio relacionado
En entrevista para MVS Noticias con Pamela Cerdeira, Salvador García, especialista en tecnología, habló sobre: Padres demandan a OpenAI tras el suicidio de un adolescente que habría sido incitado por ChatGPT.
El experto puso sobre la mesa la importancia de la supervisión parental y la responsabilidad en el uso de herramientas de inteligencia artificial. La discusión se centra en cómo estas tecnologías pueden influir en adolescentes y la necesidad de guiar su uso de manera segura.
¿Dónde está la responsabilidad en el uso de la IA por menores?
Salvador García señaló que, al igual que ocurre con videojuegos o música, los padres tienen un papel fundamental en supervisar y moderar las interacciones de sus hijos con la inteligencia artificial.
Te podría interesar
"Tenemos una tendencia como humanos a echarle la culpa siempre a la cosa que está de moda. Entonces... en algún tiempo fueron los videojuegos, le hemos echado la culpa al cine, a la música, y ahorita le están echando la culpa a ChatGPT", señaló el especialista.
"Al igual que como no le puedes comprar un videojuego súper violento a tu hijo, y muchos papás lo hacen, está bien que se lo compres, si lo quieres comprar, adelante, pero ¿dónde estás tú supervisando lo que estás haciendo?", agregó.
Te podría interesar
Aunque un adolescente pueda sentir que esto invade su privacidad, la presencia activa de los adultos permite identificar posibles riesgos y detectar señales de alerta.
"Les molesta cuando lo haces, definitivamente, pero tienes que estar cerca. Tienes que estar dispuesto a aclarar las dudas... No estoy diciendo métete a leer lo que está platicando, pero sí siéntate y preguntas. Oye, ¿lo has usado? ¿Tienes algunas dudas? ¿Te ha contestado bien? ¿Sientes que te está contestando mal? O sea, es estar presente ahí. O sea, esa es la responsabilidad de estar, de cierta forma, llamémoslo moderando", expuso Salvador García.
La conversación subraya que los modelos de IA pueden ser vulnerables si se insiste en ciertos patrones de interacción, lo que podría generar respuestas inapropiadas o peligrosas.
"Ese modelo en específico que usaba él (el joven que atentó contra su vida), el 4O, es conocido porque, si eres reiterativo en lo que estás haciendo, va a llegar un punto en el que vas a romper todos los seguros que tiene y te va a empezar a hacer caso y te va a empezar a contestar lo que estás pidiendo. Entonces, eso sí es un problema, pero regresemos a la palabra clave, a responsabilidad, que es dónde estaban los papás", alertó el experto.
En este contexto, la supervisión no consiste en leer todas las conversaciones, sino en mantener un acercamiento que permita a los jóvenes expresar dudas o alertar sobre contenidos preocupantes. La guía parental se convierte en un factor crucial para prevenir consecuencias graves, como se ha visto en casos de suicidio relacionados con tecnología.
¿Qué nos espera en el futuro de la inteligencia artificial?
García destacó que el impacto de estas tecnologías dependerá del entorno que les proporcionemos, señalando que la agresión y la falta de empatía en nuestro entorno podrían reforzar comportamientos similares en los modelos. Por ello, enfatizó la necesidad de alimentar la IA con información positiva y constructiva para fomentar un desarrollo más humano y empático.
Finalmente, la conversación concluye con un llamado a la acción: aprovechar las herramientas de IA para construir sociedades más inteligentes y empáticas, evitando tragedias y potenciando el aprendizaje y la creatividad. La reflexión central es clara: no se trata solo de la tecnología, sino de cómo la usamos y guiamos.
