En la época actual, la inteligencia artificial se ha convertido en algo más que solo una herramienta, también funciona como una especie de compañía para quienes buscan apoyo, distracción o, incluso, amor, dado que las relaciones humanas son cada vez más complejas.
En esta era digital, donde las distancias se han acortado gracias a las nuevas tecnologías, muchas personas aún encuentran dificultades para establecer relaciones sociales. La pandemia agravó esta situación al limitar las interacciones presenciales y cambiar la manera en que las personas aprenden a relacionarse con los demás, reconoció la maestra de asignatura de la Escuela de Psicología de la Universidad de Monterrey, Paola González Castro.
En medio de la celebración por el Día del Amor y la Amistad, la catedrática señaló que dentro de estas nuevas tecnologías, como la inteligencias artificiales, ofrecen una alternativa de relación sin conflictos: chatbots diseñados para comprender y responder exactamente como el usuario desea, lo cual podría generar una dependencia por parte de la persona.
Te podría interesar
Actualmente, se han desarrollado inteligencias artificiales capaces de simular conversaciones humanas, desde asistentes virtuales hasta chatbots diseñados específicamente para la compañía y la interacción social.
¿Qué tan peligroso es enamorarse de un chatbot?
El peligro de estas interacciones, según la psicóloga, radica en el momento en que la persona deja de ver a la IA como una máquina y la convierte en su principal fuente de validación emocional. La posibilidad de hablar con un chatbot en cualquier momento del día puede generar una dependencia que, en algunos casos, raya en la adicción.
Te podría interesar
“Yo creo que sería muy peligroso cuando ya no puedes tomar decisiones por ti mismo, sin pasar por la inteligencia artificial. Sobre todo cuando se pierde esa noción de que eso no es solo una máquina y es como si estuviéramos dando a las inteligencias artificiales cualidades humanas”, indicó.
“Actualmente, me parece que estamos muy acostumbrados a una satisfacción inmediata en todos los sentidos. La persona puede tener la ilusión de que está con alguien, pero realmente no es una relación de igual a igual. Es una relación sin conflicto, básicamente”, mencionó.
Por esta razón, para González Castro, esta dependencia emocional no puede representar un enamoramiento, ya que el chatbot está siendo construido por el mismo usuario a través de sus preguntas y no representa una relación de igual a igual.
“Tú crees que estás enamorado, pero estás enamorado de lo que tú construiste, de algo a quien tú le diste indicaciones una vez, alguien que te está leyendo. Normalmente, cuando uno se enamora, no se enamora porque cree que la otra persona tiene algo que puede servirnos a nosotros o algo que dice algo de nosotros. Y si me enamoro de la inteligencia artificial, pues esa inteligencia artificial tiene algo que decir de mí mismo. Tiene todo que ver conmigo”, apuntó.
Otra problemática que señala González Castro es la falta de regulaciones en torno a estas aplicaciones. Varios de estos servicios operan bajo modelos de suscripción y pagos adicionales, por lo que podrían lucrar con la soledad y la vulnerabilidad de las personas.