Audio relacionado
En entrevista para MVS Noticias con Luis Cárdenas, Laura Coronado, especialista en cultura digital, habló sobre un impostor suplanta la voz y el estilo de escritura de Marco Rubio con IA y logra contactar con altos funcionarios de EU.
Un caso reciente encendió las alarmas en el ámbito de la ciberseguridad y la política internacional: un impostor logró suplantar la voz y estilo de escritura del senador estadounidense Marco Rubio, utilizando inteligencia artificial, y con ello, contactó a funcionarios de alto nivel en Estados Unidos.
“Pensamos que lo que dice la máquina es perfecto y que no es debatible. Todo lo que sucede en el ciberespacio es falso, salvo prueba en contrario”, subrayó Coronado.
Te podría interesar
La experta explicó que el caso del impostor que simuló ser Marco Rubio no es aislado, sino un síntoma de lo que ocurre cuando se combinan redes sociales, algoritmos polarizantes y tecnologías de inteligencia artificial generativa sin regulación ni ética.
Cuando la IA va más allá de lo “correcto”
Coronado añadió que esta tecnología, usada sin filtros, puede crear un entorno cerrado de pensamiento y opinión:
Te podría interesar
“Voy a escuchar recurrentemente lo que yo quiero, y va a ser sesgado, va a ser personalizado, y no voy a tener la oportunidad de tener voces disidentes cerca de mí”.
También se refirió a las diferentes etapas de esta tecnología, desde las herramientas reactivas hasta las actuales IA generativas que almacenan información, crean perfiles y pueden ser usadas para tareas complejas como calificar exámenes o redactar mensajes.
El caso de Rubio coincide con el llamado de Elon Musk para que su IA, Grok, no sea tan “políticamente correcta”. Coronado recordó que el empresario ha sido acusado de permitir discursos de odio en su red social, antes Twitter, y señaló que su narrativa evade responsabilidad:
“Lo que te dice es como esta narrativa de ‘mi papá me pegó, pero porque yo lo hice enojar’”.
¿La Inteligencia Artificial es un riesgo para el ser humano?
La investigadora también alertó sobre el posible siguiente paso: la “teoría de la mente” en IA, una etapa en la que las máquinas podrían tomar decisiones basadas en escenarios emocionales o incluso generar autoconciencia:
“Es un tema psicológico, en donde dicen que no solamente va a poder tomar decisiones, sino que además va a tener esta idea de autoconciencia. O sea, va a generarse a sí misma sentimientos”.
Este episodio expone los riesgos de la inteligencia artificial sin regulación: suplantación de identidad, manipulación política y desinformación amplificada. Urgiendo un debate público y ético sobre su uso y limitaciones, antes de que el daño sea irreversible.
