Las autoridades chinas han detenido a un hombre que supuestamente utilizó la aplicación de inteligencia artificial ChatGPT para escribir y publicar noticias falsas sobre un supuesto accidente de tren, en un caso sin aparentes precedentes en el gigante asiático, que vigila de forma férrea la difusión de todo tipo de contenidos en Internet.
El sospechoso, identificado únicamente con el apellido, Hong, "se aprovechó de métodos tecnológicos modernos para fabricar información falsa y luego la difundió en redes sociales", ha explicado la oficina de seguridad de la provincia de Gansu, situada en el norte de China, según la agencia de noticias Bloomberg.
La noticia, difundida en múltiples cuentas, recogía una información relativa a un falso accidente con nueve víctimas mortales y tuvo más de 15 mil visualizaciones. Según las autoridades, el propio detenido ha explicado que quería obtener dinero gracias a expandir estos textos.
Te podría interesar
Ahora, puede juzgado por tratar de provocar desórdenes públicos, un delito con penas de hasta cinco años de cárcel.
Te podría interesar
El Gobierno chino no permite la utilización de tecnologías como ChatGPT, pero lo usuarios pueden acceder a ellas a través de redes VPN.
Otra realidad de la IA en EU
A menudo llamado el "padrino" de la IA, Hinton aseguró que a sus 75 años lamenta ahora haber dedicado su carrera a este ámbito. "Me consuelo con la excusa normal: si no hubiese sido yo, otro lo habría hecho", señaló al diario neoyorquino.
Su voz de alarma se suma a las advertencias que en los últimos meses han hecho otros expertos, sobre todo a raíz del lanzamiento de los nuevos bots de texto como el popular ChatGPT y las grandes apuestas que los gigantes tecnológicos están haciendo en este ámbito.
Uno de los mayores expertos en inteligencia artificial (IA), Gary Marcus, profesor emérito de psicología y ciencia neuronal de la Universidad de Nueva York, cree que va a ser necesario aplicar marcas de agua en las imágenes generadas por robots, y algo parecido también en los textos, para diferenciarlos así de los generados por humanos y evitar que se propague la desinformación.
En un artículo reproducido en el New York Times, Marcus, autor de dos libros dedicados a la IA, trata de evitar el tono catastrofista -"No soy de los que piensa que el planeta entero va a ser dominado por los robots"-, pero admite que le preocupa "lo que los actores negativos pueden hacer con estas cosas, porque nadie los controla", como puede ser el caso de ChatGPT.
Con información de EuropaPress y EFE.