INTERNET

El nuevo problema sobre los ciberataques con Inteligencia Artificial y sus riesgos

Los ciberdelincuentes están utilizando cada vez más esta tecnología para lanzar ataques más sofisticados y difíciles de detectar.

Imagen de un hacker creada con inteligencia artificial.
Imagen de un hacker creada con inteligencia artificial.Créditos: ideogram.ai
Escrito en TENDENCIAS el

La Inteligencia Artificial (IA) se está convirtiendo en una herramienta cada vez más potente en manos de los ciberdelincuentes. En 2023, las agencias de inteligencia occidentales descubrieron indicios de que un agente patrocinado por un Estado utilizó herramientas de IA para violar los sistemas periféricos de transferencia de información entre equipos electrónicos (SPI) de una base militar con valor estratégico en Estados Unidos.

Este ataque, que podría haber obstaculizado la comunicación entre las fuerzas estadounidenses en Asia en caso de conflicto, es solo un ejemplo de la tendencia de los agentes generadores de ciberamenazas a utilizar cada vez más la IA como arma.

Estos ataques potenciados suponen un creciente riesgo para la seguridad pública y la prestación de servicios críticos, a medida que más y más redes digitales que interconectan a miles de millones de dispositivos convergen en la industria, el transporte y la asistencia sanitaria.

Representación gráfica de un jáquer en la era de la IA . Foto: Kaspersky.

Suplantación de identidad

La Inteligencia Artificial también se utiliza para facilitar la producción de mensajes de phishing, una suplantación de identidad consistente en hacerse pasar por una institución o persona confiable en un correo electrónico o una llamada telefónica, para engañar al usuario y conseguir que entregue contraseñas, credenciales, números de tarjeta de crédito, y otra información confidencial.

Los atacantes usan la IA para que sus ataques de phishing personalizados y dirigidos sean más efectivos. También podrán idear métodos creativos de automatización recopilando datos en línea y enviándolos a los LLMs (Grandes Modelos de Lenguaje especializados) que utiliza la IA, con el fin de elaborar borradores de cartas imitando el estilo personal de alguien cercano a la víctima.

La inteligencia artificial plantea nuevos retos de seguridad para las redes de telecomunicación mundiales. Foto: Claroty.

Videos falsos que parecen reales

Esta herramienta también desempeñará un enorme papel en la forma en que se crearán las amenazas, permitiendo a los delincuentes lanzar estafas aún más sofisticadas y creíbles.

Estos avances harán cada vez más difícil distinguir un vídeo grabado de verdad de uno generado mediante la IA, especialmente cuando los vídeos se cortan con frecuencia, como ocurre con los informativos de televisión.

Los ciberdelincuentes utilizarán en 2024 contenidos sintéticos en redes sociales para difundir noticias falsas, anuncios engañosos, deepfakes (videos, imágenes o audios falsos prácticamente indistinguibles de uno real) de figuras públicas o incluso mensajes directos que parezcan proceder de contactos de confianza.

Fraudes mediante voz digitalizada

También se espera un aumento del vishing (suplantación de identidad y engaño por medio de la voz) basado en inteligencia artificial.

Este método consiste en que un estafador efectúa una llamada telefónica a un usuario haciéndose pasar por una empresa u organización de buena reputación o por alguien relacionado con el trabajo de la víctima del engaño, para chantajearla o impulsarla a hacer algo que el atacante puede monetizar, como comprar tarjetas de regalo o criptomonedas en su nombre.

Hasta el momento, el vishing dependía del ser humano, ya que es el propio ciberdelincuente quien habla por teléfono con la víctima para engañarla, siguiendo guiones diseñados para sacarle el dinero o vaciar sus cuentas corrientes.

Pero a partir de ahora, el uso combinado de audios deepfake convincentes y programas capaces de “conversar” con las personas, ambos generados por inteligencia artificial, harán que aumenten la escala y el volumen de llamadas de vishing, que en algunos casos ni siquiera requerirán la participación humana. Con información de EFE.