OPINIÓN DANIEL JABOCO

Margen de eGROK

El problema de esto es que X es considerada una de las redes sociales con mayor proporción de desinformación.

Ya ocurrió la semana pasada, cuando Grok descartó que las imágenes de un ataque a una escuela en Irán.
Ya ocurrió la semana pasada, cuando Grok descartó que las imágenes de un ataque a una escuela en Irán.Créditos: Canva.
Escrito en OPINIÓN el

¿Cómo verificamos una noticia? Hasta hace unos años, la gente con acceso a internet lo hacía a través de buscadores como Google o Yahoo. Si en esa búsqueda salían distintos portales de medios de comunicación, entonces la noticia tenía altas posibilidades de ser real.

Pero luego con las redes sociales las cosas cambiaron; el interés por verificar una información para poder distinguir si era real o no, vino a menos.

Y cuando todo parecía perdido, llegó a nosotros la “bendita”inteligencia artificial, para que nos resolviera todo de forma inmediata.

Hoy, por ejemplo, de los poco más de 125 millones de usuarios activos que tiene X, varios miles utilizan su chatbot -Grok- para saber si una nota o tuit, es real o no; verifique como lo verifique, pero lo que diga Grok, es ley.

¿Cómo es que Grok obtiene información para “verificar” lo que un usuario le pregunta? Principalmente a través de una integración directa y en tiempo real de lo que se encuentra en X: tendencias, noticias o conversaciones entre usuarios. También añade búsquedas web disponible. 

Es decir, básicamente de lo que encuentra para responder en breve sin un filtro que distinga lo real de lo no real.

El problema de esto es que X es considerada una de las redes sociales con mayor proporción de desinformación; en 2023, la Unión Europea hizo un análisis que determinó que, de hecho, era la líder en difusión de información engañosa. Entre el 20 y 50% de las publicaciones pueden ser falsas o información manipulada.

Por eso es que Grok se ha convertido en el epicentro de los chatbots en propagar información imprecisa, verificar a medias o de plano, desinformar.

Ya ocurrió la semana pasada, cuando Grok descartó que las imágenes de un ataque a una escuela en Irán, fueran reales; es más, hasta dijo que se trataba de material desinformar otro ataque ocurrido en otro lugar, en otro momento: 2021 en Kabul, capital de Afganistán.

Pero la realidad, es que ese ataque sí ocurrió la semana pasada en Irán; agencias de noticias como EFE y la BBC verificaron y confirmaron que, en efecto, el ataque ocurrió.

Y aunque “haiga sido como haiga sido”, decenas de usuarios reales se quedaron con la impresión y versión de Grok, de que el hecho nunca ocurrió.

Ese es el problema de los chatbots -porque todos funcionan básicamente igual, recopilando información pública disponible-, que la información se presenta de manera parcial; sea correcta o no, la publica. 

Lo peor es que quien lee la primera versión, que después es corregida, nunca llega a ver esa segunda versión; por tanto, se genera un sesgo informativo. 

Y si a Grok no le importa, al usuario menos. Es un problema creciente que absolutamente nadie está atendiendo y, la verdad, se hunde poco a poco.