ChatGPT: ¿Cuál es el nombre que supuestamente no quiere la IA y cuál es la razón?

Existen muchos tipos de sesgo en los textos generados por la inteligencia artificial, debido a su corpus, pero, ¿será en sí un simple error en la configuración?

ChatGPT: ¿Cuál es el nombre que supuestamente no quiere la IA y cuál es la razón?
ChatGPT: ¿Cuál es el nombre que supuestamente no quiere la IA y cuál es la razón?Créditos: Unplash.
Escrito en TENDENCIAS el

ChatGPT no es una inteligencia artificial perfecta, y tampoco apolítica, y cuando la ponemos a prueba con ciertas peticiones o aclaraciones de temas es cuando esta “teoría” se comprueba en su totalidad; más con el aparente problema de que esta IA no es capaz de explicar un nombre en particular.

A estas alturas, la mayoría de las personas que usan regularmente ChatGPT, se han dado cuenta que esta herramienta tiene muchos sesgos informativos, que son independientes a sus capacidades de poder acceder o crear algún tipo de dato en específico.

¿Cómo funciona ChatGPT?

De acuerdo con Tlatelolco LAB, un grupo mexicano que se encarga de investigaciones y defensa de la democracia, realizó un análisis sobre ChatGPT, donde destacó que el diagrama de funcionamiento del mismo estaba constituido por un entrenamiento del modelo, proceso de optimización, evaluación del desempeño, entre otras cosas más.

Diagrama de funcionamiento de ChatGPT/puedjs.unam.mx

Sin embargo, el estudio destacó que la IA saca sus respuestas con base en “una amplia gama de textos tomados de internet” y que en ocasiones lo detalles de los mismos no se pueden conocer por “políticas de privacidad y derechos de autor”.

Escribimos la palabra ‘prohibida’ para ChatGPT y esto pasó

Explicamos todo lo anterior para poder comprender mejor por qué en ocasiones la IA no nos otorga respuesta a ciertos temas, como puede ser ahondar sobre la guerra de Rusia- Ucrania, o pedirle una crítica de quién es bueno o malo en los conflictos de Medio Oriente, respecto a la Franja de Gaza y Hamás.

Hace poco se hizo viral que ChatGPT no podía desmenuzar qué era o quién es "David Mayer". Según el portal ‘Hipertextua’, al poner este nombre, la IA generaba un error “obligando al usuario a iniciar una nueva ventana de conversación”.

MVS puso a prueba este supuesto fallo, y encontramos de que primera instancia, la inteligencia artificial no es capaz de generar una respuesta concisa, por lo que al especificar, esto fue lo que contestó:

Escribimos la palabra ‘prohibida’ para ChatGPT y esto pasó/ Captura de pantalla.

Aunque parece un caso sin importancia, es una muestra de en qué contextos ChatGPT presenta “fallas” y cuándo no. Lo que será difícil saber con certeza es por qué lo hace ¿error o sesgo?