OPINIÓN DANIEL JACOBO

No le creas al ChatGPT

Somos testigos de cómo las generaciones más jóvenes están depositando su confianza absoluta en lo que mas nuevas tecnologías.

Chat GPT es un modelo predictivo de lenguaje que genera respuestas basándose en patrones aprendidos
Chat GPT es un modelo predictivo de lenguaje que genera respuestas basándose en patrones aprendidosCréditos: Pixabay
Escrito en OPINIÓN el

Los millennials somos la generación que tiene a unos padres que nos pedían no creer todo lo que veíamos en internet; pero también son ellos quienes ahora, creen todo aquello que les llega por cadenas de WhatsApp.

Además, somos testigos de cómo las generaciones más jóvenes están depositando su confianza absoluta en lo que mas nuevas tecnologías, como un chatbot, les puedan responder.

Porque si antes éramos criticados por tener todo en internet y no tener que ir a una biblioteca para investigar un tema, ahora, la cosa se puso peor (o mejor, depende quién lo vea) porque los más jóvenes ya ni siquiera tienen que buscar información en Google o cualquier otro buscador; basta con preguntarle a Chat GPT para que les dé una respuesta y, sea medianamente cierta o no, confiarán en esa “veracidad”.

Y hablo de generaciones más jóvenes porque son el ejemplo más amplio, pero eso no significa que millennials o generaciones más grandes que “le entran” a lo digital, no estén siendo víctimas de la desinformación generada por la inteligencia artificial.

¿Qué pasa con Chat GPT? 

En una entrevista publicada el 18 de junio en el canal de Youtube de Open AI -la empresa que desarrolló Chat GPT- el CEO, Sam Altman habla acerca de la sorpresa que le genera que la gente tenga un “alto nivel de confianza” en el chatbot.

En sus propias palabras, Chat GPT debería ser la tecnología en la que la gente, hoy por hoy, no debería confiar tanto. Y esto se debe a cómo funciona.

Chat GPT es un modelo predictivo de lenguaje que genera respuestas basándose en patrones aprendidos; es decir, no piensa, pero es capaz de replicar una conversación que aparentará razonamiento.

Al no “pensar”, el chatbot es propenso a “alucinar”. Esto quiere decir que puede generar información falsa, incorrecta o inventada, presentándola como si fuera verídica.

Las alucinaciones ocurren cuando el modelo intenta responder de una manera coherente, rellenándo lagunas de conocimiento con suposiciones y produciendo contenido que no está respaldado por datos reales.

Entonces, ¿la inteligencia artificial no es fiable? Hasta el momento, no del todo. 

Esto, por supuesto, cambiará.

Por ejemplo, se espera que este verano, Open AI lance Chat GPT-5, su versión más reciente. Entre las actualizaciones, se han enfocado especialmente en la reducción de alucinaciones y una mejora en la precisión de datos y hechos, así como mayor coherencia en conversaciones prolongadas. O sea, que Chat GPT no pierda el rumbo de lo que le estás pidiendo mientras la conversación se va extendiendo.

Pero tampoco se trata de satanizar a los chatbots ni a la inteligencia artificial. Es una tecnología que va en constante mejora y llega con el objetivo no de reemplazarnos, pero sí de facilitarnos los trabajos que pueden ser rutinarios o que mayor pereza nos generan.

Aunque cabe decir que legislar, no debería ser de ese tipo de trabajos, de los que nos dan flojera, porque aparte se les paga bastante bien con nuestros impuestos. 

Por lo tanto, utilizar la inteligencia artificial, en particular Chat GPT para resumir una legislación de 200 páginas a bullets que se leen en 15 minutos, no se puede catalogar como “estar actualizado”, sino más bien, debería catalogarse como ser un pinche cínico.