Si le preguntas cómo manejar las relaciones humanas, los sentimientos ten en cuenta que nunca amó, nunca sintió, nunca lo rechazaron, nunca se traumó, nunca lloró. ChatGPT, el nuevo “amigo” que sabe todo no sabe, nada de la vida real.
Brújula Digital|10|09|25|
Esteban Quispe
Mi amiga, una futura psicóloga, me contó que le consultaba a ChatGPT sobre el comportamiento de su novio y si debía dejarlo o no. No está sola en eso, porque miles de personas, como esos changos, están confiando en una IA generativa que solo responde texto plano, con base en lo que le cuentas o consultas.
Otros amigos le preguntaron al oráculo digital qué regalar a un cineasta de 28 años fan de PlayStation Y el ChatGPT les entregó sugerencias imposibles de encontrar en Bolivia y que además no encajan ni remotamente con los gustos del cineasta, de es mi amigo.
Pero ¿quién le dice a ChatGPT qué es lo “correcto?
Después de años de darle vueltas, los sistemas de generación de texto se volvieron sofisticados gracias a los LLMs (Large Language Models). Estos hacen un aprendizaje profundo y automático, usando matemáticas dignas de un premio Nobel. ¿De dónde sacan la información? Pues, como casi todo en la tecnología, tomando prestada” (robando y copiando) información de aquí y allá.
¿Y esa información es 100% verídica? ¡No! Solo se puede verificar manualmente y ahora están usando los mismos sistemas para intentar confirmar sus propios resultados.
Al principio, el problema eran los datos más turbios de la web: ¿a qué sabe la carne humana? o ¿en serio Hitler era el malo? Alguien tiene que limpiar esa basura antes de que llegue a los lenguajes de IA, dejando a las personas con traumas de por vida. El internet tiene información oscura.
En resumen, todo lo que te dicen estos chats es información regurgitada de sitios web (a veces hasta de libros pirateados), sin criterio, contexto ni filtro.
¿A quién ya le jodió la vida ChatGPT?
Estos chats no pueden darte un puñete, pero sí pueden dañarte la psiquis. Ya hay gente que ha terminado relaciones, ha cambiado su forma de ser y abandonó a su familia. Hay casos de gente que se ha suicidado inducida por las respuestas de estos chats. ¿Por qué? Porque no tienen un control de daños. Les cuesta distinguir el bien del mal, no tienen contexto más allá de lo que les cuentas, y solo conocen una versión de la historia.
Como Pierre que, charlando con Eliza (un chatbot de los primeros), propuso sacrificarse si ella aceptaba cuidar el planeta a través de la IA. O Adam Raine, que le preguntó a su amigo Chat GPT cómo suicidarse y si la cuerda que usaría aguantaría su peso, cuerda con la que poco después se suicidaría.
Ya me afecta...
Mi amiga, la futura psicóloga, sigue contándole sus penas a un chat que no sabe que su padre la abandonó y que su familia le hizo bullying destruyendo su seguridad (ella es de las personas que se merece ¡todo!).
Le cuesta aceptar la frialdad de un mensaje que solo le dice todo estará bien y que se esfuerce más. Ahora, le da los buenos días al chatbot en lugar de a su exnovio.
Mi amigo cineasta, el fan de PlayStation, prefiere las salchicarnes de Vale y Laurita (en la calle Sucre, ¡vayan, son una joya! Su único defecto es que él es hincha de Bolívar) y una buena charla, chistes funables. Eso, desde los 15 años, cuando Chat GPT no era ni un prototipo.
Mi sobrino, que descubrió que Chat GPT le podía dar cuentos “nuevos” (gracias a su youtuber favorito), sigue prefiriendo leer Los Quispis. Lo agradezco.
Al final, estos chats bots son el “amigo” que sabe muchos datos, que te escucha y te ayuda con la tarea; pero si le preguntas cómo manejar las relaciones humanas, los sentimientos, ten en cuenta que nunca amó, nunca sintió, nunca lo rechazaron, nunca se traumó, nunca lloró. Chat GPT, el nuevo “amigo” que sabe todo, no sabe nada de la vida, en realidad.
Esteban Quispe es especialista en informática.