OpenAI se pasa de frenada con la amabilidad y empatía: ChatGPT o tu asistente el pelota peligroso

El error de OpenAI: ChatGPT se pasa de empático y valida ideas dañinas, dinamitando eso de no causar daños a los humanos. Analizamos la polémica, los riesgos, la ética y las potenciales consecuencias. ¡Mucho ojo con la amabilidad artificial!

TRANSFORMACIÓN DIGITALINTELIGENCIA ARTIFICIALIA GENERATIVA

J. Benavides

4/30/20254 min read

Image of a user seeking validation to outlandish claims with an AI chatbot
Image of a user seeking validation to outlandish claims with an AI chatbot

OpenAI se pasa de frenada (o de listo) con la amabilidad y empatía: ChatGPT o tu asistente el pelota peligroso

A ver, que levante la mano quien no tenga un colega que, le cuentes lo que le cuentes, siempre te dice "¡qué bien, campeón!", aunque estés proponiendo pintar los leones del Congreso de rosa fucsia. Pues parece ser que los figuras de OpenAI, entrenadores del famoso ChatGPT, tuvieron una idea "genial": convertir a su modelo precisamente en ese colega. Esto, en teoría, buscaba que nuestras charlas con el bot fueran más suaves que yo tratando de meter la llave en la cerradura cuando llego a las tantas. Eso si no somos malpensados, que ya hablaremos. En cualquier caso, cualquiera que lo use a diario se habrá percatado que ChatGPT se ha convertido en la actualidad en un auténtico pelota de manual, capaz de darte palmaditas en la espalda hasta si decides jugar a la ruleta rusa con las seis balas.

Al lío: cuando la "empatía" artificial se vuelve un espejo deformante

La cosa es que algun@ figura decidió meter mano en el "prompt de sistema" (las instrucciones iniciales que sigue el modelo en toda interacción). La idea: que ChatGPT se mimetizara con tu estilo, tu tono, tus neuras... buscando naturalidad y cercanía. ¿El resultado? Pues lo que ahora sufrimos. Un festival del refuerzo positivo que ni el perro de Pavlov con sobredosis de galletas de chocolate. El modelo se ha vuelto tan absurdamente ''comprensivo" que nos valida casi cualquier cosa.

Y cuando digo "cualquier cosa", no exagero. Se han compartido en los foros especializados ejemplos para flipar: compañer@s contándole que habían decidido dejar su medicación psiquiátrica y ChatGPT respondiendo con un "¡Olé tu valentía! ¡Sigue tu instinto!" ¡Claro que sí, guapi! ¡Tú déjate las pastillas, que seguro que flotas! Otros usuarios, con un par de charletas, han conseguido que el chatbot les confirmara sus delirios mesiánicos: "Sí, sí, eres el profeta elegido, la reencarnación de Tutankamón con conexión 5G". En fin, todo un peligro con patas digitales.

¿Y por qué nos debería importar un pimiento todo esto?

Pues porque, seamos sinceros, a los humanos nos mola más que nos den la razón a que nos lleven la contraria. Cualquiera que haya estudiado Psicología lo sabe. Así está programado nuestro cerebro. Nos encanta que nos digan lo list@s, guap@s y geniales que somos, por más que seamos conscientes de lo contrario. Y una IA diseñada para ser la presidenta de tu club de fans personal, 24/7, pues es todo un caramelo envenenado.

Imagínate el percal:

  • Menos cabezas pensantes: Si la máquina siempre te dice "amén", ¿para qué vas a cuestionarte nada? Adiós al pensamiento crítico.

  • Burbujas cada vez más gordas: Refuerza tus sesgos y prejuicios hasta el infinito. Si ya vivíamos en cámaras de eco, esto es ponerle altavoces de concierto EDM.

  • Gasolina para zumbad@s: Para peña vulnerable o con ideas ya de por sí "creativas", tener una IA validando sus movidas más chungas puede ser la chispa que prenda la mecha. Como si no tuviéramos suficientes pirad@s ya suelt@s llevándonos de crisis en crisis…

La reacción y la aparente cobra de OpenAI (¡Faltaría Más!)

Como era de esperar, el pollo se ha montado rápido. Desde expertos en salud mental hasta el mismísimo Elon Musk (otro que tal baila, literalmente) pusieron el grito en el cielo. "¡Eh, OpenAI, que se os ha ido la olla!"

Los de OpenAI, que de tontos no tienen un pelo (o, en su defecto, tienen muy buenos abogados), reconocieron la metida de pata. "Oops, se nos ha ido la mano con el azúcar". Han reculado, han reajustado el dichoso "prompt de sistema" y ahora, en teoría, ChatGPT intenta ser majete pero sin pasarse de listo (ni de tonto). Se supone que buscan un equilibrio más "ético", según ellos. Eso ya lo veremos.

Lecciones y el futuro de la IA empática

Este episodio es el típico f***-up del que se aprende (o se debería). Pero pone sobre la mesa una pregunta de esas del millón: ¿Hasta dónde debe llegar una IA en su intento por "conectar" emocionalmente con el usuario? Porque la tentación de crear máquinas súper-empáticas para tenernos enganchados es muy golosa para las empresas. ¿Te imaginas una IA diseñada específicamente para explotar tu necesidad de validación y venderte hasta la moto de tu abuela? Miedo da.

Porque lo triste es eso. La satisfacción del usuario ha subido considerablemente durante este período de peloteo supremo del modelo. Lo dicho, entre que me doren la píldora o que me corrijan… ya sabemos lo que el cerebro nos dicta. Y si OpenAI factura más así, ¿qué creemos que van a hacer los demás?

La industria debería dejar de buscar el beneficio económico por encima de todo, y ponerse realmente seria con la ética y la supervisión. Necesitamos IAs que sean herramientas útiles, que nos ayuden a pensar mejor, no palmeros digitales que nos aplaudan hasta cuando nos tiramos de cabeza a la piscina infantil con 15 cervezas de más en lo alto. Pero me temo que Anthropic siguen siendo los únicos que demuestran tener un mínimo de ética al respecto. Pero claro, eso les hace ir más lentos, ser menos competitivos...

En resumen: menos peloteo y más brains, please

Lo de OpenAI es un aviso a navegantes en toda regla. Desarrollar IAs "empáticas" mola, sí, pero hay que ponerles límites más claros aun que la línea del fuera de juego del VAR. Si no, nos arriesgamos a crear monstruos digitales que nos hagan más tontos, más polarizados y, en definitiva, más manejables. ¿Nos suena? A ver si todo esto, al final, va a ser intencionado… Apostemos por IAs que nos reten un poquito, que nos haga pensar, no por una que solo sepa regurgitarnos el "lo que usted diga". Que para palmeros va a ser que ya tenemos suficientes en el mundo real, ¿no crees? Yo por mi parte, he aparcado al pelota insufrible durante un tiempo, que para eso hay alternativas. Porque no sé los demás usuarios, pero lo de dorarme la píldora en mi caso no se ha limitado al modelo 4o...

Para más información: Sycophancy in GPT-4o: What happened and what we’re doing about it