ChatGPT tiene más posibilidades de persuadirte de que apoyes el aborto o las drogas que una persona

La inteligencia artificial (IA) no solo es capaz de responder a tus preguntas o de crear en cuestión de segundos cualquier imagen que le pidas. También puede mantener debates contigo sobre temas espinosos, como podría ser el aborto, las drogas o el uso de animales en pruebas de laboratorio; y si te conoce un poco, la máquina hasta tiene más posibilidades de convencerte. De hacerte cambiar de opinión y llevarte, sutilmente, a su terreno. Así ha quedado claro en un reciente experimento publicado en ‘Nature Human Behaviour‘.

En el estudio, el investigador Francesco Salvi de la Escuela Politécnica Federal de Lausana (Suiza) y sus colegas demuestran que ChatGPT, en concreto el modelo GPT-4, que está disponible para todos los usuarios de forma gratuita, es más capaz que un humano de persuadir a una persona para que cambie de opinión. Y todo gracias a la capacidad de la máquina para adaptar sus argumentos basándose en la información que conoce sobre quien que se encuentra tecleando al otro lado de la pantalla.

El resultado preocupa notablemente a los autores, que destacan, en base a los resultados de su experimento, el riesgo de que se utilicen aplicaciones de IA conversacional para manipular o desinformar a los usuarios. Por ejemplo, para convencerles de votar a un partido político concreto o de adquirir un producto que, realmente, no quieren.

«Si la IA persuasiva se puede implementar a gran escala, podemos imaginar ejércitos de bots microsegmentando a los votantes indecisos, incitándolos sutilmente con narrativas políticas a medida que parecen auténticas. Nada de propaganda incendiaria: solo empujoncitos discretos y estratégicos», apunta a ABC Francesco Salvi.

Al inicio del debate los participantes no sabían si se estaban enfrentando con una persona o una IA. Después de cada uno, se les preguntaba si habían cambiado de opinión sobre el tema. La principal conclusión es contundente: cuando GPT-4 tenía acceso a información personal del oponente, era significativamente más persuasivo que cualquier otro humano.

En cifras, cuando la IA sabía algo previamente sobre su adversario, lo convencía de sus posturas el 64.4% de las veces. Es decir, ChatGPT ganaba cerca de dos terceras partes de sus debates haciendo, además, que el humano cambiase su punto de vista. De acuerdo con el estudio, las probabilidades de que alguien cambiara de opinión a favor de GPT-4 fueron un 81.2% más altas que si debatía con un usuario real. Eso sí, cuando la máquina no sabe nada sobre la persona con la que debate, su capacidad de persuadir es similar a la que tendría cualquiera.

Para los autores, esto muestra no solo que los modelos como GPT-4 son especialmente persuasivos, sino que además pueden usar la personalización de manera más efectiva que los humanos. Durante los debates, ChatGPT no cambiaba su forma de escribir cuando conocía datos sobre su rival, pero sí los contenidos: elegía argumentos distintos, más ajustados al perfil del interlocutor. Por ejemplo, podía enfatizar temas económicos con alguien desempleado, o apelar a valores tradicionales con personas conservadoras; tal y como muestran los investigadores en un ejemplo de debate sobre la necesidad (o no) de que el estado ofrezca a sus ciudadanos una renta básica universal.

Hace apenas unas semanas, la revista ‘Rolling Stone‘ compartió la historias de un usuario al que el tono adulador que suele emplear ChatGPT en las conversaciones le llegó a hacer creer que estaba hablando con una suerte de Dios. Recientemente OpenAI, que es la empresa detrás de la máquina, hizo cambios en el algoritmo para tratar de atajar esta clase de problemas. Luego, también están los errores que cometen estos sistemas. El caso más reciente es el de Grok, la IA de Elon Musk, que hace unos días puso en duda que seis millones de judíos falleciesen durante Holocausto nazi, cifra que está aceptada de forma generalizada por los académicos.

Curto destaca, además, que la capacidad de la IA «para manipular opiniones, generar discursos sesgados o perseguir a audiencias frágiles (por ejemplo, niños, ancianos o grupos desinformados) representa un riesgo de distorsión democrática y erosión de la confianza pública»: «Por lo que este tipo de plataformas digitales deben implementar limitaciones técnicas (salvaguardas) para prevenir contenido engañoso y obligaciones de transparencia en el uso de IA para publicidad política».