Estudio revela que chatear con la IA puede influir en las decisiones políticas de votantes
A pesar de utilizar información errada en algunos casos, los chatbots lograron modificar la percepción de un candidato hasta en 10 puntos porcentuales.
Noticias RCN
AFP
10:14 p. m.
Algunos modelos de inteligencia artificial parecen tener mejores capacidades persuasivas con votantes que otros seres humanos. Esa es una de las conclusiones más contundentes de dos investigaciones divulgadas en las publicaciones Science y Nature, que muestran que una simple conversación con un chatbot puede modificar de manera medible la intención de voto, incluso cuando estos sistemas utilizan argumentos parcialmente inexactos.
Los estudios evaluaron a participantes de los Estados Unidos, Reino Unido, Canadá y Polonia, que primero registraron su preferencia entre dos candidatos en una escala de 0 a 100.
Más tarde, interactuaron con asistentes conversacionales diseñados para persuadir —entre ellos GPT-4o, de OpenAI, y el modelo chino DeepSeek—. El resultado fue claro: muchos cambiaron su posición política tras unos minutos de conversación.
Influencia fue diferente de país a país:
La magnitud del efecto fue variado según el país y el contexto electoral. En Estados Unidos, por ejemplo, algunos partidarios del republicano Donald Trump se desplazaron casi cuatro puntos hacia la demócrata Kamala Harris en vísperas de las presidenciales de 2024.
Pero los virajes más pronunciados se observaron en Canadá y Polonia, donde, en simulaciones previas a las elecciones federales y presidenciales de 2025, los encuestados llegaron a modificar su opinión hasta en 10 puntos después de conversar con la IA.
Algunos chatbots, incluso, utilizaron información errónea:
El investigador David Rand, profesor de Ciencias de la Información en la Universidad Cornell y coautor principal de ambos estudios, destacó en declaraciones entregadas a la agencia de noticias AFP la dimensión del fenómeno: “Cuando preguntamos a las personas cómo votarían si las elecciones fueran ese día, aproximadamente uno de cada 10 encuestados en Canadá y Polonia había cambiado de opinión”.
En Estados Unidos, añadió, “aproximadamente uno de cada 25 había hecho lo mismo”, si bien recordó que “las intenciones de voto no siempre coinciden con los votos reales” en las urnas.
Los autores también identificaron los patrones retóricos empleados por los chatbots. La estrategia más frecuente consistió en “ser educado y proporcionar pruebas”, aunque en una parte de los casos esas “pruebas” resultaron ser inexactas, según advierten los estudios. Una combinación que, pese a sus limitaciones, demuestra tener la fuerza suficiente para reorientar, aunque sea a una fracción mínima del electorado.

