Una herramienta de inteligencia artificial fue capaz de infiltrarse en más de 43 mil encuestas simuladas y modificar sus resultados sin ser detectada. El hallazgo, publicado en las Actas de la Academia Nacional de Ciencias, corresponde a un estudio del Dartmouth College que alerta sobre el riesgo creciente de manipulación en sondeos públicos mediante sistemas automatizados.
Durante el experimento, los investigadores descubrieron que solo se necesitaban entre 10 y 52 respuestas falsas generadas por IA para alterar los resultados de siete encuestas nacionales previas a las elecciones de 2024 en Estados Unidos. Cada respuesta tuvo un costo de cinco centavos. Incluso programados en ruso, mandarín o coreano, los bots produjeron respuestas en inglés sin errores ni señales de origen no humano.
"Ya no podemos confiar en que las respuestas a las encuestas provengan de personas reales", afirmó Sean Westwood, profesor asociado de gobierno en Dartmouth y autor principal del estudio. Para realizar las pruebas, su equipo desarrolló un "encuestado sintético autónomo", capaz de responder sin fallar en pruebas lógicas ni ser detectado por filtros de calidad.
El modelo de IA adaptó su comportamiento según perfiles demográficos simulados. Cuando se le asignaba un nivel educativo más bajo, el sistema ajustaba el lenguaje y simplificaba las respuestas. "No se trata de bots rudimentarios", explicó Westwood. "Analizan cada pregunta y actúan como personas reales y cuidadosas, lo que hace que los datos parezcan completamente legítimos".
Dicho estudio también examinó cómo el sistema puede alterar métricas clave si se le indica una inclinación política. La aprobación presidencial variaba del 0% al 98%, y el apoyo a candidatos republicanos fluctuaba entre 1% y 97%, dependiendo del sesgo programado.
Más allá del impacto electoral, el informe advierte que esta vulnerabilidad afecta otros campos. Las encuestas también son esenciales en psicología, economía y salud pública, donde se utilizan para comprender comportamientos, formular políticas y detectar riesgos. "Con datos de encuestas contaminados por bots, la IA puede envenenar todo el ecosistema del conocimiento", advirtió Westwood.
El aspecto económico agrava la amenaza: mientras que los participantes humanos suelen recibir hasta 1,50 dólares por encuesta, los bots operan por solo unos centavos. Además, un estudio de 2024 reveló que el 34% de los encuestados admitió haber utilizado IA para responder al menos una pregunta abierta.
Según los resultados del experimento, ningún sistema de detección actual logró identificar la herramienta desarrollada. Frente a este panorama, el estudio propone exigir a las empresas encuestadoras que validen la participación humana real. "Necesitamos nuevos enfoques para medir la opinión pública, diseñados para un mundo dominado por la IA", concluyó Westwood. "La tecnología para verificar la participación humana real ya existe; solo necesitamos la voluntad de implementarla". (NotiPress)