A pocos días de las elecciones presidenciales en Estados Unidos, funcionarios gubernamentales han emitido una advertencia clara: los votantes no deben depender de chatbots de inteligencia artificial (IA) para obtener información relacionada con el proceso electoral. La advertencia se dio el viernes a través de un comunicado de la fiscal general de Nueva York, Letitia James, quien señaló que herramientas como estas frecuentemente proporcionan respuestas incorrectas a preguntas sobre votación. La oficina de James alertó que quienes dependan de estas herramientas corren el riesgo de perder su oportunidad de votar o recibir datos inexactos, según informó CNBC.
Preocupaciones sobre la desinformación
El aviso de la fiscalía llega en un contexto de gran preocupación por el aumento de la desinformación impulsada por contenidos generados de manera automatizada, especialmente durante este año electoral. Según un informe de Clarity, una firma especializada en aprendizaje automático, la cantidad de contenido manipulado mediante “deepfakes” ha aumentado un 900% en el último año. Algunos de estos videos están relacionados con intentos de desestabilización orquestados desde Rusia, reportaron las autoridades. La tecnología computacional ha facilitado la creación de imágenes y textos convincentes que, si no se verifican adecuadamente, pueden confundirse con contenido legítimo y alterar la percepción pública sobre el proceso electoral, apuntaron expertos.
Errores en las respuestas de los chatbots
Alexandra Reeve Givens, directora ejecutiva del Centro de Democracia y Tecnología (CDT, por sus siglas en inglés), enfatizó que los votantes deberían recurrir a fuentes oficiales para obtener información sobre las elecciones, debido a las preocupaciones sobre la precisión de las respuestas proporcionadas por los chatbots. En un estudio realizado en julio, el CDT concluyó que de 77 preguntas relacionadas con el proceso electoral planteadas a varios chatbots, más de un tercio de las respuestas contenían errores o eran falsas. Este estudio incluyó pruebas a empresas tecnológicas como Google, OpenAI, Anthropic y Meta, quienes proporcionaron respuestas inconsistentes e incorrectas sobre temas como ubicaciones y accesibilidad de los centros electorales.
Medidas de las empresas tecnológicas
Ante esta situación, varias empresas responsables del desarrollo de herramientas automatizadas han publicado medidas para evitar que se conviertan en fuentes de desinformación. Un portavoz de Anthropic, la compañía creadora del chatbot Claude, aseguró que la empresa anima a los usuarios a consultar fuentes oficiales, dado que su modelo se entrena con suficiente frecuencia para reflejar actualizaciones en tiempo real y específicas. Por su parte, el creador de ChatGPT anunció que a partir del 5 de noviembre, incluirá información dirigida a que los usuarios consulten fuentes verificadas de The Associated Press y juntas electorales locales para obtener resultados precisos.
Impacto de la desinformación en las elecciones
El uso de tecnologías automatizadas en contextos electorales se limita en 2024, ya que 40 países celebran elecciones, afectando a un estimado de 4,000 millones de personas en todo el mundo. La expansión de las capacidades generativas ha permitido la creación rápida de textos e imágenes personalizados, lo que plantea riesgos para la integridad de los procesos democráticos, especialmente en sociedades con acceso limitado a información verificada. En este contexto, los gobiernos han tomado medidas preventivas ante el posible impacto de las tecnologías automatizadas, coincidiendo con una serie de iniciativas legislativas dirigidas a controlar la diseminación de contenido computacional.
Iniciativas legislativas y monitoreo de desinformación
Voting Rights Lab, una organización dedicada al monitoreo de cambios en las políticas electorales, ha informado que hasta el momento, 43 legislaturas estatales han propuesto 129 proyectos de ley que contienen provisiones para regular la producción sintética de contenido electoral. Estas iniciativas buscan establecer salvaguardas contra la desinformación generada de manera avanzada, que podría convertirse en un obstáculo para los votantes, quienes necesitan información precisa para participar en los comicios, detalló el Lab.
En un informe de 54 páginas publicado el mes pasado, se reveló que se interrumpieron 20 operaciones de redes engañosas en el mundo que intentaban utilizar modelos automatizados para crear desinformación. Las actividades incluyeron la creación de artículos, sitios web y publicaciones en redes sociales hechas por cuentas falsas. No obstante, se aclaró que ninguna de estas operaciones obtuvo un nivel de compromiso “viral” significativo, lo que sugiere que la propagación de contenido engañoso creado no alcanzó una audiencia masiva, detalla la compañía.
Además, se están desarrollando plataformas que se comprometen a mejorar la transparencia en torno a las campañas políticas avanzadas, y se han implementado reportes para reducir el uso de tecnologías que propaguen desinformación, incluyendo restricciones en la distribución de contenido político generado sin un etiquetado adecuado. De cara a la elección presidencial, la Comisión Federal de Comunicaciones (FCC, por sus siglas en inglés) está evaluando medidas adicionales para abordar los desafíos que presentan las tecnologías automatizadas. Estas acciones son vistas como un esfuerzo preventivo en medio del creciente escepticismo hacia las herramientas computacionales, según demuestra el CDT, que espera que la información oficial verificada disminuya en las próximas elecciones.