La inteligencia artificial (IA) ha irrumpido con fuerza en la era digital, transformando múltiples aspectos de la vida humana, incluida la política. Su uso puede fortalecer la participación ciudadana y la deliberación democrática, pero también plantea riesgos, como la reproducción de sesgos, la desinformación y la manipulación electoral.
Diversos países han implementado iniciativas para aprovechar la IA en favor de la democracia y combatir la violencia digital. Sin embargo, aún falta generar espacios digitales que promuevan el diálogo, la participación informada y el acceso equitativo a la información.
Su impacto en la democracia dependerá de marcos éticos y legales adecuados, así como de una ciudadanía activa, crítica, informada y comprometida con el uso responsable de la tecnología.
Su capacidad para procesar grandes volúmenes de información, detectar patrones y ofrecer respuestas en tiempo real puede contribuir a una democracia más informada, inclusiva y transparente.
Una de las oportunidades más relevantes es la mejora del acceso a información verificada. Herramientas como Truly Media, Full Fact y Chequeado han utilizado modelos de lenguaje natural para identificar noticias falsas y verificar afirmaciones públicas, reduciendo el daño potencial de la desinformación.
Algoritmos permiten agrupar propuestas similares, detectar consensos emergentes y visualizar el estado de la discusión pública, haciendo posible gestionar la participación masiva sin perder trazabilidad ni diversidad de voces. Además, la IA puede ser aliada de la transparencia y la fiscalización.
En Brasil, la iniciativa “Serenata de Amor” ha empleado algoritmos para revisar gastos parlamentarios, detectando anomalías que podrían indicar corrupción. En España, universidades han desarrollado sistemas para analizar contratos públicos en busca de patrones sospechosos de adjudicación.
El problema es el mundo complejo en el que vivimos, carente de un sentido ético, donde el uso responsable de la tecnología y la digitalidad depende de cada persona, de cada organización, institución y gobiernos. Siri, Alexa, CHATGPT o la voz de Google Maps (Nikki García) y del GPS (Susana Ballesteros) han causado gran revuelo en lo social.
En temas políticos, es sonado el caso en 2018 de Michihito Matsuda en Japón, un robot que se presentó a las elecciones municipales en un distrito de Tokio y quedó en la tercera posición en la segunda vuelta.
La intención, con la postulación del robot, buscaba acabar con todo aquello que por naturaleza acompaña al ser humano; en concreto, las debilidades emocionales, malas decisiones, corrupción, nepotismo y conflictos, en contraposición con un análisis objetivo que Michihito podría ofrecer.
Otro ejemplo es el de SAM en las elecciones neozelandesas en 2020, el primer político virtual participando en elecciones en Nueva Zelanda; sus talentos: no mentir ni tergiversar información. En el fondo de todo lo anterior está la esperanza de acabar con las formas que han utilizado los políticos como parte de sus prácticas cotidianas, por supuesto, no todos, pero sí una buena parte.
La democracia es participación, deliberación, decisiones libres, voluntad popular y autogobierno, entre otras tantas cosas. Por tanto, la intención de introducir sistemas inteligentes automatizados puede constituir un problema grave. Daniel Innerarity, en 2024, publicó el documento “Inteligencia Artificial y Democracia” para la Unesco, donde analiza cómo la inteligencia artificial (IA) está transformando los procesos democráticos y propone estrategias para una gobernanza más ética y participativa de estas tecnologías.
Ha habido otras voces que han pedido cautela y, sobre todo, han dado algunas recomendaciones al respecto. Por ejemplo, Byung-chul Han dice que la inteligencia artificial no tiene acceso al mundo como totalidad de sentido, sino que opera sólo mediante cálculo y correlación de datos.
Agrega que el problema es la moralidad. Hay quienes, como Luciano Floridi, proponen una infoética que promueva un ecosistema digital y justo, donde el respeto por la dignidad y la autonomía humana esté por encima de la eficiencia técnica. Shannon Vallor, en relación con el tema ético, afirma que la IA debe recuperar valores como la honestidad, la compasión y la justicia, en su uso y en su diseño.
Adela Cortina (2024) sostiene que la IA no es una tecnología neutra, sino una herramienta creada con fines determinados por intereses humanos, políticos y económicos; advierte sobre el riesgo de que la inteligencia artificial se convierta en una herramienta al servicio de grandes corporaciones o gobiernos con intereses específicos, en lugar de beneficiar a la humanidad.
Cortina propone una serie de principios clásicos que deberían guiar el desarrollo y la implementación de la IA; entre ellos están el de beneficencia, el de no maleficencia, el de justicia, el de la explicabilidad y el de rendición de cuentas.
Otra guía práctica la ofrece la Comisión Europea, que propuso el primer marco jurídico de la IA. En 2024 fue autorizada la Ley de Inteligencia Artificial de la Unión Europea y publicada en el Diario Oficial de la Unión Europea.
Esta legislación establece un marco legal integral para el desarrollo, comercialización y uso de sistemas de inteligencia artificial (IA), con el objetivo de garantizar que estas tecnologías respeten los derechos fundamentales: la seguridad y los valores democráticos. Hoy, que tanto se habla de la IA, en temas que tienen que ver con política, democracia y deliberación pública, es indispensable su utilización. Así las cosas.

FELIPE DE JESÚS BALDERAS
Es Maestro en Ética Aplicada y Doctor en Estudios Humanísticos por el Tecnológico de Monterrey. Licenciado en Filosofía y Letras, con una Maestría en Educación Superior por la Universidad Autónoma de Nuevo León. Cuenta con una especialidad en Moral y Justicia por la Universidad Pontificia de México (UPM). Especialidad de Ética Aplicada a las Profesiones en Loyola University (Estados Unidos). Especialidad en Ética Social y Fundamental en la Universidad de Deusto (España). Especialidad en Ética Social y Profesional y estancia de investigación en la Universidad de Valencia en España.
Este texto es responsabilidad única, total y exclusiva de su autor, y es ajeno a la visión, convicción y opinión de PorsiAcasoMx