Los algoritmos que elegirán al próximo presidente del gobierno

(Por Jorge Gracia del Río, Universidad de Zaragoza). En 1955, Isaac Asimov publicó su relato Sufragio universal. En él describe cómo la primera democracia electrónica utiliza el computador más avanzado del mundo (Multivac) para decidir el voto de toda una nación, con la intervención de un único votante humano.

Si bien no hemos llegado a ese inquietante futuro, el papel de la inteligencia artificial y de la ciencia de datos es cada vez más importante en el curso de las elecciones democráticas. Las campañas electorales de Barack Obama y Donald Trump, el Partido Sintético de Dinamarca y el robo masivo de información en la campaña de Macron son buenos ejemplos.

Monitorización de la opinión, el “análisis de sentimiento”

Uno de los primeros casos de éxito en el uso de técnicas de big data y análisis de redes sociales para ajustar una campaña electoral fue el de Barack Obama para las presidenciales de Estados Unidos en 2012. En su campaña (y en muchas otras después), las encuestas tradicionales de intención de voto, basadas en llamadas telefónicas o entrevistas personales, se complementaron con el análisis de redes sociales.

Estos análisis ofrecen un método barato y casi en tiempo real de medir la opinión de los votantes. Para ello se aplican técnicas de Procesamiento del Lenguaje Natural (PLN), en particular las dedicadas al análisis de sentimiento. Dichas técnicas analizan los mensajes contenidos en tuits, blogs, etc. y tratan de medir si las opiniones vertidas en ellos son positivas o negativas con respecto a un cierto político o a un cierto mensaje electoral.

El principal problema que tienen es el sesgo muestral, pues los usuarios más activos en redes sociales suelen ser jóvenes y tecnófilos, y no representan a toda la población. Por eso estas técnicas tienen limitaciones a la hora de predecir resultados electorales, aunque resultan muy útiles para estudiar las tendencias de voto y el estado de opinión de la gente.

Intervención en campañas electorales: el caso Donald Trump

Más inquietante que el estudio de las emociones en redes sociales resulta su uso para influenciar estados de opinión y modular el voto. Un caso bien conocido es el de la campaña de Donald Trump en las presidenciales de EE UU de 2016. El big data y los perfiles psicográficos tuvieron mucho que ver con una victoria que no habían logrado predecir las encuestas.

No se trató de una manipulación en masa, sino que diferentes votantes recibieron diferentes mensajes basados en predicciones sobre su susceptibilidad a diferentes argumentos, recibiendo información sesgada, fragmentada y a veces contradictoria con otros mensajes del candidato. La tarea fue encomendada a la empresa Cambride Analytica, que se vio implicada en una polémica por la recopilación no autorizada de información sobre millones de usuarios de Facebook.

El método de Cambride Analytica se basó en los estudios de psicometría de Kosinski, que comprobó como con un número limitado de likes se puede obtener un perfil del usuario tan acertado como si lo hicieran sus familiares o amigos.

El problema con este enfoque no está en el uso de la tecnología sino en la naturaleza “encubierta” de la campaña, la manipulación psicológica a votantes susceptibles a través de apelaciones directas a sus emociones o la difusión deliberada de noticias falsas a través de bots. Fue el caso de Emmanuel Macron en las presidenciales francesas de 2017. Su campaña sufrió un robo masivo de correos electrónicos a sólo dos días de las elecciones. Multitud de bots se encargaron de difundir evidencias de comisión de delitos supuestamente contenidos en la información, que luego resultaron falsas.

Acción política y gobierno: el Partido Sintético

No menos inquietante que el punto anterior es la posibilidad de que una inteligencia artificial (IA) nos gobierne. Dinamarca abrió el debate en sus últimas elecciones legislativas, a las que concurrió el Partido Sintético liderado por una IA, un chatbot llamado Leader Lars, con la aspiración de entrar en el parlamento. Detrás del chatbot hay humanos, naturalmente, en particular la fundación MindFuture de arte y tecnología.

Leader Lars fue entrenado con los programas electorales de partidos daneses marginales desde 1970 para configurar una propuesta que representara al 20 % de la población danesa que no acude a las urnas.

Si bien el Partido Sintético parece una extravagancia (con propuestas tan atrevidas como una renta básica universal superior a 13 400 € al mes, el doble del salario medio en Dinamarca), ha servido para estimular el debate sobre la capacidad de una IA para gobernarnos. ¿Puede realmente una IA contemporánea, bien entrenada y con suficientes recursos, gobernarnos?

Si analizamos el pasado reciente de la inteligencia artificial, vemos que los avances se suceden uno tras otro a velocidad de vértigo, particularmente en el campo del procesamiento del lenguaje natural tras la aparición de las arquitecturas basadas en transformers. Los transformers son enormes redes neuronales artificiales entrenadas para aprender a generar textos, pero fácilmente adaptables a muchas otras tareas. De alguna manera, estas redes aprenden la estructura general del lenguaje humano y acaban teniendo un conocimiento del mundo a través de lo que han “leído”.

Uno de los ejemplos más avanzados y espectaculares lo ha desarrollado OpenAI y se llama ChatGPT. Se trata de un chatbot capaz de responder de manera coherente a casi cualquier pregunta formulada en lenguaje natural, de generar texto o de efectuar tareas tan complicadas como escribir programas informáticos a partir de unas pocas indicaciones.

Libres de corrupción, pero sin transparencia

Las ventajas de usar una IA para la acción de gobierno serían varias. Por una parte, su capacidad de procesar datos y conocimiento para la toma de decisiones es muy superior a la de cualquier humano. También estaría libre (en principio) del fenómeno de la corrupción y no le influirían los intereses personales.

Pero, a día de hoy, los chatbots sólo reaccionan, se alimentan de la información que alguien les proporciona y dan respuestas. No son realmente libres de pensar “espontáneamente”, de tomar la iniciativa. Es más adecuado ver estos sistemas como oráculos, capaces de responder a preguntas del tipo “qué crees que pasaría si…”, “que propondrías en caso de…”, más que como agentes activos o controladores.

Los posibles problemas y peligros de este tipo de inteligencias, basadas en grandes redes neuronales han sido analizados en numerosos estudios científicos. Un problema fundamental es el de la falta de transparencia (“explicabilidad”) de las decisiones que toman. En general actúan como “cajas negras” sin que podamos saber qué razonamiento han llevado a cabo para llegar a una conclusión.

Y no olvidemos que detrás de la máquina están los humanos, que han podido introducir ciertos sesgos (consciente o inconscientemente) en la IA a través de los textos que han usado para entrenarla. Por otro lado, la IA no está libre de dar datos o consejos erróneos, como muchos usuarios de ChatGPT han podido experimentar.

Los avances tecnológicos permiten vislumbrar una futura IA capaz de “gobernarnos”, por el momento no sin el imprescindible control humano. El debate debería moverse pronto del plano técnico al plano ético y social.

Jorge Gracia del Río, Investigador "Ramón y Cajal" en Lenguajes y Sistemas Informáticos, Universidad de Zaragoza

Este artículo fue publicado originalmente en The Conversation. Lea el original.

The Conversation

Tu opinión enriquece este artículo:

Los campings españoles crecen un 3% en 2025 (triplicando la media europea)

Los campings españoles registraron en 2025 un crecimiento del 3 %, triplicando la media europea del 1 %, según la tercera edición del informe The Open Air Property Telescope, elaborado por EY‑Parthenon. Actualmente, hay 1.268 instalaciones operativas en España, con niveles de ocupación que alcanzan máximos históricos, aunque las tarifas medias solo aumentaron un 2 % en temporada alta y un 5 % en temporada baja.

El Puerto de Barcelona acoge el primer encuentro de IA organizado por Anthropic y World Trade Center

El Puerto de Barcelona acogerá el próximo miércoles, 4 de marzo, el primer encuentro internacional de Claude Community, conjunto de profesionales que, de la mano de Anthropic, están expandiendo Claude, un modelo de inteligencia artificial (IA) desarrollado pensando en usos éticos y beneficiosos para la sociedad. Fundada en 2021 por exmiembros de OpenAI, Anthropic es la creadora de la familia de modelos de IA Claude, reconocida internacionalmente por su potencia, fiabilidad y énfasis en la seguridad y la interpretabilidad.

El 65% de los españoles duda de si cobra menos que sus compañeros en roles similares, aumentando la desconfianza generalizada

Junio de 2026 es la fecha límite para que los Estados miembros de la UE traspongan a sus legislaciones nacionales la Directiva de Transparencia Salarial de la UE, siendo obligatorio reportar informes de transparencia para las empresas de más de 150 empleados a partir de 2027. La aplicación de esta normativa, la mayor ley de transparencia salarial de la historia de la UE transformará el mercado laboral español con el objetivo de poner fin a la opacidad salarial, una de las mayores frustraciones de los trabajadores españoles. 

La economía española crecerá un 2,5 % en 2026, cifra muy superior a la de otros países europeos

Un año más, España vuelve a posicionarse como una economía clave a nivel europeo y mundial. Según las previsiones del ‘Coface Risk Review’ de febrero de 2026, el PIB nacional crecerá un 2,5 % este año, lo que supone una mejora de cuatro décimas respecto a las previsiones de la edición de octubre de 2025 (que eran del 2,1 % para 2026), y una estimación superior a la prevista para las economías avanzadas (+1,7 %), Unión Europea (+1,4 %) y zona euro (+1,2 %), así como para Alemania (+1 %), Francia (+0,9 %), Italia (+0,8 %) o Reino Unido (+1,0 %). 

El 57,7% de los españoles pagaría más por pescado que garantice mejores condiciones laborales de los pescadores

Casi 3 de cada 4 españoles (74,5%) valora su conocimiento de pesca responsable entre medio y muy bajo, según el estudio “Qué sabemos de lo que comemos del mar”, presentado hoy por OPAGAC (Organización de Productores Asociados de Grandes Atuneros Congeladores). El acto sirvió para el lanzamiento de Hands for Oceans, un movimiento internacional creado por OPAGAC para impulsar la pesca responsable (tanto social, medioambiental y como económica) y garantizar el respeto por los derechos humanos y sociales en alta mar. 

Éste sitio web usa cookies, si permanece aquí acepta su uso. Puede leer más sobre el uso de cookies en nuestra política de cookies.