Los algoritmos que elegirán al próximo presidente del gobierno

(Por Jorge Gracia del Río, Universidad de Zaragoza). En 1955, Isaac Asimov publicó su relato Sufragio universal. En él describe cómo la primera democracia electrónica utiliza el computador más avanzado del mundo (Multivac) para decidir el voto de toda una nación, con la intervención de un único votante humano.

Image description

Si bien no hemos llegado a ese inquietante futuro, el papel de la inteligencia artificial y de la ciencia de datos es cada vez más importante en el curso de las elecciones democráticas. Las campañas electorales de Barack Obama y Donald Trump, el Partido Sintético de Dinamarca y el robo masivo de información en la campaña de Macron son buenos ejemplos.

Monitorización de la opinión, el “análisis de sentimiento”

Uno de los primeros casos de éxito en el uso de técnicas de big data y análisis de redes sociales para ajustar una campaña electoral fue el de Barack Obama para las presidenciales de Estados Unidos en 2012. En su campaña (y en muchas otras después), las encuestas tradicionales de intención de voto, basadas en llamadas telefónicas o entrevistas personales, se complementaron con el análisis de redes sociales.

Estos análisis ofrecen un método barato y casi en tiempo real de medir la opinión de los votantes. Para ello se aplican técnicas de Procesamiento del Lenguaje Natural (PLN), en particular las dedicadas al análisis de sentimiento. Dichas técnicas analizan los mensajes contenidos en tuits, blogs, etc. y tratan de medir si las opiniones vertidas en ellos son positivas o negativas con respecto a un cierto político o a un cierto mensaje electoral.

El principal problema que tienen es el sesgo muestral, pues los usuarios más activos en redes sociales suelen ser jóvenes y tecnófilos, y no representan a toda la población. Por eso estas técnicas tienen limitaciones a la hora de predecir resultados electorales, aunque resultan muy útiles para estudiar las tendencias de voto y el estado de opinión de la gente.

Intervención en campañas electorales: el caso Donald Trump

Más inquietante que el estudio de las emociones en redes sociales resulta su uso para influenciar estados de opinión y modular el voto. Un caso bien conocido es el de la campaña de Donald Trump en las presidenciales de EE UU de 2016. El big data y los perfiles psicográficos tuvieron mucho que ver con una victoria que no habían logrado predecir las encuestas.

No se trató de una manipulación en masa, sino que diferentes votantes recibieron diferentes mensajes basados en predicciones sobre su susceptibilidad a diferentes argumentos, recibiendo información sesgada, fragmentada y a veces contradictoria con otros mensajes del candidato. La tarea fue encomendada a la empresa Cambride Analytica, que se vio implicada en una polémica por la recopilación no autorizada de información sobre millones de usuarios de Facebook.

El método de Cambride Analytica se basó en los estudios de psicometría de Kosinski, que comprobó como con un número limitado de likes se puede obtener un perfil del usuario tan acertado como si lo hicieran sus familiares o amigos.

El problema con este enfoque no está en el uso de la tecnología sino en la naturaleza “encubierta” de la campaña, la manipulación psicológica a votantes susceptibles a través de apelaciones directas a sus emociones o la difusión deliberada de noticias falsas a través de bots. Fue el caso de Emmanuel Macron en las presidenciales francesas de 2017. Su campaña sufrió un robo masivo de correos electrónicos a sólo dos días de las elecciones. Multitud de bots se encargaron de difundir evidencias de comisión de delitos supuestamente contenidos en la información, que luego resultaron falsas.

Acción política y gobierno: el Partido Sintético

No menos inquietante que el punto anterior es la posibilidad de que una inteligencia artificial (IA) nos gobierne. Dinamarca abrió el debate en sus últimas elecciones legislativas, a las que concurrió el Partido Sintético liderado por una IA, un chatbot llamado Leader Lars, con la aspiración de entrar en el parlamento. Detrás del chatbot hay humanos, naturalmente, en particular la fundación MindFuture de arte y tecnología.

Leader Lars fue entrenado con los programas electorales de partidos daneses marginales desde 1970 para configurar una propuesta que representara al 20 % de la población danesa que no acude a las urnas.

Si bien el Partido Sintético parece una extravagancia (con propuestas tan atrevidas como una renta básica universal superior a 13 400 € al mes, el doble del salario medio en Dinamarca), ha servido para estimular el debate sobre la capacidad de una IA para gobernarnos. ¿Puede realmente una IA contemporánea, bien entrenada y con suficientes recursos, gobernarnos?

Si analizamos el pasado reciente de la inteligencia artificial, vemos que los avances se suceden uno tras otro a velocidad de vértigo, particularmente en el campo del procesamiento del lenguaje natural tras la aparición de las arquitecturas basadas en transformers. Los transformers son enormes redes neuronales artificiales entrenadas para aprender a generar textos, pero fácilmente adaptables a muchas otras tareas. De alguna manera, estas redes aprenden la estructura general del lenguaje humano y acaban teniendo un conocimiento del mundo a través de lo que han “leído”.

Uno de los ejemplos más avanzados y espectaculares lo ha desarrollado OpenAI y se llama ChatGPT. Se trata de un chatbot capaz de responder de manera coherente a casi cualquier pregunta formulada en lenguaje natural, de generar texto o de efectuar tareas tan complicadas como escribir programas informáticos a partir de unas pocas indicaciones.

Libres de corrupción, pero sin transparencia

Las ventajas de usar una IA para la acción de gobierno serían varias. Por una parte, su capacidad de procesar datos y conocimiento para la toma de decisiones es muy superior a la de cualquier humano. También estaría libre (en principio) del fenómeno de la corrupción y no le influirían los intereses personales.

Pero, a día de hoy, los chatbots sólo reaccionan, se alimentan de la información que alguien les proporciona y dan respuestas. No son realmente libres de pensar “espontáneamente”, de tomar la iniciativa. Es más adecuado ver estos sistemas como oráculos, capaces de responder a preguntas del tipo “qué crees que pasaría si…”, “que propondrías en caso de…”, más que como agentes activos o controladores.

Los posibles problemas y peligros de este tipo de inteligencias, basadas en grandes redes neuronales han sido analizados en numerosos estudios científicos. Un problema fundamental es el de la falta de transparencia (“explicabilidad”) de las decisiones que toman. En general actúan como “cajas negras” sin que podamos saber qué razonamiento han llevado a cabo para llegar a una conclusión.

Y no olvidemos que detrás de la máquina están los humanos, que han podido introducir ciertos sesgos (consciente o inconscientemente) en la IA a través de los textos que han usado para entrenarla. Por otro lado, la IA no está libre de dar datos o consejos erróneos, como muchos usuarios de ChatGPT han podido experimentar.

Los avances tecnológicos permiten vislumbrar una futura IA capaz de “gobernarnos”, por el momento no sin el imprescindible control humano. El debate debería moverse pronto del plano técnico al plano ético y social.

Jorge Gracia del Río, Investigador "Ramón y Cajal" en Lenguajes y Sistemas Informáticos, Universidad de Zaragoza

Este artículo fue publicado originalmente en The Conversation. Lea el original.

The Conversation

Tu opinión enriquece este artículo:

Madrid se destaca en Europa como una de las regiones de mayor crecimiento en data centers

La expansión de la Inteligencia Artificial (IA) y sus funcionalidades están impulsando el auge de los centros de datos para albergar la amplia cantidad de información que se genera. A pesar de que el Cloud Computing ganó tracción en los últimos años, la irrupción imparable de la herramienta de aprendizaje generativa ha propiciado que se vuelva a poner el foco en esta clase de activos.

5 restaurantes catalanes están en la carrera por las Mejores Aperturas del 2023 en la III edición de los Thefork Awards

Un total de 36 restaurantes, repartidos por la geografía española, han sido nominados como las mejores aperturas del pasado 2023, en la tercera edición de los TheFork Awards. Un jurado compuesto por más de 50 personalidades de la gastronomía española, reconocidos con una, dos y tres Estrellas MICHELIN, de la talla de Paco Morales (Noor), Dabiz Muñoz (Diverxo), Diego Guerrero (D Stage), Elena Arzak (Arzak), Begoña Rodrigo (La Salita) o Jesús Sánchez (El Cenador de Amós), entre otros, ha sido el encargado de elaborar la prestigiosa lista. No obstante, habrá que esperar hasta el próximo 11 de noviembre para que se den a conocer los finalistas, en una gala que tendrá lugar en el Gran Teatro Caixabank Príncipe Pío en Madrid.

Una habitación en Madrid ha costado de media en agosto 552 euros (un 70% más que en agosto de 2015, cuando costada 324 euros)

El precio de una habitación en Madrid cuesta de media 552 euros al mes, es decir, un 42,3% más que hace 5 años (desde 2019) y un 70% más respecto a hace 9 años (2015), según el estudio a mitad año de “Viviendas compartidas en España en 2024” basado en los precios de la vivienda en alquiler del mes de agosto de los últimos 9 años del Índice Inmobiliario Fotocasa.

La Comunitat Valenciana cierra el mejor mes de julio de la historia en creación de empresas (el crecimiento de nuevas sociedades ha sido del 25% respecto a julio de 2023)

La Comunitat Valenciana ha cerrado el mejor mes de julio de la historia en creación de empresas, con 1.350 nuevas sociedades, lo que supone un incremento del 25,3 % respecto al mes de julio del pasado año. Además, la Comunitat también ha registrado el segundo dato más bajo en disolución de compañías durante un mes de julio desde que hay registros, con 111 casos.

Éste sitio web usa cookies, si permanece aquí acepta su uso. Puede leer más sobre el uso de cookies en nuestra política de cookies.