Los algoritmos que elegirán al próximo presidente del gobierno

(Por Jorge Gracia del Río, Universidad de Zaragoza). En 1955, Isaac Asimov publicó su relato Sufragio universal. En él describe cómo la primera democracia electrónica utiliza el computador más avanzado del mundo (Multivac) para decidir el voto de toda una nación, con la intervención de un único votante humano.

Si bien no hemos llegado a ese inquietante futuro, el papel de la inteligencia artificial y de la ciencia de datos es cada vez más importante en el curso de las elecciones democráticas. Las campañas electorales de Barack Obama y Donald Trump, el Partido Sintético de Dinamarca y el robo masivo de información en la campaña de Macron son buenos ejemplos.

Monitorización de la opinión, el “análisis de sentimiento”

Uno de los primeros casos de éxito en el uso de técnicas de big data y análisis de redes sociales para ajustar una campaña electoral fue el de Barack Obama para las presidenciales de Estados Unidos en 2012. En su campaña (y en muchas otras después), las encuestas tradicionales de intención de voto, basadas en llamadas telefónicas o entrevistas personales, se complementaron con el análisis de redes sociales.

Estos análisis ofrecen un método barato y casi en tiempo real de medir la opinión de los votantes. Para ello se aplican técnicas de Procesamiento del Lenguaje Natural (PLN), en particular las dedicadas al análisis de sentimiento. Dichas técnicas analizan los mensajes contenidos en tuits, blogs, etc. y tratan de medir si las opiniones vertidas en ellos son positivas o negativas con respecto a un cierto político o a un cierto mensaje electoral.

El principal problema que tienen es el sesgo muestral, pues los usuarios más activos en redes sociales suelen ser jóvenes y tecnófilos, y no representan a toda la población. Por eso estas técnicas tienen limitaciones a la hora de predecir resultados electorales, aunque resultan muy útiles para estudiar las tendencias de voto y el estado de opinión de la gente.

Intervención en campañas electorales: el caso Donald Trump

Más inquietante que el estudio de las emociones en redes sociales resulta su uso para influenciar estados de opinión y modular el voto. Un caso bien conocido es el de la campaña de Donald Trump en las presidenciales de EE UU de 2016. El big data y los perfiles psicográficos tuvieron mucho que ver con una victoria que no habían logrado predecir las encuestas.

No se trató de una manipulación en masa, sino que diferentes votantes recibieron diferentes mensajes basados en predicciones sobre su susceptibilidad a diferentes argumentos, recibiendo información sesgada, fragmentada y a veces contradictoria con otros mensajes del candidato. La tarea fue encomendada a la empresa Cambride Analytica, que se vio implicada en una polémica por la recopilación no autorizada de información sobre millones de usuarios de Facebook.

El método de Cambride Analytica se basó en los estudios de psicometría de Kosinski, que comprobó como con un número limitado de likes se puede obtener un perfil del usuario tan acertado como si lo hicieran sus familiares o amigos.

El problema con este enfoque no está en el uso de la tecnología sino en la naturaleza “encubierta” de la campaña, la manipulación psicológica a votantes susceptibles a través de apelaciones directas a sus emociones o la difusión deliberada de noticias falsas a través de bots. Fue el caso de Emmanuel Macron en las presidenciales francesas de 2017. Su campaña sufrió un robo masivo de correos electrónicos a sólo dos días de las elecciones. Multitud de bots se encargaron de difundir evidencias de comisión de delitos supuestamente contenidos en la información, que luego resultaron falsas.

Acción política y gobierno: el Partido Sintético

No menos inquietante que el punto anterior es la posibilidad de que una inteligencia artificial (IA) nos gobierne. Dinamarca abrió el debate en sus últimas elecciones legislativas, a las que concurrió el Partido Sintético liderado por una IA, un chatbot llamado Leader Lars, con la aspiración de entrar en el parlamento. Detrás del chatbot hay humanos, naturalmente, en particular la fundación MindFuture de arte y tecnología.

Leader Lars fue entrenado con los programas electorales de partidos daneses marginales desde 1970 para configurar una propuesta que representara al 20 % de la población danesa que no acude a las urnas.

Si bien el Partido Sintético parece una extravagancia (con propuestas tan atrevidas como una renta básica universal superior a 13 400 € al mes, el doble del salario medio en Dinamarca), ha servido para estimular el debate sobre la capacidad de una IA para gobernarnos. ¿Puede realmente una IA contemporánea, bien entrenada y con suficientes recursos, gobernarnos?

Si analizamos el pasado reciente de la inteligencia artificial, vemos que los avances se suceden uno tras otro a velocidad de vértigo, particularmente en el campo del procesamiento del lenguaje natural tras la aparición de las arquitecturas basadas en transformers. Los transformers son enormes redes neuronales artificiales entrenadas para aprender a generar textos, pero fácilmente adaptables a muchas otras tareas. De alguna manera, estas redes aprenden la estructura general del lenguaje humano y acaban teniendo un conocimiento del mundo a través de lo que han “leído”.

Uno de los ejemplos más avanzados y espectaculares lo ha desarrollado OpenAI y se llama ChatGPT. Se trata de un chatbot capaz de responder de manera coherente a casi cualquier pregunta formulada en lenguaje natural, de generar texto o de efectuar tareas tan complicadas como escribir programas informáticos a partir de unas pocas indicaciones.

Libres de corrupción, pero sin transparencia

Las ventajas de usar una IA para la acción de gobierno serían varias. Por una parte, su capacidad de procesar datos y conocimiento para la toma de decisiones es muy superior a la de cualquier humano. También estaría libre (en principio) del fenómeno de la corrupción y no le influirían los intereses personales.

Pero, a día de hoy, los chatbots sólo reaccionan, se alimentan de la información que alguien les proporciona y dan respuestas. No son realmente libres de pensar “espontáneamente”, de tomar la iniciativa. Es más adecuado ver estos sistemas como oráculos, capaces de responder a preguntas del tipo “qué crees que pasaría si…”, “que propondrías en caso de…”, más que como agentes activos o controladores.

Los posibles problemas y peligros de este tipo de inteligencias, basadas en grandes redes neuronales han sido analizados en numerosos estudios científicos. Un problema fundamental es el de la falta de transparencia (“explicabilidad”) de las decisiones que toman. En general actúan como “cajas negras” sin que podamos saber qué razonamiento han llevado a cabo para llegar a una conclusión.

Y no olvidemos que detrás de la máquina están los humanos, que han podido introducir ciertos sesgos (consciente o inconscientemente) en la IA a través de los textos que han usado para entrenarla. Por otro lado, la IA no está libre de dar datos o consejos erróneos, como muchos usuarios de ChatGPT han podido experimentar.

Los avances tecnológicos permiten vislumbrar una futura IA capaz de “gobernarnos”, por el momento no sin el imprescindible control humano. El debate debería moverse pronto del plano técnico al plano ético y social.

Jorge Gracia del Río, Investigador "Ramón y Cajal" en Lenguajes y Sistemas Informáticos, Universidad de Zaragoza

Este artículo fue publicado originalmente en The Conversation. Lea el original.

The Conversation

El porcentaje de españoles que comparte piso porque no puede pagar un alquiler completo aumenta 11 puntos hasta el 55% (un 31% cohabita con otras tres personas)

El comienzo del curso escolar marca el punto álgido anual para el alquiler de habitaciones en viviendas compartidas, una actividad en la que en 2024 participan un 3% de españoles en España. De ese porcentaje, el 55% de quienes han alquilado habitación en un piso compartido lo hace porque no pueden pagar por el arrendamiento de un inmueble completo. Es un porcentaje significativamente más alto que el 44% registrado en 2023 con once puntos porcentuales de crecimiento en tan solo un año. Esta es una de las principales conclusiones del análisis “Perfil de las personas que comparten vivienda” realizado cada año por Fotocasa Research con la intención de conocer la realidad de las personas que alquilan una habitación en un piso compartido.

Fotocasa colabora con Gilmar para montar un piso en el Cívitas Metropolitano (será la primera Fan Home que se hace en un estadio de fútbol español)

Disfrutar del fútbol en directo en el estadio es una experiencia emocionante que atrae a los más apasionados de este deporte. No obstante, ver un partido en casa con todas las comodidades desde el sofá también es muy tentador. Pero ¿y si fuera posible combinar ambas experiencias bajo un mismo techo? Fotocasa lo ha hecho realidad, en colaboración con la inmobiliaria GILMAR, creando el primer apartamento completamente amueblado y con todas las comodidades dentro del estadio del Atlético de Madrid, el Cívitas Metropolitano.

Prosegur lanza en España el primer servicio de seguridad y vigilancia portuaria con motos de agua

Prosegur, líder en el sector de seguridad privada, ha puesto en marcha en España un servicio pionero de seguridad y vigilancia portuaria con motos de agua, que ofrece una solución pionera y avanzada para proteger de forma más rápida y eficiente a todos los clientes, visitantes y usuarios. El servicio ha iniciado su andadura en Puerto Banús, Marbella, y la compañía espera expandirlo a otros puertos de España en los próximos meses.

“Voldemort”, el nuevo malware que se hace pasar por agencias tributarias de Europa, Asia y Estados Unidos

El equipo de investigación de amenazas de Proofpoint ha revelado datos de una campaña inusual en la que los ciberdelincuentes se hacen pasar por autoridades fiscales de Europa, Asia y Estados Unidos para distribuir un malware personalizado apodado “Voldemort”. Esta compañía líder de ciberseguridad y cumplimiento normativo considera que es probable que se trate de una amenaza persistente avanzada (APT) con fines de espionaje, dadas las capacidades de este malware en recopilación de información y entrega de payloads adicionales en vez de para obtener beneficios económicos como objetivo. Sin embargo, Proofpoint no dispone de información suficiente para atribuir con un alto grado de confianza estos mensajes a un agente de amenazas específico.