¿Necesitamos una agencia que supervise la inteligencia artificial?

(Por José Luis Verdegay Galdeano, Universidad de Granada) A menudo nos encontramos anuncios de productos con el sello “con inteligencia artificial”. Pero muy pocas veces, por no decir nunca, se informa al usuario de más detalles. ¿Quién nos garantiza que, efectivamente, ese producto funciona en base a inteligencia artificial (IA)? ¿Quién certifica que las respuestas que nos ofrece son las correctas? ¿A qué código ético obedece? Sin saber nada al respecto, cuando por alguna causa ese producto no funciona como esperábamos, es normal concluir que la IA no es fiable y mucho menos los algoritmos que emplea.

Image description

Pero ¿sabemos si el producto al que nos referimos funciona en base a un algoritmo? ¿Las soluciones que proporciona son siempre malas o solo lo son dependiendo del usuario? ¿El código ético de quien diseñó ese producto coincide con el nuestro? Y, a propósito: ¿quién define lo que es un comportamiento ético? ¿Cómo se mide la ética?

¿Qué es axactamente un algoritmo?

Un algoritmo es una secuencia ordenada de pasos, exentos de ambigüedad, que cuando se lleva a cabo con fidelidad en un tiempo finito da como resultado la solución del problema planteado, habiendo realizando, por tanto, la tarea para la que se diseñó. Así, para que un algoritmo sea correcto necesita cumplir lo siguiente:

  • debe terminar siempre tras un número finito de etapas;

  • las acciones que ha de llevar a cabo en cada etapa deben estar rigurosamente especificadas, sin ambigüedades;

  • los valores con los que comienza a funcionar se han de tomar de conjuntos preespecificados;

  • el resultado que proporcione siempre dependerá de los datos de entrada;

  • todas las operaciones que haya que realizar en el algoritmo deben ser lo suficientemente básicas como para que se hagan exactamente y en un periodo finito de tiempo.

Cuando no se da alguna de estas propiedades, no tenemos un algoritmo.

Los algoritmos, por tanto, no son como las recetas de cocina, que pueden tener reglas imprecisas, y como consecuencia producir resultados tan distintos como imprevisibles. Son procesos iterativos que generan una sucesión de puntos, conforme a un conjunto dado de instrucciones y un criterio de parada. Como tales, no están sujetos a restricciones tecnológicas de tipo alguno, es decir, son absolutamente independientes del equipamiento tecnológico disponible para resolver el problema que afronten. Es el programa en el que se escriba el algoritmo, el software, el que lo ejecuta en un computador.

Cuando ese programa y el algoritmo en el que se basa están diseñados con técnicas y metodologías de IA, y por tanto basadas en el comportamiento de las personas, a veces pueden surgir problemas a la hora de conocer y aceptar las decisiones que toma dicho programa.

Podemos sentirnos amenazados por creernos que esas máquinas realizan nuestros trabajos mejor que nosotros o porque nadie sepa explicar el comportamiento que tienen cuando actúan saliéndose de lo previsto, produciendo sesgos indeseables, soluciones no sostenibles o, en definitiva, porque consideremos que no tienen un comportamiento ético.

Pero esa es la versión que se ve desde el lado del usuario, es decir, de quien observa cómo se comporta ese sistema. Porque desde el lado del diseñador, a veces los resultados se ajustan exactamente a lo que conscientemente se había previsto en el algoritmo de origen y el correspondiente software que llega a los usuarios.

Contradicciones éticas

El rango de posibilidades es más que amplio. Van desde comportamientos indebidos a causa de errores fortuitos, indeseables pero inevitables, y con los que en todo caso hay que contar, hasta la comercialización totalmente interesada de sistemas basados en IA en los que su buen uso no está asegurado en ningún sentido o, incluso peor, no están basados en IA.

En cualquier caso, y desde un punto de vista muy general, es obvio que el nivel ético de un cierto software basado en IA es contexto-dependiente. Mientras que en cierto ámbito una actuación puede tacharse de falta de ética, en otros puede entenderse como idónea. Esto da lugar a situaciones contradictorias difíciles de comparar porque ni disponemos de herramientas que nos permitan valorar el comportamiento ético de un sistema basado en IA, ni de legislación que lo regule.

Por tanto, y aunque solo fuera por estas razones que brevemente se han descrito, era imprescindible incluir la creación de una Agencia Española de Supervisión de Inteligencia Artificial (AESIA) en la disposición adicional centésima trigésima de la Ley 22/2021, de 28 de diciembre de Presupuestos Generales del Estado para el año 2022.

Según se plantea, la AESIA actuará con plena independencia orgánica y funcional de las administraciones públicas, de forma objetiva, transparente e imparcial. Llevará a cabo medidas destinadas a la minimización de riesgos significativos sobre la seguridad y salud de las personas, y sobre sus derechos fundamentales que puedan derivarse del uso de sistemas de IA.

Así mismo, la agencia se encargará del desarrollo, supervisión y seguimiento de los proyectos enmarcados dentro de la Estrategia Nacional de Inteligencia Artificial, además de aquellos impulsados por la Unión Europea, en particular los relativos al desarrollo normativo sobre la IA y sus posibles usos.

¿Dónde se ubicará?

De cara a seleccionar la ubicación de la agencia, el Real Decreto 209/2022, del 22 de marzo establece el procedimiento a través del cual se determinará el término municipal en el que se ubicará su sede física.

La agencia funcionará como una autoridad pública independiente encargada de garantizar a la sociedad, desde la perspectiva de servicio público, la calidad, seguridad, eficacia y correcta información de los sistemas basados en IA, desde su investigación hasta su utilización. Para ello dispondrá de mecanismos objetivos de evaluación, certificación y acreditación de los sistemas basados en IA, cuya ausencia actual planteábamos al comienzo de este artículo.

La elección de la sede física de la AESIA corresponderá a una Comisión consultiva, por cierto, ya creada.

Sea cual sea el municipio en el que se instale, su funcionamiento tendrá que ajustarse estrictamente a todos y cada uno de los anteriores principios. Por tanto, no parece oportuno que las diferentes candidaturas que se postulen para albergar su sede vengan avaladas por empresas del sector, ya sean nacionales o internacionales. La intervención directa o indirecta de estas compañías podría poner en tela de juicio la necesaria independencia de la agencia.

Cosa distinta es que el sector empresarial, que desempeña un papel clave en todo lo concerniente al desarrollo de la IA, avale y respalde la iniciativa gubernamental acerca de la creación de la AESIA, pero sin apostar por una ubicación concreta.

Pero la AESIA no puede quedarse solo en una agencia nacional que actúe de manera aislada. Deberá alinearse con la estructura orgánica que la Unión Europea diseñe, particularmente con la futura Junta Europea de Inteligencia Artificial.

La agencia también deberá ajustarse a la legislación europea. Ya hay un borrador de reglamento del Parlamento y del Consejo Europeo que establece normas armonizadas en materia de IA. La conocida como Ley de la Inteligencia Artificial, persigue definir una métrica para evaluar el impacto social de los algoritmos en el sector industrial, exigir la transparencia algorítmica, su explicabilidad, y acreditar su calidad ética.

Como conclusión, respondiendo a la pregunta que planteábamos al principio, la AESIA no solo es imprescindible sino que necesitamos que empiece a funcionar tan pronto como sea posible de manera independiente, con credibilidad y con medios suficientes. Pero nada de ello será eficaz sin una legislación que regule la producción, uso y funcionamiento de los sistemas basados en IA; que asegure y proteja a las personas y que esté tan consensuada en el ámbito europeo como sea posible.

José Luis Verdegay Galdeano, Catedrático de Ciencia de la Computación e Inteligencia Artificial, Universidad de Granada

Este artículo fue publicado originalmente en The Conversation. Lea el original.

The Conversation

Tu opinión enriquece este artículo:

Mango invierte en Hoop Carpool (la startup de movilidad compartida que facilita el carpooling para empresas y universidades)

Mango, uno de los grupos más grandes de Europa en el sector de la moda, está ampliando su alcance innovador a través de Mango StartUp Studio, su aceleradora de startups. Ahora, la empresa está invirtiendo en Hoop Carpool, una startup de movilidad compartida que facilita el carpooling para empresas y universidades, permitiendo a empleados y estudiantes compartir trayectos cortos de manera sostenible y eficiente.

Tecnoestrés, fatiga informática y el derecho a la desconexión digital en el ámbito laboral

(Francisco Trujillo Pons, Universitat Jaume I) En un mundo donde la tecnología está omnipresente en cada aspecto de nuestras vidas, el exceso de jornada digital se ha convertido en un problema creciente en el ámbito laboral. El tecnoestrés y la fatiga informática son dos males cada vez más comunes, que afectan la salud y el bienestar de los trabajadores. Aquí emerge el derecho de desconexión digital que ofrece en las relaciones laborales una potente vía hacia un equilibrio más saludable entre la vida laboral, familiar y personal.

Las pymes españolas generaron 180.000 empleos nuevos en el primer trimestre de 2024 (el tramo de las microempresas es el único que se resiente)

La Dirección General de Industria y de la Pequeña y Mediana Empresa acaba de publicar el informe "Cifras PYME" de marzo de 2024, del que se puede destacar que el número pymes con asalariados a fecha de 31 marzo ascendió a 1.332.650, que dieron empleo en marzo a 9.617.631 asalariados. Esta cifra supone una variación del 1,92% en el primer trimestre del año, lo que se traduce en la generación de 181.189 nuevos puestos de trabajo por parte de las pymes españolas.

4 de cada 10 españoles se plantean buscar un segundo empleo para hacer frente a sus gastos

La economía española continúa mostrando síntomas de fortaleza en el comienzo de 2024, y las instituciones financieras han mejorado ligeramente las previsiones de la economía y del mercado laboral para nuestro país. El crecimiento del 2,5% en el Producto Interior Bruto (PIB) español en 2023 y la revitalización del mercado laboral, con la cifra total de parados más baja para el mes de marzo (2.727.003) desde el 2008, según los datos del Ministerio de Trabajo y Economía Social, reflejan una mejora general en la salud económica de las familias. Sin embargo, a pesar de estos datos positivos, todavía hay un porcentaje de hogares sufriendo presión en sus finanzas, planteándose una fuente de ingresos adicionales para hacer frente a sus gastos.

Solo un 13% de los españoles afirma abiertamente tener miedo a perder su trabajo por la IA (la cual creará 1,61 millones de empleos nuevos en España en la próxima década)

La Inteligencia Artificial es una tecnología todavía en fase de desarrollo y su adopción por parte de la empresa española tiene mucho margen de crecimiento. A pesar de ello, su implementación es una realidad en el día a día de un 45,5% de las empresas españolas que ya han implementado la IA1 en funciones relacionadas con el análisis de datos, la optimización de tareas administrativas, la automatización de procesos y la atención a sus clientes, mediante diferentes servicios y asistentes virtuales.

Éste sitio web usa cookies, si permanece aquí acepta su uso. Puede leer más sobre el uso de cookies en nuestra política de cookies.