Durante la primera ponencia de las #AI4Humanity by UN, Artigas ha indicado que en noviembre se presentará en la ONU el Informe IA for Humanity, que recogerá las recomendaciones para la gobernanza mundial de la inteligencia artificial y para alcanzar los Objetivos de Desarrollo Sostenible. En esta línea, ha abogado por contar con asociaciones multilaterales a fin de hacer que la IA trabaje por el bien de la humanidad. “Es importante conocer cómo garantizamos un uso seguro de la IA, evitamos una práctica peligrosa no intencionada y el riesgo real, que es el daño a los derechos humanos fundamentales”, algo a lo que va a contribuir la Ley de IA.
Junto a Artigas ha estado Wendy Hall, pionera en el desarrollo de la ciencia para la creación de la World Wide Web y experta en el comité consultor sobre IA del Gobierno del Reino Unido. Durante su intervención, Hall ha hecho un llamamiento a las empresas para que se paren a pensar seriamente en el impacto social de la inteligencia artificial, dada la rápida evolución que la tecnología está registrando. Así, para evitar fines “catastróficos” en el planeta, la asesora se ha preguntado por cómo regular la Inteligencia Artificial Generativa (IAG). “Las IAG por sí solas no son un hilo existencial. Son un tipo de IA y tienen fallos. Necesitaríamos otras tecnologías de IA para llegar a la IAG”, ha afirmado.
Por otro lado, ha apuntado a los riesgos de las interacciones cerebro-ordenador. “Hemos pasado de poner una pegatina en la piel a un implante en el cerebro. Puede ayudar a la gente a caminar o a hablar de nuevo, pero significa que los ordenadores podrán leer la mente. Así que, si no tenemos regulaciones de antemano, tenemos problemas”. Por ello, en materia de regulación de la IA, ha abogado por involucrar a una gran potencia como China en las conversaciones.
Precisamente, Linghan Zhang Miembro del Órgano Consultivo de Alto Nivel sobre Inteligencia Artificial de la ONU, ha llevado en estas sesiones el enfoque asiático en cuanto a legislación sobre IA, donde hay protecciones especiales con vistas resolver los desafíos de los algoritmos. Además, “científicos chinos, estadounidenses y de la UE firmaron un consenso sobre la seguridad de la IA en marzo de 2024, según el cual los sistemas de IA no deben copiarse ni desarrollarse a sí mismos”, ha asegurado.
Zhang ha ofrecido también las oportunidades que promueve la tecnología en el país oriental y ha dado detalles de uno de los últimos informes sobre el uso de la IA entre los jóvenes de la nación: el 80% de ellos está más preocupado por cómo ganar dinero con la IA, que los riesgos que conlleva. Como ejemplo, ha aportado casos “valiosos” que se están realizando, como un sistema de IA implantado en el campo chino que ha mejorado la precisión del diagnóstico en un 40%. A corto y largo plazo, ha indicado que China, que desarrolla su propia industria en cuanto a herramientas de aprendizaje generativo, “se enfrentará a los riesgos de la IA, al igual que otras regiones, por lo que participan en diálogos gubernamentales internacionales”.