La IA agencial abre un nuevo escenario de riesgo y BCG define un marco específico para gestionarlo en empresas

El despliegue de agentes de inteligencia artificial en funciones empresariales críticas ha situado a las organizaciones ante un "nuevo punto de inflexión" en materia de riesgos, al tratarse de sistemas que ya han asumido un papel activo en la toma de decisiones y que son capaces de observar, planificar, actuar y aprender a gran escala, generando riesgos elevados y, en muchos casos, desconocidos que desafían los modelos existentes de control y supervisión, según un informe de Boston Consulting Group (BCG).

Estas conclusiones se recogen en el estudio 'What Happens When AI Stops Asking Permission?', elaborado por la consultora estratégica BCG, que ha subrayado la "urgencia" de replantear los enfoques de gestión del riesgo y de la calidad ante la irrupción de los agentes autónomos de IA. "La IA agencial redefine la gestión del riesgo y la calidad de los sistemas de inteligencia artificial", ha afirmado la managing director & partner de BCG, responsable global de IA y coautora del estudio, Anne Kleppe.

Kleppe ha señalado que "los agentes autónomos amplían de forma significativa las capacidades de las organizaciones, pero pueden desviarse de los resultados empresariales previstos". En este sentido, ha apuntado que "el principal desafío es mantenerlos alineados con la estrategia y los valores corporativos sin frenar su rapidez y autonomía".

Según la base de datos 'AI Incidents Database', los incidentes relacionados con la inteligencia artificial han aumentado un 21% entre 2024 y 2025, lo que confirma que los riesgos asociados a estos sistemas ya forman parte de la realidad operativa de las organizaciones y se traducen en exposiciones financieras, regulatorias y reputacionales relevantes.

BCG ha indicado que la adopción de agentes de IA está "modificando la naturaleza del riesgo operativo en múltiples industrias", en un contexto en el que la limitada supervisión humana directa con la que operan muchos de estos sistemas permite que las desviaciones de comportamiento escalen con rapidez, tensionando los modelos tradicionales de control y supervisión.

En ámbitos donde las decisiones inciden de forma directa en personas, clientes o cadenas de suministro, la lógica de optimización de estos sistemas ha incorporado nuevas tipologías de riesgo con potencial para generar resultados no deseados.

Entre otros ejemplos, BCG ha citado tensiones en la atención sanitaria, donde "la eficiencia puede desplazar la atención a los casos más críticos"; fricciones en la gestión bancaria derivadas de la dificultad para manejar excepciones complejas; o desajustes en procesos industriales causados por la falta de alineación entre agentes con objetivos distintos y no alineados, que dan lugar a fallos emergentes vinculados a dinámicas estructurales de la propia tecnología.

LOS AGENTES DE IA TOMAN DECISIONES AUTÓNOMAS EN EL 10% DE LAS EMPRESAS
Un informe reciente de BCG y MIT Sloan Management Review ha mostrado que, aunque solo el 10% de las empresas permiten actualmente que los agentes de IA tomen decisiones de forma autónoma, esta proporción podría elevarse hasta el 35% en los próximos tres años. En paralelo, el 69% de los ejecutivos ha coincidido en que la IA agencial requiere modelos de gestión fundamentalmente distintos.

En este contexto, BCG ha subrayado que la gestión del riesgo en la IA agencial debe comenzar antes de su despliegue. La firma ha remarcado que la adopción de agentes autónomos no resulta necesaria en todos los casos y que, en determinadas situaciones, los beneficios pueden alcanzarse mediante otras soluciones de inteligencia artificial con perfiles de riesgo más controlables.

El informe ha planteado un marco estructurado para cuando el uso de agentes está justificado, y así apoyar a responsables de riesgos, tecnología, operaciones y otros líderes ejecutivos en la gestión de estos sistemas. Entre las recomendaciones de este marco, BCG ha incluido "crear una taxonomía de riesgos específica para los agentes, identificando y mapeando los riesgos técnicos, operativos y relacionados con los usuarios".

Asimismo, el documento ha abogado por "simular condiciones reales antes de la implementación", mediante entornos de prueba que reproduzcan la complejidad del mundo real y permitan "detectar de forma temprana posibles modos de fallo". Igualmente, ha planteado la necesidad de "implementar la supervisión del comportamiento en tiempo real, desplazando el foco desde la revisión de la lógica interna hacia el seguimiento continuo del rendimiento y del comportamiento de los agentes".

Otra línea de actuación pasa por "diseñar protocolos de resiliencia y escala que aseguren que los sistemas respondan de forma segura ante fallos, con supervisión humana por capas y procesos que garanticen la continuidad del negocio". "La cuestión va más allá de la propia IA ya que afecta directamente a la continuidad del negocio", ha afirmado el managing director & partner de BCG, responsable de ética de IA y coautor del informe, Steven Mills.

Mills ha defendido que "los agentes de IA deben desplegarse de forma coherente con el apetito de riesgo de cada organización, incorporando controles desde la fase de diseño". "Solo así es posible capturar todo el valor de estos sistemas y a la par gestionar los nuevos tipos de riesgo que introducen", ha añadido.

Casi 1 de cada 4 personas ha mantenido una relación sentimental en el trabajo

El trabajo ocupa una parte central de la vida, de ahí la importancia que adquiere ese espacio compartido con otras personas y las relaciones que se establecen en él. Tanto es así que, según los últimos datos de la encuesta de InfoJobs sobre Relaciones personales en el entorno laboral, 6 de cada 10 españoles (63%) perciben su relación con los compañeros como muy positiva, contabilizando una valoración media de 6,9 sobre 10. Las relaciones profesionales no solo favorecen la colaboración y el buen clima, sino que también propician lazos personales y sentimentales, difuminando cada vez más la frontera entre lo laboral y lo privado.

HIP 2026 pone a Madrid en el foco mundial de la hostelería y deja un impacto económico de más de 102 millones

La hostelería tiene desde el próximo lunes hasta el miércoles, 18 de febrero, una cita en Madrid. HIP 2026, la mayor feria en Europa de soluciones para el ámbito HORECA, abrirá sus puertas el 16 de febrero en IFEMA Madrid para recibir a más de 60.000 empresarios, directivos y profesionales de la industria que descubrirán las estrategias y herramientas con las que mejorar la competitividad de sus empresas. Con ello, el encuentro posicionará la ciudad como capital mundial de la innovación hostelera y dejará un impacto económico de más de 102 millones de euros. 

Bad Bunny lleva la unidad global y el orgullo latino al escenario del halftime de la Super Bowl vestido por Zara

Recién salido de hacer historia en la 68ª edición de los premios GRAMMY®, donde “DeBÍ TiRAR MáS FOToS” se convirtió en el primer álbum íntegramente en español en ganar el premio a Álbum del Año y el primer trabajo en recibir este galardón tanto en los GRAMMYs como en los Latin GRAMMY Awards®, el fenómeno global Bad Bunny continuó una racha sin precedentes de hitos históricos con una actuación legendaria en el mayor escenario del mundo durante el Apple Music Super Bowl LX Halftime Show.