"La carrera por regular la IA: Iniciativas globales de legislación de IA y la importancia de los marcos de gobernanza", por Paula Ortiz

En la esfera expansiva de la Inteligencia Artificial, las discusiones tienden a orbitar alrededor de una cuestión nuclear: la necesidad de equilibrar la innovación tecnológica con una gobernanza responsable y ética. Los desafíos que emergen de la IA, ya sean relacionados con los sesgos, la desinformación o la privacidad, depende de un desarrollo y un uso seguro y transparente a través de marcos de gobernanza, la explicabilidad y la transparencia.

En este escenario cambiante donde, como veremos, las normativas están aún cristalizando, es crucial para las empresas adelantarse a los riesgos a través de estos marcos de gobernanza, desde el desarrollo hasta su uso por parte de los trabajadores, incluyendo cuestiones como la explicabilidad (proporcionar explicaciones comprensibles y justificadas sobre la toma de decisiones de la IA) y la transparencia (información sobre los algoritmos utilizados, datos de entrenamiento, diseño y las metodologías) a través de model cards. A lo largo de los próximos artículos cubriremos todos estos aspectos, con la finalidad de tener una foto del panorama regulatorio y de conocer los aspectos clave en los marcos de gobernanza que puedan servir a las empresas para gestionar los riesgos, el cumplimiento legal y diferenciarse en el mercado. En este primer artículo arrojamos un poco de luz sobre el laberinto de la regulación de la IA a nivel global y europeo, y los principales aspectos de la propuesta de Reglamento de Inteligencia Artificial.

Diferentes marcos para un mismo objetivo: principios globales para la IA

La regulación de la inteligencia artificial a nivel mundial está cobrando una importancia cada vez mayor. Actualmente existen más de 1600 iniciativas legislativas que reflejan una rica diversidad de enfoques y filosofías. En Europa, la propuesta de Reglamento de IA representa un enfoque humanista con una ley muy detallada que categoriza los usos de IA según su nivel de riesgo. Contrastando con la postura europea, en Estados Unidos la Administración Biden ha adoptado una estrategia más laissez-faire a través de una Orden Ejecutiva, que prioriza la innovación y el desarrollo económico. Esta orden busca promover la IA como un motor de crecimiento económico y liderazgo tecnológico, enfatizando menos en la regulación detallada y más en el fomento de un entorno favorable para la investigación y el desarrollo de la IA. 

A nivel global, existen diversos marcos que abogan por principios universales y la necesidad de una visión compartida de la IA entre naciones. La OCDE adoptó ya en 2019 unos principios que representan un esfuerzo por establecer un conjunto de directrices internacionales para el desarrollo responsable de la IA. Se centran en aspectos como la transparencia, la equidad y el respeto a los derechos humanos. Estos principios son significativos por servir de base para muchas regulaciones nacionales, proporcionando un marco ético común en un campo que a menudo carece de fronteras claras.

Además, iniciativas como los Principios de la IA del G7, el Acuerdo de Bletchley de Reino Unido o la AI Advisory Board de la ONU también juegan un papel vital en la conformación del paisaje regulatorio de la IA. El proceso de Hiroshima del G7 se enfoca en fomentar la confianza y la seguridad en la IA, reconociendo la importancia de la cooperación internacional en este campo. En Reino Unido, se ha promovido la firma del Acuerdo de Bletchley, firmado por varios países entre los que se encuentra España y que también aboga por un enfoque ético y colaborativo en el desarrollo de la IA. Por otro lado, la ONU presentó a finales de octubre la AI Advisory Board que busca proporcionar una perspectiva global en la gobernanza de la IA, reconociendo la importancia de un enfoque inclusivo y diverso que tenga en cuenta las diferentes realidades y necesidades de los países de todo el mundo.

El efecto Bruselas: La propuesta de Reglamento Europeo de lnteligencia Artificial

En la carrera por regular la inteligencia artificial, Europa aspira a ser pionera en establecer un marco normativo integral para la IA, esperando que sus principios y regulaciones, al igual que ocurrió con el RGPD, ejerzan una influencia global conocida como el efecto Bruselas. Actualmente, está en la etapa final de adoptar la Propuesta de Reglamento de IA, lanzada por la Comisión Europea en 2021, una iniciativa prioritaria bajo la actual Presidencia española del Consejo. Sin embargo, la velocidad de crucero de esta propuesta se ha visto desafiada recientemente debido a las divergencias en los enfoques respecto a los modelos fundacionales de IA.

Este Reglamento adopta un enfoque novedoso basado en el riesgo de los usos, en lugar de enfocarse en tecnologías específicas. Este marco clasifica las tecnologías de IA según el nivel de riesgo que presentan para la salud, la seguridad o los derechos fundamentales, dividiéndolas en categorías: inaceptable, alto, moderado y limitado.

Las prácticas clasificadas como riesgo inaceptable están prohibidas. Estas incluyen, pero no se limitan a, sistemas de IA que emplean técnicas subliminales o manipuladoras para alterar el comportamiento de una persona de manera que pueda resultar perjudicial, aquellos que explotan las vulnerabilidades de determinados individuos o grupos, los sistemas social scoring o los sistemas de identificación biométrica remota. Estas actividades solo están permitidas bajo autorización legal o judicial

Por otro lado, los sistemas de IA de alto riesgo están permitidos, pero sujetos a una serie de obligaciones rigurosas. Esta clasificación incluye por ejemplo los sistemas de recomendación para usuarios y sistemas de IA diseñados para influir en elecciones. Existe una ambigüedad en la metodología para determinar qué sistemas específicos deben ser clasificados como de alto riesgo, lo que ha supuesto un punto de inflexión en la aprobación del texto. Una de las cuestiones controvertidas es que la actual versión del texto deja a los desarrolladores de IA la responsabilidad de declarar si su uso encaja en los parámetros o definiciones de alto riesgo o no. 

Los sistemas de IA de riesgo moderado están sujetos a un nivel más bajo de obligaciones, centradas principalmente en requisitos de transparencia para permitir a los usuarios tomar decisiones informadas. 

La Unión Europea está en una etapa decisiva de su proceso legislativo para regular la IA, enfrentándose a desafíos significativos debido a las diferencias en la interpretación entre el Parlamento Europeo, que aboga por regulaciones más estrictas y explícitas para los modelos fundacionales, y el Consejo, presionado por países como Italia, Francia y Alemania que prefieren un enfoque basado en la autorregulación. Para tratar de salvar esta divergencia la Comisión Europea ha propuesto un enfoque escalonado, que impone obligaciones generales a todos los modelos de IA y obligaciones adicionales para aquellos sistemas con riesgos sistémicos. A pesar de los avances, la complejidad y la diversidad de opiniones plantean desafíos significativos para la aprobación del Reglamento y no perder el impulso y el terreno ganado respecto a otras jurisdicciones. 

España: Entorno de pruebas para la IA 

A nivel nacional, España ha publicado el Sandbox regulatorio de IA, una iniciativa pionera que busca crear un entorno de pruebas regulado para innovaciones en IA. Este sandbox permite a las empresas probar sus soluciones de IA en un entorno controlado, bajo supervisión, fomentando la innovación a la vez que se asegura el cumplimiento de estándares éticos y legales. La participación de proveedores y usuarios en este entorno controlado de pruebas es voluntaria y con libre retirada. Para involucrarse, las empresas deben estar atentas a la publicación oficial de la convocatoria, que detalla los requisitos específicos y los criterios de elegibilidad. Una vez abierta, las empresas interesadas deberán presentar una solicitud formal, detallando su proyecto de IA y cómo planean abordar tanto los aspectos técnicos como los éticos y legales. El proceso está diseñado para ser inclusivo y accesible, animando a una amplia gama de participantes a experimentar con soluciones de IA de forma segura y conforme a la ley. 

En medio de este entramado de normativas globales y el estado fluctuante del Reglamento de IA de la UE, además de un buen conjunto de normas ya aplicables, como el Reglamento General de Protección de Datos, o la Ley de Propiedad intelectual, emerge la invitación para las empresas de actuar con anticipación, estableciendo marcos de gobernanza robustos y bien definidos. Este camino proactivo no solo las prepara para cumplir con futuras regulaciones, sino que también las posiciona como líderes en la adopción ética y responsable de la IA. En el próximo artículo, abordaremos las cuestiones a tener en cuenta para el desarrollo de esos marcos de cumplimiento y gobernanza.



Paula Ortiz, abogada y asesora ejecutiva. Regulación digital & public policy.

Anterior
Anterior

'Navegando por el landscape de la Publicidad Digital: reflexiones sobre la regulación y estrategia', por Brice Février

Siguiente
Siguiente

'Ratios de valoración de agencias de publicidad y servicios de marketing', por Daniel Casal