'Gobernanza en Inteligencia Artificial: la importancia de la transparencia y la explicabilidad', por Paula Ortiz

Durante el mes diciembre, se ha cubierto con entusiasmo la noticia de la aprobación de la que sería la primera Ley de Inteligencia Artificial del mundo. Sin embargo, esto necesita ser matizado. En primer lugar, porque, aunque sería la primera ley de un continente, ya existen otras normas sobre IA, como puede verse en este tracker de normativas de IA a nivel global de Runaway. 

En segundo lugar, aclaremos que lo que lo que tenemos en la actualidad es un acuerdo, que supone un gran logro, ya que implica un consenso sobre un tema tan complejo y poliédrico como es la Inteligencia Artificial. Sin embargo, no es una legislación definitiva y ratificada. Esta cuestión es crucial, especialmente por las reservas de países clave como Alemania, Francia e Italia, que han planteado serias dudas sobre aspectos críticos de esta regulación, en particular los modelos de IA de propósito general y fundacionales y la desventaja que su regulación podría suponer para las empresas europeas. Esta oposición podría poner en jaque los planes de ratificación a inicios de 2024. Si se ratifica por los Estados miembros finalmente, comenzaría a ser de aplicación de manera escalonada hasta 2026. 

A la espera del texto definitivo, podemos conocer las novedades gracias a los documentos que han publicado las diferentes instituciones europeas, como por ejemplo las Preguntas Frecuentes sobre IA que ha publicado la Comisión europea con las categorías de riesgos, los usos prohibidos o las obligaciones de los sistemas de alto riesgo (como inscribirse en una base de datos europea).

Mientras existen orientaciones que incluyen marcos con principios e implican las prácticas que las empresas deben llevar a cabo para implantar un programa de gobernanza de IA. En este artículo abordamos qué supone la gobernanza de la Inteligencia Artificial para las empresas y dos de sus principios, la transparencia y la explicabilidad. A lo largo de este ciclo de artículos cubriremos todos los principios y cuestiones a tener en cuenta. 

Un marco comprensivo de gobernanza para las empresas

La gobernanza de la IA implica la regulación del uso de esta tecnología en las organizaciones y comprende la implementación de prácticas, políticas y procedimientos para supervisar su aplicación. Esta es esencial para equilibrar los intereses de las diferentes partes implicadas y su objetivo es asegurar que la IA se alinee con los objetivos organizacionales y se emplee de forma ética, responsable y conforme a la legislación vigente. 

El informe "A Guide to AI Governance for Business Leaders”, de Boston Consulting Group destaca la creciente relevancia de una gobernanza en IA. Propone implementar programas de IA responsable (RAI), iniciándolo en niveles ejecutivos y extendiéndose a lo largo de la organización. Sugiere formar un comité de líderes senior para supervisar este programa de IA responsable, enfocándose inicialmente en establecer principios, políticas y límites para el uso de la IA. Además, se recomienda integrar este programa con las estructuras de gobernanza corporativa existentes, como los comités de riesgos, para asegurar un manejo claro de los desafíos emergentes. También aconseja desarrollar un marco para identificar aplicaciones de IA de alto riesgo y monitorizar litigios relevantes, anticipando posibles complicaciones legales en áreas en evolución, como el impacto de la IA generative en los derechos de propiedad intelectual.

De forma más amplia, en un enfoque de gobernanza basado en principios, se consideran aspectos clave como transparencia, explicabilidad, responsabilidad y rendición de cuentas (accountability), seguridad, justicia y equidad, privacidad y eliminación de sesgos. Nos centraremos en este artículo en la transparencia y la explicabilidad.

Transparencia y explicabilidad en la Inteligencia Artificial

Dentro del marco de gobernanza de la IA, la transparencia se erige como un pilar fundamental. Esta transparencia permite a los usuarios comprender cómo y por qué las decisiones son tomadas por algoritmos, algo fundamental en un mundo cada vez más influenciado por la IA. 

La transparencia en la IA se presenta en dos formas: la primera, relacionada con el Reglamento General de Protección de Datos, y exige claridad y accesibilidad en la información proporcionada al usuario respecto al tratamiento y uso de sus datos personales. La segunda se enfoca en la explicabilidad de los sistemas de IA, abarcando desde su diseño hasta su ciclo de vida completo. La Agencia Española de Protección de Datos ha publicado unas orientaciones sobre la Transparencia en la IA. Para la AEPD, el Reglamento de Inteligencia Artificial, establece un concepto de transparencia que difiere del término establecido en el RGPD, cuyo ámbito material son los tratamientos de datos personales. La transparencia en el marco de ambos reglamentos implica a distintos actores, distinta información y diferentes destinatarios. La transparencia en términos del Reglamento de IA es la información que proveedores de sistemas de IA destinan a los usuarios. Cuando los sistemas de IA incluyen (o son medios) de tratamiento de datos, la transparencia es una obligación impuesta a los responsables del tratamiento para advertir a los interesados de su impacto, permitir el ejercicio de sus derechos y cumplir con el principio de responsabilidad proactiva.

Íntimamente ligada a la transparencia está el concepto de explicabilidad. Mientras la transparencia se enfoca en revelar el funcionamiento interno, la explicabilidad implica ofrecer explicaciones claras y coherentes sobre el funcionamiento de un sistema de IA y las decisiones concretas que toma. Se centra en justificar las predicciones específicas de un sistema de IA y es crucial para que las decisiones tomadas esta tecnología sean comprensibles. El Information Commissioner Office, autoridad de protección de datos de Reino Unido ha publicado una extensa Guía sobre la explicabilidad de las decisiones tomadas con Inteligencia Artificial. Por su parte, el Supervisor Europeo de Protección de Datos, en su TechDispatch 2/2023 aborda la explicabilidad de la IA abordando los riesgos de la opacidad en la información y distinguiendo entre los enfoques de "caja blanca" y "caja negra" en IA. Mientras que los sistemas de caja blanca son transparentes, los de caja negra pueden ofrecer información a posteriori, sin explicar completamente su procesos internos, lo que es común en sistemas avanzados como las redes neuronales profundas. 

El EDPS se refiere también al concepto de interpretabilidad como el grado en que un modelo de IA de caja negra es comprensible para los seres humanos. Los modelos poco interpretables son opacos, lo que significa que rara vez se comprende cómo se llega a una clasificación o decisión específica a partir de las entradas.

El EDPS resalta que un sistema de IA transparente facilita la rendición de cuentas y alineación con estándares éticos y legales. Además, aborda la interpretabilidad, que se refiere al grado en que se puede comprender un modelo o decisión de IA. 

Referencia a las Tarjetas Modelo

Las tarjetas modelo son herramientas que facilitan la transparencia y explicabilidad. Desempeñan un papel clave en explicar la información del modelo de aprendizaje automático. Funcionan como etiquetas nutricionales, detallando aspectos como el diseño y los datos de entrenamiento, procedimientos de evaluación y otra información relevante. Estas tarjetas ofrecen beneficios a los diferentes actores implicados, desde profesionales de IA hasta expertos en privacidad ya que facilitan la comprensión y adopción de esta tecnología. Sin embargo, presentan el desafío de ser comprensibles para no expertos mientras ofrecen rigurosidad para los especialistas.

Las tarjetas modelo incluyen la siguiente información: 

  1. Descripción del modelo: Una visión general del modelo, incluyendo su finalidad, cómo funciona y para qué situaciones o tareas está diseñado.

  2. Datos de entrenamiento y evaluación: Información sobre los conjuntos de datos utilizados para entrenar y evaluar el modelo, incluyendo su origen, composición y cualquier sesgo potencial.

  3. Rendimiento y validación: Detalles sobre el rendimiento del modelo, incluyendo métricas de precisión y validación, y bajo qué condiciones o contextos el modelo es más efectivo o menos fiable.

  4. Limitaciones y riesgos: Limitaciones conocidas del modelo y los riesgos potenciales asociados con su implementación, incluyendo errores posibles y escenarios de mal uso.

  5. Aspectos éticos y de privacidad: Información sobre cómo se manejan la ética y la privacidad en el diseño y la implementación del modelo, incluyendo la gestión de datos personales y sensibles.

  6. Transparencia y explicabilidad: Detalles sobre la transparencia del modelo, incluyendo si sus decisiones y procesos internos son explicables y comprensibles para los usuarios finales.

  7. Responsabilidad y gobernanza: Información sobre quién es responsable del modelo, cómo se supervisa y se actualiza, y las políticas de gobernanza relacionadas.

Las empresas que desarrollan inteligencias artificiales avanzadas están publicando sus tarjetas modelo junto con documentos de investigación que incluyen explicaciones técnicas detalladas sobre cómo funcionan. Estas tarjetas resumen la información de una manera fácil de entender y accesible para todos y se utilizan como herramienta de transparencia. Meta y Microsoft, por ejemplo, con su modelo Llama 2, destacan en su tarjeta aspectos como los datos de entrenamiento, los usos previstos y el impacto ambiental del modelo. OpenAI también incluye secciones sobre el rendimiento y las limitaciones, como posibles sesgos, además de un enlace para dejar comentarios y hacer preguntas.

Si bien las tarjetas modelo buscan ser fácilmente comprensibles al resumir los puntos clave de un modelo de IA, dada la complejidad inherente a la inteligencia artificial, simplificar estos sistemas para un público amplio representa un desafío importante. Además, otra cuestión relevante es la información sobre los datos de entrenamiento (que pueden influir en los sesgos), y que a menudo se presentan de manera demasiado simplificada al mencionar que provienen de fuentes públicas. Esto podría incluir datos personales sensibles u obtenidos de manera no autorizada, cuestión que no es fácilmente distinguible para un público en general. No obstante, a pesar de los retos, las tarjetas modelo ofrecen en beneficios al fomentar la transparencia, permitiendo a las personas conocer mejor cómo funcionan estos sistemas y sus limitaciones.

Como vemos, la transparencia y la explicabilidad en la IA son pilares que sostienen el puente entre la tecnología y la ética, siendo la punta del iceberg de un marco de gobernanza integral, cuestión en la que tienen que empezar a formarse e implicarse las empresas que utilicen estas herramientas. En los próximos artículos, seguiremos desentrañando estos principios, ahondando en la gobernanza de la IA y descubriendo su potencial.

Paula Ortiz, abogada y asesora ejecutiva. Regulación digital & public policy.

Anterior
Anterior

'El alma de las marcas, una conexión entre la emoción y la razón', por Javier Vidal (Manifiesto)

Siguiente
Siguiente

'Medios en 2024: estrategias para una publicidad digital sostenible y rentable', por Magali Quentel-Reme