PROGRAMMATIC SPAIN

View Original

'Creatividad publicitaria artificial. ChatGPT y otras herramientas de IA generativa vistas desde el derecho'

Fue por una foto de Oscar Wylde por la que se reconoció por primera vez, en 1884, la autoría y la originalidad de las fotografías, que por hacerse a través de máquinas y ser meras reproducciones de la realidad, hasta entonces no tenían la protección de derechos de autor. Esta cuestión acabó en los Tribunales de Estados Unidos, en los que se reconoció que algunas fotografías constituían “una forma en la que se da una expresión visible a las ideas en la mente del fotógrafo”.

Este mismo debate se genera a día de hoy con la Inteligencia Artificial generativa y la propiedad intelectual. Pero esta es una de las muchas cuestiones legales (y éticas) que se suscitan con el uso de la IA. Precisamente por la amplitud del tema y todas sus derivadas, acotaremos este texto a las implicaciones para el sector publicitario.

Como bien sabemos los lectores de Programmatic Spain, herramientas como ChatGPT ofrecen un mundo de posibilidades y tienen el potencial de impactar a todas las industrias, incluyendo la de publicidad. En el sector publicitario, las empresas tienen a su alcance multitud de opciones, entre las que se encuentra la creación de mensajes y creatividades, el contenido para redes sociales, la automatización de procesos, o estrategias de SEO entre muchos otros. Para muestra, Coca-Cola ha anunciado que usará OpenAI para sus campañas de marketing. También, con el entrenamiento necesario, se puede mejorar la experiencia de usuario, optimizando la personalización del contenido teniendo en cuenta sus intereses. Y esto es sólo el comienzo. GPT4 sale esta semana y cuyas cifras son, si cabe, aún más abrumadoras, con 100 trillones de parámetros comparados con los 175.000 de GPT3, que potenciará de forma exponencial las posibilidades de esta tecnología. Esto, además, sin tener en cuenta el amplísimo y creciente catálogo de herramientas de IA para llevar a cabo todo tipo de actividades, como logos, vídeos, presentaciones, copywriting y un largo etcétera, tal y como podemos ver, por ejemplo, en la web Futurepedia o Aifindy.

Pero, como podemos imaginar, debemos prestar atención a los matices y “mirar la letra pequeña”. Cualquier persona que haya utilizado ChatGPT, además de quedar deslumbrado con su incuestionable y prometedora eficacia, si lo prueba en un área de su conocimiento, se habrá dado cuenta de que los textos (todavía) pueden ser imprecisos y con información errónea. Y es que, aunque la habilidad con los prompts es fundamental, la fuente de las que bebe esta IA es internet, sin capacidad (insisto, todavía) de filtrar si esa información proviene de un recurso fiable. Dependiendo de las fuentes y datos en base a las cuales se desarrolle o cree un contenido, al no estar contrastado, puede contener datos, medias verdades y sesgos en los contenidos y en la información para toma de decisiones. Esto pone de manifiesto la importante labor de las personas en el entrenamiento, revisión y la adaptación (human-in-the-loop). Evidentemente, estamos todavía en los albores de esta tecnología que, con el entrenamiento adecuado, será capaz de ahorrar mucho tiempo y sustituir la labor humana en muy diversas actividades, dejándonos (con suerte) centrarnos en las cuestiones que pueden aportar un mayor valor.

Pero, ¿Hay normas para regular la IA?. Actualmente, la Inteligencia Artificial se ve afectada por un conjunto de normas, además de marcos éticos. La primera de ellas, cuya aprobación se prevé para el primer trimestre de 2023, la propuesta de Ley de Inteligencia Artificial (Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial), que no establece un marco jurídico exhaustivo y cerrado, si no un marco de mínimos para evitar perjuicios derivados de determinados usos y que viene a completar otras normativas como la Ley de Servicios Digitales, el Reglamento General de Protección de Datos y otras que también impactan en esta actividad. Además, el Parlamento Europeo ha publicado diversas resoluciones sobre el uso de la IA en el ámbito penal, educativo, cultural y audiovisual.

Teniendo en cuenta el estado del arte, y con el propósito de contribuir a un mayor y mejor uso de las tecnologías con el mínimo riesgo, recojo a continuación una serie de cuestiones legales para reflexionar y tener en cuenta en el buen uso de las herramientas de IA en el entorno publicitario:

Transparencia. Aunque la interacción entre humanos y máquinas y las cuestiones éticas asociadas no son nuevas, el uso cada vez más extendido de tecnologías de IA pone de relieve una de las cuestiones más candentes, la transparencia. Esto a su vez tendría dos vertientes: La primera, transparencia cuando estas tecnologías interactúan con las personas. El académico Tim Wu, profesor de la Facultad de Derecho de la Universidad de Columbia, se refería a esta cuestión como la Ley Blade Runner, de manera que cualquier programa que oculte su verdadera identidad para hacerse pasar por humano sería ilegal, teniendo la obligación de declarar que es un robot. Al respecto, la propuesta de Ley de Inteligencia Artificial recoge la obligación de transparencia cuando herramientas de IA se relacionen con humanos para que estos sean conscientes de su presencia. En ese sentido, si estas IAs toman decisiones sobre las personas, entrarán en juego tanto el Reglamento General de Protección de Datos como la Ley de Servicios Digitales, que obligan a informar sobre el tratamiento de datos y sobre cuáles son los parámetros por los que un algoritmo se comporta de una forma u otra, si las decisiones las toma una inteligencia artificial o si hay una persona detrás.

La segunda, está relacionada con la transparencia respecto al hecho de que la creación de contenidos esté creada por una IA generativa. Esta creciente situación también ha dado lugar al desarrollo de diferentes alternativas para detectar que la creación se ha llevado a cabo por ChatGPT, por ejemplo, la inclusión de marcas de agua invisibles o la aparición de herramientas como DetectGPT, para detectar trabajos académicos escritos por ChatGPT. Al respecto, me comenta el experto en el tema Xavi Garrido, que los prompts también juegan un papel fundamental para sortear la capacidad de detección de estas herramientas. Pero esta cuestión está además muy relacionada con el siguiente punto.

Propiedad intelectual. Las herramientas de inteligencia artificial son cada vez más utilizadas para crear textos y generar imágenes, lo que puede incluir también creatividades publicitarias. Estas creaciones son fruto de la actividad de una máquina y además pueden estar basadas en contenidos previamente publicados en Internet, lo que plantea interrogantes sobre la originalidad y la autoría de las obras resultantes. Esto supondría, por ejemplo, que la autoría de esas obras podría corresponder a una IA y por tanto no ser objeto de protección, que hasta ahora la norma sólo otorga a las creaciones humanas. Y, al no estar protegidas, no se podría evitar su uso por terceros (pensemos en logos, campañas, etc). En Estados Unidos, la Oficina de Copyright ya se ha pronunciado al respecto diciendo que no permitirá el registro de imágenes generadas por IA. Algunos medios como WSJ o CNN han alertado que el uso de sus contenidos infringe sus términos y condiciones y lo mismo sucede con Gettty Images y Stable Difussion. También hay ya pronunciamientos de la Oficina de Derechos de Autor de los Estados Unidos sobre la imágenes generadas por Midjourney, estableciendo que no son producto de la autoría humana. No obstante, pueden darse muy diferentes escenarios, como el caso en el que la IA se utilice como mero instrumento habiendo una aportación creativa por parte del autor, por lo que habrá que estar al caso por caso ya que es un tema con muchas aristas.

Normativa publicitaria. Si utilizamos ChatGPT para generar copys o creatividades, además tendremos que tener en cuenta también la normativa publicitaria, ya que estas creaciones pueden contener imprecisiones en la presentación de productos o servicios, incluyendo afirmaciones falsas, engañosas o exageradas, lo que podría incurrir en publicidad ilícita por engañosa (aquella que puede confundir o engañar al consumidor sobre las características, beneficios o calidad de un producto o servicio), publicidad desleal o publicidad agresiva entre otras situaciones. Así que, ojo con la tentación de sustituir a ChatGPT por la opinión de un abogado.

Protección de Datos. Sin entrar en demasiado detalle sobre este tema, que requeriría un artículo completo, si se recopilan, utilizan y almacenan datos personales, se crean perfiles, se toman decisiones sobre las personas, habrá que tener en cuenta el Reglamento General de Protección de Datos. Esto va a exigir mucha creatividad también a los abogados en muy diversos escenarios como, por ejemplo, cómo obtener el consentimiento para tratar datos para el entrenamiento de estas IAs.

Rendición de cuentas y responsabilidad. Las empresas que utilicen estas herramientas deben implantar mecanismos que garanticen la responsabilidad y la rendición de cuentas de los sistemas y de sus resultados. Al respecto, en Bruselas también se está negociando en la actualidad una Propuesta de Directiva sobre responsabilidad civil en materia de IA para cubrir los casos de mal uso y facilitar las reclamaciones debido a la opacidad o complejidad de estos sistemas.

Como conclusión, es ilusionante ver la capacidad de estas tecnologías y es indudable el beneficio que tanto ChatGPT, como de todo el conjunto de herramientas de IA nos ofrecen. Son un instrumento prometedor para ayudar a las personas, ahorrando tiempo y esfuerzo. Y es sólo el comienzo. Tal y como se planteaba Ortega y Gasset hace más de medio siglo en su Obra Meditación de la técnica “sin la técnica, el hombre no existiría ni habría existido nunca”. Este filosofo ya analizaba el papel de la técnica y las novedades de la ciencia contemporánea para la sociedad y se preguntaba a dónde va a parar ese esfuerzo ahorrado con la técnica y que queda vacante. Quiero pensar que es para hacernos mejores, pero será cada uno quien conteste a esa pregunta. No obstante, habrá que aprovecharlo de la forma equilibrada ante los retos jurídicos y éticos.

Paula Ortiz López