Deepfakes y PI: desafíos de esta innovadora tecnología

En la era digital, la inteligencia artificial ha dado paso a una tecnología fascinante y, a la vez, preocupante: los deepfakes. Estas creaciones sintéticas que combinan el aprendizaje profundo con la falsificación han revolucionado la forma en que percibimos la realidad y plantean desafíos inéditos para la protección de los derechos de imagen y la propiedad intelectual (PI). Sigue leyendo para entender más el conflicto entre deepfakes y PI y los problemas éticos y legales que pueden surgir.

Deepfakes y PI, nociones básicas para entender el problema

En marzo de 2023, Eliot Higgins, periodista y fundador del colectivo de investigación Bellingcat, publicó en Twitter una serie de imágenes obtenidas mediante una herramienta de IA generativa. En ellas, mostraba la secuencia del supuesto arresto de Donald Trump, expresidente de los Estados Unidos. Y aunque Higgins aclaró desde el principio que se trataba de imágenes “trucadas” con Midjourney –nombre de la aplicación– éstas se hicieron virales. Al punto que muchos usuarios de la red social las creyeron reales. Como veremos más adelante, ya esto plantea un conflicto entre deepfakes y PI, pero también entre aquellos y los derechos de imagen.

El término «deepfake» surge de la combinación de «deep learning» (aprendizaje profundo) y «fake» (falso). En concreto, un deepfake es el resultado de aplicar una técnica de inteligencia artificial apoyada en algoritmos avanzados de aprendizaje automático a fotografías, vídeos o audios existentes. El propósito es alterar o reemplazar digitalmente la imagen y la voz de una persona o de cambiar el contexto de una situación. Gracias a esta tecnología, cualquier individuo puede parecer estar involucrado en eventos que nunca ocurrieron. Esto da lugar a un escenario donde la realidad y la ficción pueden confundirse.

Los deepfakes son producto del empleo de aprendizaje profundo y las redes adversariales generales (GAN). En síntesis, esto consiste en el enfrentamiento entre una red generativa (G), que busca crear imágenes que la red discriminativa (D) no pueda distinguir de las reales. En el mismo momento, la red D intenta identificar cuándo una imagen proviene de los datos de entrenamiento o de la red generativa. Este proceso de competencia y mejora continua permite que los deepfakes sean cada vez más realistas y convincentes.

¿Cómo pueden detectarse los deepfakes?

Sin duda, la sofisticación de los deepfakes está planteando un desafío para su detección, pero existen técnicas que pueden ayudar a identificarlos. Tanto en videos como en imágenes, ciertas características pueden revelar la presencia de un deepfake:

  • Detalles en la piel. La textura de la piel en un deepfake puede parecer excesivamente lisa o arrugada, o el envejecimiento del rostro puede no coincidir con el del cabello.
  • Iluminación y sombras irregulares. En ocasiones, los deepfakes muestran sombras irregulares alrededor de los ojos o en otras áreas del rostro. O hasta una excesiva iluminación.
  • Errores en gafas. Si el video incluye a una persona con gafas, es posible que se observen errores de deslumbramiento en los cristales.
  • Detalles faciales poco realistas. Elementos como el vello facial o los lunares pueden presentar una apariencia poco natural.
  • Movimientos incoherentes. La fluidez de los movimientos faciales y alrededor de la boca puede parecer poco realista.

La combinación de estas características puede ayudar a los expertos y algoritmos a detectar deepfakes. No obstante, la tecnología detrás de la creación de deepfakes también evoluciona y se perfecciona constantemente. Tanto que podría generar piezas que no representen un conflicto aparente entre deepfakes y PI. Esto plantea la necesidad de una mejora continua en las técnicas de detección.

Deepfakes y PI, los desafíos de los derechos de imagen

Los derechos de imagen son un tema fundamental en la discusión sobre deepfakes y PI. Precisamente, porque tales derechos abarcan el control que una persona tiene sobre su propia imagen, identidad y voz en medios visuales y audiovisuales. El surgimiento de los deepfakes está planteando preocupaciones sobre la manipulación y el mal uso de la imagen de una persona sin su consentimiento. Sin duda, esto puede tener graves consecuencias para su reputación y privacidad.

Por lo visto, los deepfakes tienen la capacidad de engañar a la audiencia. Pueden hacer creer, por ejemplo, que una persona real está involucrada en situaciones falsas o comprometedoras. Acciones como esta derivan en difamaciónengaño manipulación de la opinión pública. Los deepfakes también han generado controversia en el ámbito político y social, ya que pueden ser utilizados para difundir información falsa o incitar a la discordia.

Para enfrentar estos desafíos, es crucial que las leyes y regulaciones en torno a la PI y los derechos de imagen se adapten al contexto de los deepfakes. Si bien muchos países ya cuentan con leyes que protegen los derechos de imagen, es necesario actualizarlas y ajustarlas para abordar específicamente la amenaza de los deepfakes. Estas normativas deben fijar responsabilidades claras para quienes crean y distribuyen contenido manipulado. Por supuesto, también deben determinar consecuencias legales para aquellos que atenten contra los derechos de imagen de terceros.

Desafíos legales en la relación entre deepfakes y PI

Más allá de las consideraciones tecnológicas, éticas y políticas involucradas en esta discusión, es necesario abordar los desafíos legales que surgen en la relación entre los deepfakes y la PI. Desde la perspectiva del derecho de autor, se plantean varias cuestiones que requieren una reflexión profunda.

La Organización Mundial de la Propiedad Intelectual (OMPI) ha iniciado discusiones sobre inteligencia artificial y propiedad intelectual. En este marco, invitó a considerar si el sistema de protección del derecho de autor debe abordar los deepfakes y si el mismo constituye un medio adecuado para regularlos. Además, se cuestiona si los deepfakes, al crearse a partir de datos sujetos al derecho de autor, deberían obtener protección de esta figura legal. Y, de ser así, quién sería el titular de esos derechos.

En efecto, los deepfakes pueden involucrar actos de reproducción, comunicación al público, puesta a disposición y transformación de obras protegidas por derechos de autor. Esto podría requerir la autorización del titular del derecho, a menos que el uso se ampare en algún límite o excepción legal. Sin embargo, en muchos casos, los deepfakes utilizan contenido protegido sin el permiso del autor original, lo que afecta los ingresos y el control del creador sobre su obra.

Asimismo, la posibilidad de que un deepfake pueda ser considerado una parodia de una obra original también surge como un aspecto a tener en cuenta. Para acogerse a esta excepción al derecho de autor, debería diferenciarse perceptiblemente de la obra original y tener un carácter humorístico o burlesco. Si un deepfake no cumple con estos criterios, podría violar los derechos morales y patrimoniales del autor original.

¿Derechos de autor para deepfakes?

Además, se plantea la cuestión de la titularidad de los derechos de autor sobre los deepfakes. Considerando que el proceso de creación de estas piezas involucra un software y algoritmos, y los humanos pueden tener una intervención mínima surgen preguntas lógicas: ¿Quién debería ser considerado el autor? ¿El creador del algoritmo, el usuario que ejecuta la aplicación o la persona cuya imagen y voz son utilizadas en el deepfake?

Otro punto importante a tener en cuenta es la protección de los derechos conexos. ¿Pueden considerarse las interpretaciones o ejecuciones realizadas en un deepfake como nuevas interpretaciones o ejecuciones sujetas a derechos conexos? ¿Quién sería el titular de esos derechos si se llegara a reconocer su existencia?

Una posible solución que se ha propuesto es otorgar derechos de autor a los deepfakes, siempre y cuando cumplan con los criterios de originalidad y creatividad necesarios para obtener protección. Aun así, esto podría plantear problemas, ya que la creación de deepfakes a menudo se basa en datos y contenido protegido por derechos de autor sin el consentimiento del titular.

Un tema complejo del que estamos pendientes

En ISERN estamos pendientes de temas como el que tratamos y que puedan afectar a nuestros clientes. Como agencia especializada en el registro y protección de marcas, patentes y creaciones acogidas a derechos de propiedad intelectual e industrial, nos corresponde prestarles atención. De surgir algún conflicto entre deepfakes y PI, somos capaces de actuar para hacer valer los derechos de quienes confían en nosotros. ¡Contáctanos!

Si tienes cualquier duda sobre Marcas, Diseños o Patentes, contacta con nosotros

Nombre*
Este campo es un campo de validación y debe quedar sin cambios.
Responsable: Isern Patentes y Marcas, S.L. Finalidad: dar respuesta a las consultas y enviar correos comerciales con información de nuestros servicios. Legitimación: consentimiento del interesado. Destinatarios: no se cederán datos a terceros, salvo obligación legal. Derechos: acceso, rectificación, limitación, supresión, oposición, portabilidad (siempre que sea posible) y a no ser objeto de decisiones individualizadas automatizadas. Más información.