Der Stanislavski-Algorithmus: Künstliche Intelligenz, Studien, synthetische Schauspieler und Darsteller
En esta Tribuna, Ángela Estévez Egusquiza, abogada de Propiedad Intelectual en Bardají & Honrado, analiza desde una perspectiva jurídica la cuestión del uso de la inteligencia artificial para reemplazar el trabajo actoral por parte de los estudios.
Hace unos meses, Pedro Pascal revelaba que, en los últimos episodios de Der Mandalorianer, ya no es él quien se encuentra bajo la armadura del mandaloriano. Mientras dobles de cuerpo ocupan sus costuras, el chileno más querido de Hollywood ahora se limita a doblar al personaje. En los tiempos tecnológicos que corren, parece verosímil que dentro de poco Pascal ni siquiera tenga que acudir al estudio de doblaje. El archivo de voz e imagen del actor, generado a lo largo de tres temporadas, bastaría para reproducir cualquier eventual diálogo o escena. El avance de la Inteligencia Artificial generativa superpone un nuevo horizonte al debate. ¿Estamos ante un nuevo paradigma en la profesión?
El propio gremio actoral comparte esta inquietud, que ya comienza a trascender el plano de la simple discusión. El pasado martes 5 de diciembre, el sindicato de actores de Estados Unidos SAG-AFTRA ratificaba el acuerdo alcanzado con la alianza de productores de Hollywood, con el objetivo de actualizar los términos de su convenio sectorial a la realidad de la industria audiovisual actual. Entre los puntos más significativos, se encontraba la definición de ciertos límites a la utilización de herramientas de IA con el fin de afectar, modificar o sustituir una interpretación real ante las cámaras. El acuerdo establece distintas categorías a la hora de utilizar este tipo de herramientas: la creación de réplicas digitales de actores naturales, bajo el marco de una relación laboral o fuera de ella (las “independientemente creadas”); la alteración digital de una interpretación existente, necesariamente bajo el marco de una relación laboral, y el uso de IA generativa para crear nuevos “intérpretes sintéticos”. En el caso de las réplicas y alteraciones digitales, se contempla un régimen particular para los extras o background actors.
Replicando un intérprete con IA
A grandes rasgos, cuando tenga lugar la réplica o alteración de un intérprete natural, el primero de los elementos clave reside en el consentimiento, que debe ser prestado de forma clara y notoria, e ir acompañado de una descripción razonablemente específica del uso que se pretende realizar de la imagen y sonido creados. Asimismo, el consentimiento continuaría vigente tras la muerte del actor, a menos que se especificara otra cosa. ¿Cuándo no sería necesario? En el marco de una relación laboral, cuando la imagen se destinara a la misma producción para la que el actor fue contratado, y siempre que la fotografía o la pista de sonido se mantuviera sustancialmente intacta, según lo guionizado, interpretado y/o grabado, o en el caso de requerir alteraciones técnicas en postproducción.
Cuando tenga lugar la réplica o alteración de un intérprete natural, el primero de los elementos clave reside en el consentimiento, que debe ser prestado de forma clara y notoria (…). El consentimiento continuaría vigente tras la muerte del actor.
El segundo de los elementos clave es el wirtschaftlich. Cuando exista relación laboral y el uso se destine a la misma producción objeto del contrato, no se requerirá remuneración adicional si la compensación ya pactada hubiera cubierto el trabajo realizado por la máquina. De lo contrario, habría que prorratear la remuneración por el número de días en los que se hubiera requerido la presencia efectiva del actor. En los supuestos de uso en producciones distintas a aquella objeto del contrato laboral o de réplicas “independientemente creadas”, habría que recurrir a negociación separada.
La cuestión de los intérpretes sintéticos
Resulta particular el caso de los “intérpretes sintéticos”: aquellos no reconocibles como un actor natural real. Las productoras reconocen la importancia de que la interpretación humana continúe presente en la industria y, en esa línea, se comprometen a negociar de buena fe con el sindicato en caso de que un actor natural fuera a ser reemplazado por un “intérprete sintético” en una producción. Sin embargo, también se precisa que la creación digital de personajes ficticios no es algo nuevo (el apartado del acuerdo no pretende aludir a esta práctica, que ya constituye un uso extendido en el oficio). Dicho esto, cuando rasgos físicos identificables de actores naturales se utilicen como prompt o instrucción para que una herramienta de IA generativa cree un “intérprete sintético” con sus idénticas características, las mismas normas sobre consentimiento y negociación separada resultarán de aplicación. Permanece la duda, ¿cómo van comprobarse las instrucciones utilizadas? ¿Qué ocurre si la IA incorpora estos rasgos autónomamente? Al fin y al cabo, uno de los retos que supone esta tecnología es precisamente la imposibilidad de identificar las fuentes a las que recurre para desarrollar su actividad creativa.
Cuando rasgos físicos identificables de actores naturales se utilicen como prompt o instrucción para que una herramienta de IA generativa cree un “intérprete sintético” con sus idénticas características, las mismas normas sobre consentimiento y negociación separada resultarán de aplicación.
Destacan otras cuestiones, como la limitación de eventuales reclamaciones sólo a daños económicos (evitando así la posible paralización del desarrollo o distribución comercial de las producciones), o la excepción al consentimiento relativa al derecho constitucional a la libertad de expresión (entendiéndose incluidos propósitos como el comentario, la crítica, la sátira o parodia, o la realización de docudramas y producciones históricas o biográficas).
Conscientes del hito que supone este acuerdo, su aplicación tendrá lugar a partir de los próximos meses, para todos aquellos contratos celebrados entre actores del sindicato y productoras pertenecientes a la alianza y para todas aquellas producciones realizadas por éstas que comiencen su fotografía principal a partir de la fecha inicial de aplicación.
Diferencias entre EE. UU. y Europa
Aunque analizar el acontecimiento resulta esclarecedor para entender la dirección tomada por Hollywood ante la nueva realidad tecnológica, el hecho de que la respuesta se articule en un acuerdo sectorial sólo se entiende en un sistema normativo como es el estadounidense. A diferencia de España y del resto de la Unión Europea, EE. UU. no reconoce la existencia del derecho moral del intérprete, ni de derechos remuneratorios destinados a compensar de forma proporcional la fijación y uso de las interpretaciones. En nuestro país, la Ley de Propiedad Intelectual, por un lado, contempla el derecho del intérprete a oponerse a toda deformación, modificación, mutilación o atentado sobre su actuación que lesione su prestigio o reputación, y, por otro, reconoce a su favor un derecho remuneratorio por la comunicación pública de grabaciones que contengan su interpretación, gestionado por la entidad AISGE.
En España, si la IA generativa fuera quien autónomamente generara dichas imágenes, nos encontraríamos de nuevo ante una laguna con respecto al sujeto responsable de la infracción.
Sin embargo, nuestra normativa no se encuentra del todo exenta de incertidumbres. Se entiende por intérprete a quien “represente, cante, lea, recite, interprete o ejecute en cualquier forma una obra”. Es decir, la norma presupone una acción física previa ante las cámaras (representación, lectura, canto…) para su posterior fijación en la grabación. Las herramientas que venimos discutiendo nos permitirían simular a un actor natural interpretando, sin haber mediado acción física previa. ¿Puede ser que, en estos casos, no nos ampare la normativa de Propiedad Intelectual? En cualquier caso, una acción como esta se vehicularía por la esfera de protección de los derechos fundamentales al honor, intimidad y propia imagen del actor. Pero, una vez más, si la IA generativa fuera quien autónomamente generara dichas imágenes, nos encontraríamos de nuevo ante una laguna con respecto al sujeto responsable de la infracción.
En la misma semana en la que el sindicato SAG-AFTRA ratificaba el acuerdo con los estudios estadounidenses, el Consejo de la Unión Europea llegó a un consenso provisional para la aprobación de la Ley de Inteligencia Artificial, con el objetivo de garantizar que los sistemas de IA comercializados y utilizados en el marco de la Unión Europea sean seguros y respeten los derechos fundamentales y los valores comunes de la Unión. A la espera del texto final, cuya aplicación plena en el territorio de la Unión tendrá lugar a partir de 2026, quedamos a la expectativa de ver si la norma consigue satisfacer las lagunas de responsabilidad que afloran con la superposición de IA y trabajo actoral.
Ángela Estévez Egusquiza
Abogada en Bardají&Honrado
Hat Ihnen dieser Artikel gefallen?
Abonnieren Sie unsere RSS-Feed und Sie werden nichts verpassen.