Deepfakes

Los deepfakes son vídeos o grabaciones donde la cara o la voz de una persona es manipulada y recreada mediante inteligencia artificial para crear vídeos o grabaciones falsas, con frecuencia muy verosímiles y difíciles de distinguir del contenido auténtico, como puede comprobarse en numerosos ejemplos en la red.

Tal y como ya hemos analizado previamente en este blog, los deepfakes presentan una serie de desafíos jurídicos nada despreciables: desde su detección y su uso por parte de compañías de servicios digitales; las implicaciones que tienen en relación con los derechos de imagen, al honor y a la intimidad personal y familiar; y hasta alcanza al orden e interés público, muy relacionadas con el uso de deepfakes como herramienta de manipulación política.

La tecnología deepfake no tiene por qué tener en sí misma unas implicaciones negativas, ya que tiene numerosas aplicaciones en la medicina, por ejemplo; así como herramienta creativa en las producciones cinematográficas u otros tipos de arte audiovisual, si bien estos usos tampoco están exentos de polémica y desafíos legales. La tecnología deepfake puede ser usada sin mayores complicaciones cuando esta sea inverosímil y no intente manipular al espectador confundiendo la realidad y la grabación manipulada; y que exista consentimiento o un uso legítimo de la propia imagen del o los involucrados en el contenido deepfake.

No obstante, son sus otros posibles usos los que preocupan en la Unión Europea, cuyo Parlamento ha publicado recientemente un estudio sobre la lucha contra los efectos nocivos de la tecnología deepfake. En este caso, la cámara comunitaria considera que existen tres grandes riesgos derivados de los deepfakes: (i) el daño psicológico a la población; (ii) el daño económico y (iii) el daño social. Otro factor a tener en cuenta es que, a diferencia de la mayoría de herramientas de manipulación, los deepfakes son muy difíciles de detectar, siendo las herramientas desarrolladas para identificarlos, cuanto menos, poco precisas.

Actualmente no existe ni a nivel nacional ni a nivel europeo ninguna regulación específica que regule el fenómeno de las deepfakes. En el caso de España, por ejemplo, se pueden cometer delitos contra la integridad moral de una persona, o delitos de injurias o calumnias, a través del uso de deepfakes; pero no existe ninguna norma sobre la tecnología en sí misma o sobre su uso.

No obstante, puede que eso cambie muy pronto, ya que, en el mismo informe del Parlamento Europeo, se mencionan posibles iniciativas que pueden tomarse por parte de las instituciones comunitarias para afrontar estos problemas: entre ellas implantación del nuevo Reglamento Europeo de Inteligencia Artificial (el cual ya hemos comentado en este blog) y la consideración de la tecnología deepfake como prohibida o como de alto riesgo dentro del marco del mismo; la imposición de obligaciones legales específicas a los proveedores de software creador de contenido deepfake; así como mayores inversiones en software detector de contenido manipulado mediante esta tecnología y en educación para concienciar a la población sobre la existencia y riesgos de dicha tecnología.

En conclusión, si bien a día de hoy no existe un marco regulatorio claro para las deepfakes, lo cierto es que muchos de los mayores desafíos que estas plantean no son solamente jurídicos sino técnicos. Por la parte legal, sin embargo, muchos de los desafíos que estos plantean quedarán resueltos (o al menos parcialmente) dentro del futuro marco regulatorio europeo de Inteligencia Artificial.

Autor: Mateo García Silva

Autores:

Graduado

3 artículos



mateo.garcia@cuatrecasas.com