2019-12-03T15:22:00
España

Los usos a los que se destina la inteligencia artificial evolucionan al ritmo en que lo hace la tecnología. No sorprende, que el deep learning, aprendizaje automático inicialmente utilizado o, al menos, concebido parafines lícitos tales como la detección de fraudes o el análisis financiero, haya comenzado a emplearse para la falsificación de contenido. 

Deepfaking: No te fíes de todo lo que ves
3 de diciembre de 2019

Los usos a los que se destina la inteligencia artificial evolucionan al ritmo en que lo hace la tecnología. No sorprende, que el deep learning, aprendizaje automático inicialmente utilizado o, al menos, concebido parafines lícitos tales como la detección de fraudes o el análisis financiero, haya comenzado a emplearse para la falsificación de contenido. Hablamos del deepfaking.

El deepfaking es el resultado de la aplicación de la inteligencia artificial para la generación de apariencia y voz humanas. Con ayuda de un software, esta técnica es capaz de aprender patrones de actuación de la voz, los gestos, y simular realidades no ocurridas. Declaraciones de un político o situaciones comprometidas de personajes públicos suelen ser las acciones recreadas.

No puede negarse que estamos ante un estadio evolucionado de las fake news, en el que no solo se divulga información falsa, sino que, adicionalmente, se sustenta la noticia o comunicación publicada mediante pruebas audiovisuales, aparentemente reales.

De cara a su detección, se están probando diversas técnicas y tecnologías, entre ellas, (i) el uso de algoritmos similares a los de los deepfakers, y (ii) el blockchain. La primera busca el reconocimiento de desvíos o inexactitudes que se desmarcan de patrones previamente detectados. Básicamente, trata de localizar errores que en un vídeo o imagen reales no concurrirían. No se niega su eficacia, si bien recibe críticas por favorecer, paralelamente, la evolución del algoritmo del deepfake en sí mismo, anulando, con ello, las mejoras en su rastreo. Al contrario, el segundo método no se centra tanto en el contenido potencialmente falso, sino que pone el foco en su origen. Opera de cara a evitar la difusión de deepfakes, censurando su publicación de no acreditarse la procedencia de una fuente segura.

Para engranar estos métodos en el sistema de oferta y demanda de contenidos, es vital la participación de los prestadores de servicios de la información, pudiendo, por ejemplo, (i) insertar en las condiciones de uso de sus plataformas prohibiciones, sanciones, o similares remedios, al empleo de deepfakes, lo que justificará su supresión; (ii) habilitar canales de denuncia al efecto; (iii) implementar mecanismos de análisis de contenido de forma previa a su publicación; y (iv) aplicar tales mecanismos de análisis sobre contenidos ya publicados para su retirada. Y será recomendable que así se haga, porque, de criminalizarse o condicionarse la creación y divulgación del deepfaking,como tal,a nivel legal, la colaboración de los prestadores de servicios de la sociedad de la información será esencial si pretenden esquivar sanciones derivadas del régimen de responsabilidad que prescribe la Ley 34/2002, de 11 de julio, de servicios de la sociedad de la información y de comercio electrónico.

Más allá de desenmascarar y vetar los deepfakes nos preguntamos por los derechos e intereses que conculca.

Desde el punto de vista de la persona afectada, protagonista o de alguna forma relacionada con un deepfake, prevé la legislación española, como tantas otras, los derechos de imagen. El art. 7, apartados seis y siete, de la Ley Orgánica 1/1982, de 5 de mayo, de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen (la “Ley Orgánica”), enumera como intromisiones ilegítimas, entre otras, “la utilización del nombre, de la voz o de la imagen de una persona para fines publicitarios, comerciales o de naturaleza análoga”, así como “la divulgación de expresiones o hechos concernientes a una persona cuando la difame o la haga desmerecer en la consideración ajena”. Adicionalmente, podría, por supuesto, alcanzarse el terreno penal, cuando la ofensa o fraude rebasen determinado nivel.

Desde una óptica de orden e interés públicos, es difícil ignorar cómo este nuevo tipo de fraude es capaz de fomentar la violencia, agravar conflictos sociales, o incluso influir en la intención de voto de cierto segmento de la población. Hablamos del deepfaking como vehículo para la intimidación, para el afianzamiento de roles de género erróneos o de ideas políticas. Nos encontraríamos, aquí, en ramas del ordenamiento como la penal y, por qué no, la administrativa.

En algunos Estados de Estados Unidos ya se están aprobando leyes que penalizan o prohíben los deepfakes. El tiempo dirá cómo reacciona Europa. Pero, como mínimo, es vital hacer consciente al consumidor de contenido de la existencia, falsedad y riesgo del deepfaking, con el objeto de relativizar su impacto personal, social y económico.

Ahora bien, no olvidemos que la aplicación de la inteligencia artificial para la generación de apariencia y voz humanas también presenta usos legítimos, de forma que no será inteligente suspender su desarrollo, sino que debemos ser capaces de reconducir su utilización a un cauce en el que no se conculquen derechos de terceros, ni se manipule la realidad en detrimento de las libertades básicas reconocidas.

Autora: Clara Sánchez

3 de diciembre de 2019