Inteligencia Artificial

This post is also available in: English

Se acaba de publicar la versión final, tras la polémica filtración de hace unos días del borrador, de la propuesta de la Comisión Europea sobre el marco legal de IA. Dicho documento, una vez se apruebe, vendría a regular el marco regulatorio de la IA.  

En esta ocasión, el borrador de propuesta aborda concretamente el uso y puesta en el mercado de sistemas de inteligencia artificial de alto riesgo en la Unión y establece unos criterios de transparencia harmonizados para la interacción de dichos sistemas con las personas físicas, así como los sistemas utilizados para generar o manipular la imagen, audio o video contenido. No obstante, el texto se encuentra todavía en estado muy preliminar y, hasta su aprobación final, su contenido pueda variar.

Cabe recordar que el pasado 20 de octubre de 2020, el Parlamento Europeo  publicó también una serie de resoluciones estableciendo lo que sería la primera propuesta de marco jurídico, después del Libro Blanco sobre IA de la Comisión Europea (sobre el que os hablamos en esta entrada de blog).

A fin de sistematizar los documentos emitidos a nivel comunitario en este ámbito y por tanto entender mejor el estado de la situación, se incluye a continuación un resumen de los mismos:

1. Aspectos éticos (Resolución del PE (2020/2012(INL)).

  • La propuesta persigue el respeto a la dignidad humana, los derechos fundamentales, la autonomía y dereminación de la personal, así como otros factores tales como la prevención de daños, la promoción de la equidad, la inclusión y la transparencia y la eliminación de sesgos y discriminación.
  • La propuesta parte de que el ser humano debe ser el centro de esta tecnología, estableciendo obligaciones específicas para los sistemas de IA que supongan un “alto riesgo”. Estas tecnologías de “alto riesgo” deberán ser claramente delimitadas y exhaustivamente listadas en la regulación. Así, deberán basarse en criterios objetivos relativos tales como: (i) la capacidad que tiene la tecnología de causar un daño o violar un derecho fundamental o la normativa de seguridad aplicable; y (ii) al sector y la finalidad para la cual esta se utilice. Este listado deberá ser revisado periódicamente.
  • La propuesta abarca diferentes escenarios y crea un “test de responsabilidad ética” que deberá ser aprobado por las empresas que quieran utilizar un sistema de IA y presenten un riesgo mayor. En definitiva, se trata de una evaluación ex ante imparcial, regulada y externa, realizada por un órgano público y apoyada en criterios concretos y definidos. 
  • Entre las obligaciones, se encontrarían también el cumplimiento de los requisitos ya recomendados por el High Level Expert Groupen IA, creado por la Comisión Europea, en su “Guía para conseguir una IA confiable” (no discriminación, factor humano, seguridad, transparencia, accountability y trazabilidad) y la obligación de realizar auditorías periódicas y solicitar certificaciones.
  • Para aquellas tecnologías que no suponen un “alto riesgo”, el esquema propuesto sería, por el momento, voluntario. No obstante, ya ha habido algún estado (como Alemania) que se han pronunciado mostrando su preocupación a esta regulación “voluntaria”.
  • En materia de protección de datos, el PE se remite al cumplimiento del RGPD (en materia de IA y protección de datos, os remitimos a nuestra entrada de blog)

2. Responsabilidad civil (Resolución del PE (2020/2014(INL)).

  • El PE propone ajustar ciertas cuestiones tanto en la regulación relativa a la responsabilidad de productos (Product Liability Directive) como en la relativa a la seguridad de productos (Product Safety Directive).
  • Esto se debe a que existen diversos factores relacionados con la tecnología que incorpora IA que deben ser considerados y que los diferencia del resto de productos ofrecidos en el mercado (por ejemplo, su complejidad, su grado de conectividad, su posible falta de transparencia, sus vulnerabilidades, su capacidad de aprendizaje autónomo o nivel de autonomía).
  • Se enfatiza el hecho de que estas tecnologías no tienen personalidad jurídica y que su único objetivo es servir a la humanidad. Siguiendo los principios de responsabilidad, todo aquel que crea, mantiene, controla o interfiere debe ser responsable en cierta medida y según los distintos criterios propuestos, por los daños que haya podido causar la actividad.
  • Por tanto, se propone distribuir la responsabilidad entre todos los actores que participan en las cadenas de valor de estas tecnologías (incorporando a los desarrolladores, fabricantes, programadores, operadores, etc.). Una novedad importante es que se diferencia entre la responsabilidad del llamado operador inicial (“frontend operator”) y el  operador final (“backend operator”). Pese a que en teoría el operador inicial es el que decide el uso de un sistema de IA, el operador final podría tener un alto nivel de control si se le considera un “productor” bajo el Articulo 3 de la Directiva de Responsabilidad por Productos Defectuosos, y consecuentemente tener un nivel de responsabilidad alto.
  • Se propone revertir las reglas de la carga de la prueba del daño causado en ciertos casos definidos, proponiendo por tanto:
  1. Un sistema de responsabilidad objetiva para operadores de sistemas de IA de alto riesgo, que serán responsables de los daños y prejuicios causados por una actividad física o virtual, un dispositivo o un proceso gobernado por dicho sistema de IA. No podrá eludirse la reponsbailidad alegando que actuaron con diligencia debida o que el daño o perjuicio fue causado por una actividad gobernada por sus sistema de IA. La responsabilidad se exluirá en los casos de fuerza mayor.
  2. Un sistema de responsabilidad subjetiva para sistemas que no constituyan un alto riesgo y que deberán responder de los daños provocados (salvo que puedan demostrar la falta de culpa con base en motivos tasados). No podrá eludirse la responsabilidad argumentando que el daño o perjuicio fue causado por una actividad, dispositivo o proceso autónomo gobernado por su sistema de IA.
  3. Un sistema de responsabilidad solidaria, en caso de que haya más de un operador de la IA.

3. Propiedad intelectual e industrial (Resolución del PE (2020/2015(INI)).

  • El PE considera que es necesario diferenciar entre las creaciones que hayan sido generadas por la IA y aquellas otras creaciones humanas en las que haya intervenido un sistema de IA.
  • En las creaciones humanas en las que haya participado la IA, el regimen jurídico actual de propiedad intelectual e industrial seguiría siendo aplicable, siendo el autor el titular de los derechos.
  • No obstante, el PE considera que las creaciones generadas autónomamente por la IA no podrían ser protegidas bajo este derecho, para garantizar la observancia del principio de originalidad (ligado a la personalidad del autor y a la naturaleza humana).
  • En todo caso, el PE entiende que estas creaciones generadas por la IA deberían ser de alguna forma protegidas para fomentar la inversión y mejorar la seguridad jurídica. Propone evaluar la posibilidad de conoceder los derechos de autor sobre este tipo de “creación obra” a la persona física que la edite y la haga pública de forma lícita (siempre que el diseñador/es de la tecnología subyacente no se opongan a dicho uso).

Por otro lado, el pasado 20 de enero de 2021 fue publicado un informe de propuesta de resolución del Parlamento Europeo en materia de inteligencia artificial y la interpretación y aplicación del Derecho internacional en los ámbitos de los usos civil y militar. A continuación se resumen algunos de los principales aspectos que dicha propuesta cubre:

4. Aspectos de uso militar y supervisión humana (Resolución del PE (2020/2013(INI)).

  • El Parlamento Europeo aboga por sistemas que permitan al humano ejercer un alto nivel de control sobre los sistemas de IA de modo que se tenga en todo momento los medios para corregir su curso, detenerla o desactivarla en caso de comportamiento imprevisto, intervención accidental, ciberataque o interferencia de terceros con tecnología pasada en IA.
  • Se defiende que los “Sistemas autónomos armamentísticos letales” (SAAL), deben emplearse únicamente cómo último recurso y solo son lícitos si están sujetos a un estricto control humano. Los sistemas sin control humano (“human off the loop”) ni supervisión humana de ningún tipo deben prohibirse sin excepciones.
  • El texto también hace un llamamiento a promover un marco global para el uso militar de la IA, junto con la comunidad internacional.

5. Aspectos de la Inteligencia Artificial en el sector público (Resolución del PE (2020/2013(INI)).

  • El incremento en el uso de sistemas de IA en salud y justicia nunca debería substituir al contacto humano; todo individuo debería ser informado cuando una decisión está siendo tomada por una IA y tener la opción de una segunda opinión.
  • Cuando la IA se utiliza en asuntos de salud pública (por ejemplo, cirugía asistida por robots, prótesis inteligentes, medicina predictiva), los datos personales de los pacientes deben ser protegidos y se debe mantener el principio de igualdad de trato.
  • Si bien el uso de tecnologías de IA en el sector de la justicia puede ayudar a acelerar los procedimientos y a tomar decisiones más racionales, las decisiones judiciales finales deben ser tomadas por humanos, ser estrictamente verificadas por una persona y estar sujetas a un proceso debido.

6. Aspectos de videovigilancia masiva y deepfakes (Resolución del PE (2020/2013(INI)).

  • Los reguladores están también altamente preocupados por las amenazas de una violación de los derechos humanos y soberanía estatal que se pueda llevar a cabo con el uso de las tecnologías de IA.
  • Piden que se prohíba a las autoridades públicas el uso de «aplicaciones de calificación social masiva altamente intrusivas» (para controlar y calificar a los ciudadanos) dado que ponen en grave peligro el respeto de los derechos fundamentales.
  • El informe también plantea la preocupación por las tecnologías de ultra falsificación(“deepfake«), que permiten falsificar de manera cada vez más realista fotos, audio y video que podrían utilizarse para chantajear, crear bulos, mermar la confianza de la ciudadanía e influir sobre el discurso público. Solicita que se obligue a todo documento ultra falseado o video realista realizado mediante técnicas de síntesis que incluya una etiqueta que lo califique como “no original”.

Algunas de estas propuestas se ven contenidas en el borrador de propuesta de Reglamento que se acaba de publicar esta mañana. Entre ellas, algunos de los cambios más significativos se refieren a la regulación de la videovigilancia masiva en tiempo real en espacios públicos que, tras la carta que dirigieron varios eurodiputados el pasado jueves 15 a la Comisión Europea por medio de la cual manifiestan su oposición al régimen de videovigilancia masiva adoptado en el borrador de Reglamento filtrado hace unos días, ha sido finalmente prohibido, permitiéndose solo en circunstancias especiales bajo autorización judicial o administrativa.

Seguiremos estudiando el reciente borrador y os iremos informando de sus novedades más importantes y de cualquier avance adicional en este blog.

Autores: Adaya Esteban, Octavi Oliu y Claudia Morgado

This post is also available in: English

Autores:

Asociada

91 artículos



adaya.esteban@cuatrecasas.com

Prácticas

10 artículos



octavi.oliu@cuatrecasas.com

Asociada

52 artículos



claudia.morgado@cuatrecasas.com