Uso ético de la inteligencia artificial

El desarrollo de la inteligencia artificial es un reto que la Unión Europea se ha propuesto superar a corto y medio plazo. En abril de 2018, la Comisión presentó en un comunicado de prensa diferentes medidas para impulsar la inversión y el establecimiento de pautas éticas respecto a esta tecnología. Entre ellas destacan: la creación de un Fondo Europeo para Inversiones Estratégicas o la creación de unas Directrices éticas sobre el desarrollo de la Inteligencia Artificial.

Es en el seno de esta estrategia que el pasado 18 de diciembre se publicó el Borrador de las Directrices a cargo del Alto Grupo de Expertos en Inteligencia Artificial ( AI HLEG, por sus siglas en inglés). Está previsto que la versión definitiva sea publicada en marzo de 2019.

Las Directrices tienen como base la Carta de los Derechos Fundamentales de la UE (haciendo especial hincapié los principios de la protección de datos y transparencia). Es por ello que el objetivo de las Directrices es el de proporcionar a los creadores y usuarios de la Inteligencia Artificial una guía útil y práctica a la hora de desarrollar e implementarla, no un mero documento donde se establezcan principios y normas de forma abstracta.

Las Directrices se dividen en tres Capítulos:

En el Capítulo I se fijan los objetivos de la Inteligencia Artificial ética, así como los derechos y principios que todo operador deberá cumplir. Concretamente, rigen el principio de beneficencia (hacer el bien), el de no maleficencia (no hacer el mal), el de autonomía de la humanidad, el de justicia (equidad) y el de explicabilidad (debe operarse de forma transparente).

En el Capítulo II encontramos dos listados: por una parte, el listado de requisitos que deberán darse a la hora de desarrollar e implementar Inteligencia Artificial y, por otra, un listado de métodos técnicos y no técnicos que permitirán a los interesados ponerlos en la práctica. En ambos casos, debe destacarse que se trata de listados no exhaustivos por lo que tendrá que tenerse en cuenta el sector y contexto en el que se desarrolla el proyecto para determinar si es preciso fijar algún requisito complementario.

El listado de requisitos es el siguiente: responsabilidad, diseño para todos, gobierno de la autonomía de la inteligencia artificial, no discriminación, respeto a la autonomía privada, respeto a la privacidad, robustez, seguridad y transparencia. Mientras que se proponen los siguientes métodos: las auditorías y trazabilidad y la explicabilidad de la Inteligencia Artificial serían ejemplos de métodos técnicos mientras que la estandarización o los códigos de conducta serían ejemplos de métodos no técnicos.

Finalmente, en el Capítulo III presenta diferentes preguntas que los desarrolladores de la Inteligencia Artificial deben hacerse en relación al cumplimiento de los requisitos listados en el Capítulo II. Establece así las pautas para llevar a cabo una suerte de autoevaluación que permitirá identificar los puntos fuertes y débiles del proyecto para poder así evolucionar y mejorar posibles defectos.

Este portal se ha habilitado para que los usuarios pueden aportar sus comentarios al borrador.

Autores: Esther Ballesteros y Albert Agustinoy

 

 

Autores:

Socio

63 artículos



albert.agustinoy@cuatrecasas.com

Graduada

51 artículos



esther.ballesteros@cuatrecasas.com

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *