Javier Prenafeta, abogado de 451.legal: "La ética debe buscar que las herramientas de IA sean beneficiosas para las personas"

Calatayud reunirá los próximos días 16 y 17 de abril a profesionales de la seguridad en la red en las III Jornadas Aragonesas de Protección de Datos, Transparencia y Ciberseguridad organizadas por la AADPD.  Será el abogado y socio de 451.legal, Javier Prenafeta, quien ahonde en el nuevo Reglamento Europeo de Inteligencia Artificial con su ponencia “Ética e IA” el 17 de abril.
photo_camera El abogado y socio de 451.legal Javier Prenafeta

La localidad zaragozana de Calatayud reunirá los próximos días 16 y 17 de abril a profesionales de la seguridad en la red en las III Jornadas Aragonesas de Protección de Datos, Transparencia y Ciberseguridad organizadas por la AADPD. El Salón Claretianos se convertirá en la cuna de las diversas ponencias sobre el Reglamento de la Inteligencia Artificial, las cookies, el móvil en las aulas o la biometría, entre otros.

Será el abogado y socio de 451.legal, Javier Prenafeta, quien ahonde en el nuevo Reglamento Europeo de Inteligencia Artificial con su ponencia “Ética e IA” el miércoles 17 de abril, a las 12.15 horas.

PREGUNTA.- ¿Por qué ha elegido hablar de la ética en el contexto de la Inteligencia Artificial (IA)?
RESPUESTA.- He elegido el tema de la ética y la Inteligencia Artificial porque recientemente se ha aprobado el Reglamento Europeo de Inteligencia Artificial; es decir, la norma general que va a regular todo el uso de herramientas de IA en Europa, y que además, tiene un enfoque más ético que jurídico.

P.- ¿Cómo define usted la ética en el contexto de la IA?
R.- La ética debe perseguir que las herramientas de Inteligencia Artificial sean beneficiosas para el ser humano; es decir, que no le causen perjuicios. En el reglamento se habla mucho de sesgos, discriminaciones… Digamos que ese enfoque ético del reglamento lo que quiere conseguir es que la IA sea buena para nosotros.

P.- ¿Qué castiga exactamente este nuevo reglamento?
R.- Lo que castiga es que no se cumplan todas las obligaciones de transparencia, de verificación y de documentación de las herramientas. La normativa dice: “Tienes que utilizar, por ejemplo, en el entrenamiento o en datos que sean representativos, información que no lesione la propiedad intelectual… No puedes utilizar obras sin autorización u obras ajenas en caso, por ejemplo, de la inteligencia artificial generativa. Tienes que documentar los procesos, hacer pruebas, validaciones, auditorías e introducir un análisis de impacto…” y lo que se castiga es que no cumplas con eso.

Prenafeta-AD
Prenafeta participa el 17 de abril en estas jornadas que se celebran en Calatayud

P.- ¿Es necesario, por lo tanto, que todas las empresas avisen de que utilizan la IA?
R.- Sí, sí. De hecho, es obligatorio según el reglamento. Siempre que estemos utilizando una herramienta de Inteligencia Artificial, hay que incluir una mención diciendo “oye, estás interactuando con una máquina” y en los contenidos que se generen con esas herramientas también hay que añadir un aviso, como por ejemplo, en noticias, contenidos audiovisuales e imágenes.

P.- ¿Se puede preservar su derecho intelectual de las personas que utilizan la IA para crear contenido utilizando ideas previas?
R.- En principio no, porque la normativa de propiedad intelectual lo que protege son creaciones originales hechas por un ser humano. Realmente, no está previsto que las máquinas puedan crear una obra en sentido de propiedad intelectual. Por lo tanto, los resultados que pudiera generar la Inteligencia Artificial, obviamente, resultados autónomos que no hayan sido transformados o cuenten con una participación humana o modificación, no serían protegibles como propiedad intelectual.

P.- ¿Cuál es el papel que juegan los abogados en la regulación de la IA?
R.- Yo creo que los abogados somos los que vamos a tener más trabajo porque en todas las obligaciones que se exigen a los productores o implantadores de desarrollo de Inteligencia Artificial, hay que hacer un análisis de riesgos y una evaluación de impacto a efectos jurídicos. Por lo tanto, nosotros tenemos un trabajo bastante complicado en el análisis de las implicaciones de los riesgos legales y el impacto que pueden tener en las personas.

2-Cartel

P.- ¿Qué recomendaciones le haría a una empresa?
R.- El marco regulatorio está pensado principalmente para los fabricantes, productores, desarrolladores e implantadores. Para el usuario se regula muy poco. Simplemente, se pide que se dé información sobre el uso de la herramienta artificial en el uso productivo. No obstante, lo que sí que recomendaría -a la hora de utilizar la IA- es que haya una homologación previa de estos proveedores, que se incluyan garantías y responsabilidad por los daños que pueda causar la herramienta, que se les obligue a tener un seguro de responsabilidad civil que cubra los problemas que puedan derivar de ahí, que haya una supervisión humana siempre en cualquier aplicación de la herramienta artificial y que se hagan testeos, valoraciones y validaciones.

P.- ¿Cuál es su visión sobre el reglamento y el futuro de la IA?
R.- Personalmente, creo que el reglamento tiene un enfoque que está bien para empezar a trabajar porque genera confianza. Al final, se trata de un marco general que incluye qué prácticas están prohibidas, cuáles son de alto riesgo y -por lo tanto - hay que hacerles unos mayores controles… Pero no resuelve muchos problemas, como es, por ejemplo, en caso de daños o de responsabilidad por fallos de la propia Inteligencia Artificial…. En el fondo, es muy difícil atribuir responsabilidad al usuario, cuando a lo mejor las decisiones que ha tomado una herramienta, se escapan del control y de lo que quería hacer el usuario.