Tecnología HC

¿Cómo se debería regular la Inteligencia Artificial?

El Chapter Chair de Privacy Connect Barcelona es el evento que reúne a los profesionales de la privacidad, la seguridad y la gobernanza para establecer contactos, compartir las mejores prácticas y debatir los últimos cambios normativos que afectan a su ciudad.

NORMATIVA DE LA UE SOBRE EL USO DE LA IA
NORMATIVA DE LA UE SOBRE EL USO DE LA IA

En este webinar se va a debatir en torno a la Inteligencia Artificial y la Privacidad desde la nueva propuesta de reglamento de la Comisión Europea. Se determinara qué deben tener en cuenta las empresas que pretenden utilizar un sistema de IA y reconocimiento facial. El evento, que se lleva a cabo en Barcelona este 21 de octubre desde las 10 de mañana y durante una hora, tiene formato online y puede seguirlo quien lo desee inscribiéndose en el siguiente enlace y tras rellenar una serie de datos personales.

Este evento cuenta con la participación de varios expertos en privacidad: Adaya María Esteban, Asociada de IP/Protección de Datos y nuevas tecnologías en Cuatrecasas; Federico Marengo, Data Protection Consultant & PhD Student en Qubit Privacy; Rosario Murga, Consultora y formadora en Recital One; y María Eugenia Sánchez, Abogada Gerente Regulación Digital -NewLaw- en PwC Tax & Legal.0.0

Pero… ¿qué se propone desde Europa?

La propuesta europea para regular la Inteligencia Artificial -IA- y reconocimiento facial -es decir, un sistema capaz de ‘identificar’ los rasgos de tu cara… y, a cambio, permitirte realizar alguna acción, como desbloquear la pantalla del móvil- inicia un interesante debate sobre dónde deberían situarse las líneas rojas entre el uso eficiente de nuevas tecnologías y la protección de los derechos fundamentales de los ciudadanos.

Algo que afectara a los fabricantes de automóviles que comienzan a aplicar este tipo de sistemas en sus vehículos. Por ejemplo el nuevo modelo Génesis GV60 -de la firma de lujo de Hyundai- es el primer coche en estrenar esta tecnología de reconocimiento facial. Por otra parte Volkswagen tiene más de 100 aplicaciones basadas en IA; por no hablar del papel que va a jugar en el total desarrollo de la conducción completamente autónoma.

Margrethe Vestager, vicepresidenta ejecutiva responsable de la cartera de una Europa Adaptada a la Era Digital, ha declarado: «En cuanto a la inteligencia artificial, la confianza es una obligación, no un adorno. Mediante estas reglas de referencia, la UE lidera la formulación de nuevas normas mundiales para que garanticen que se pueda confiar en la IA. Al establecer las normas, podremos facilitar el advenimiento de una tecnología ética en todo el mundo y velar por que la UE siga siendo competitiva. Nuestras normas, que son a prueba de futuro y propicias a la innovación, intervendrán cuando sea estrictamente necesario, esto es, cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la UE».

La nueva normativa de la unión europea sobre el uso de la IA
Margrethe Vestager , vicepresidenta ejecutiva responsable de la cartera de una Europa Adaptada a la Era Digital.

Por una parte defienden este primer marco jurídico creado para la IA, como una acción en pro de la seguridad y los derechos de los europeos. Pero, por otro lado, quieren tranquilizar a las empresas, afirmando que estas nuevas normativas favorecerán el desarrollo de la IA en las industria europea.

El comisario de Mercado Interior, Thierry Breton, ha añadido: «La IA es un medio, no un fin. Existe desde hace décadas, pero ha alcanzado nuevas capacidades alimentadas por la potencia informática. Tiene un enorme potencial en ámbitos tan diversos como la salud, el transporte, la energía, la agricultura, el turismo o la ciberseguridad, pero también entraña varios riesgos. Las propuestas presentadas hoy tienen por objeto reforzar la posición de Europa como centro mundial de excelencia en materia de IA desde el laboratorio hasta el mercado, velar por que la IA en Europa respete nuestros valores y normas y aprovechar el potencial de la IA para usos industriales»

Y el caso particular de España

En nuestro país, el Ministerio de Ciencia, Innovación y Universidades publicó en 2019 la Estrategia Española de I+D+I en Inteligencia Artificial y en 2020 el Ministerio de Asuntos Económicos y Transformación Digital lanzó la denominada Estrategia Nacional de Inteligencia Artificial. En esta última, se aplican seis ejes similares a los establecidos por la UE; sin embargo, aún no se ha establecido un marco legal, ni se ha hablado de los riesgos para los ciudadanos.

La nueva normativa de la unión europea, sobre el uso de la de la Inteligencia Artificial
Pedro Duque, ministro de Ciencia, Innovación y Universidades presenta la Estrategia Española de I+D+I en Inteligencia Artificial

Esta falta de definición del riesgo podría suponer un problema de protección para los usuarios. Se hace mas evidente cuando, tras la pandemia, se han digitalizado mucho de los trámites con la administración pública y se han introducidos algoritmos y sistemas de IA en las instituciones públicas. La ausencia en un marco legal que proteja a los ciudadanos y regule el uso de la IA crea una brecha en la que los datos de los ciudadanos, instituciones publicas y empresas privadas quedan legalmente en el aire.

Soy graduado en periodismo por la Universidad Complutense de Madrid y en Marketing y Publicidad en Capítol Empresa en Valencia, quiero dedicar mi carrera profesional al sector de la comunicación, sobre todo a la comunicación institucional, también me encantan las relaciones publicas y organización de eventos. Entre mis pasiones personales se encuentran viajar, la música, entre lo que destaco que soy dj por diversión, también me encanta mucho la geopolítica y la historia, considero que son dos campos esenciales para entender la realidad actual de lo que sucede en la política internacional de los países.

DEJA UNA RESPUESTA

¡Por favor, escribe tu comentario!
Por favor, introduce tu nombre aquí

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.