Tecnología HC

Todo lo que debes saber sobre la nueva Ley de Inteligencia Artificial: ¿afectará a los coches?

Buscando el equilibrio entre no detener la innovación pero continuar preservando los derechos fundamentales, nace la 'AI Act', la ley pactada por el Parlamento de la UE para comenzar a legislar sobre esta fuerza tecnológica llamada Inteligencia Artificial.

ley, inteligencia, artificial, inteligencia artificial, Parlamento, Unión Europea, China, USA, reconocimiento facial, ciberseguridad, tecnologías,
Imagen del Parlamento Europeo, EFE

Al grito entusiasta de “¡Deal, deal, deal!”, el Parlamento y el Consejo de la UE lograban un primer acuerdo provisional el pasado diciembre que establecía la primera Ley de Inteligencia Artificial en el marco europeo. Aunque todavía tiene por delante un largo camino administrativo antes de su entrada en vigor, este reglamento promete ser el salvavidas de todos aquellos que temen el peligro que supone.

La Ley de Inteligencia Artificial fue gestada durante más de dos años, presentándose por primera vez en abril de 2021 -cuando aún quedaba un año y medio para la llegada de ChatGPT-. Todavía debe seguir un proceso administrativo antes de entrar en vigor, proyectándose para finales de 2026. Por lo que, podríamos dar por hecho que al ritmo al que las Inteligencias Artificiales avanzan, puede que para cuando entre en vigor, la propia ley haya quedado algo desfasada.

Como dice la famosa frase: “Estados Unidos innova, China copia y Europa legisla”.

Guillermo del Haro, Vicedecano del IE School of Science & Technology, para DW Español

Justamente ha aparecido un mes antes de la feria tecnológica CES – una de las más relevantes a nivel internacional -, en la que Volkswagen anunció la integración de Inteligencia Artificial para el segundo trimestre del 2024 en el Golf, el Passat, el Tiguan y toda su gama de eléctricos. Llevarán ChatGPT de serie y se podrá interactuar con la IA mediante comandos de voz: “IDA -nombre del asistente virtual de VW -, activa el aire acondicionado a 21 grados”.

Los cuatro niveles de riesgo y la prohibición de ciertas aplicaciones

La legislación clasifica la Inteligencia Artificial en cuatro niveles diferentes de riesgo, contemplando desde el riesgo más mínimo hasta el más inasumible. Desde sistemas de recomendación hasta tecnologías de alto riesgo relacionadas con infraestructuras críticas, para los que la ley establece requisitos estrictos y prohibiciones.

Riesgo mínimo: En este nivel, encontramos sistemas de Inteligencia Artificial que representan un ínfimo riesgo para la seguridad y los derechos individuales, como pueden ser los sistemas de recomendación empleados en plataformas de ‘streaming’ o comercios electrónicos -Netflix o Amazon Prime Video usan IA para recomendarte series-. Estos algoritmos buscan optimizar la experiencia del usuario sugiriendo contenido o productos basados en patrones de comportamiento previos, sin -según contempla la ley- implicar riesgos significativos para el usuario.

Riesgo bajo a moderado: Aquí, se consideran a las Inteligencias Artificiales que, aunque no impactan directamente en la vida de las personas, requieren medidas de seguridad y transparencia debido a su nivel de complejidad. Un ejemplo ilustrativo serían las aplicaciones de asistencia médica que brindan recomendaciones de tratamiento o diagnóstico. También se incluyen los servicios de atención al cliente de aplicaciones de comida a domicilio, los cuales deberán avisar en todo momento de que se está tratando con una máquina y no con una persona.

Riesgo alto: Este nivel abarca todos los sistemas de IA con un riesgo considerable, especialmente los utilizados en infraestructuras críticas, como los sistemas empleados en instalaciones de agua, gas y/o electricidad. Pueden tener impactos muy graves en la seguridad pública si llegan a fallar, justificando medidas rigurosas de regulación y supervisión para prevenir consecuencias adversas.

Resulta complejo encasillar la Inteligencia Artificial presentada por Volkswagen en uno de estos niveles de riesgos, pues se encuentra entre el riesgo ‘moderado’ y el ‘alto’ debido a las medidas de seguridad y transparencia que se deberán aplicar y su estrecha relación con infraestructuras de la ciudad y la propia seguridad de las personas al volante.

Riesgo inasumible : En la categoría de riesgo inasumible, nos encontramos con aplicaciones de Inteligencia Artificial que pueden comprometer la libre elección de las personas, así como manipular su comportamiento. Un ejemplo de esto son los Sistemas de Crédito Social o ‘Social Scoring’, que se querían implantar y llevan años posponiéndose en China. Un uso masivo de las tecnologías de reconocimiento facial para conocer las buenas o malas acciones de sus ciudadanos y sumar o restar puntos de su crédito social en consecuencia. Como castigo por el mal comportamiento, un porcentaje de puntos por debajo de la media podría dificultar el acceso a billetes de tren o avión.

El uso del reconocimiento facial, aunque puede ser útil en situaciones críticas para la seguridad, vulnera derechos de privacidad de los ciudadanos.

Multas de hasta un 7% para aquellos que incumplan las normas

La aplicación de la ley prohíbe ciertos usos de Inteligencia Artificial, considerándolos como amenazas contra los derechos de los ciudadanos y la democracia. Todos los riesgos englobados en el rango de ‘inaceptable’ estarán vetados, como por ejemplo, las tecnologías de reconocimiento facial que utilicen características sensibles para poder ofrecerte publicidad adecuada a tus gustos. Se prohibirán todos aquellos sistemas biométricos que analicen emociones, raza o género… y tan solo se permitirá su uso para cuestiones que impliquen un riesgo para la seguridad nacional -siempre actuando bajo la orden de un juez-.

Esta nueva Ley no se ha olvidado del motivo del gran boom de la Inteligencia Artificial en este año 2023: ChatGPT y todos los modelos de Inteligencia Artificial generativa, en los que la norma exigirá que se conozca en todo momento que se está hablando con una máquina. Además, las compañías deberán ser transparentes sobre cuáles están siendo los procesos y el contenido con los que se está enseñando a la Inteligencia Artificial, es decir, desvelar su ‘machine learning’.

Volkswagen deberá ajustarse a estos parámetros que se le exigirán a ChatGPT, además de regirse por las normas de privacidad que afectan a un sistema tan ‘invasivo’. Afirman desde la marca que ChatGPT no tendrá acceso a ninguna de las informaciones que proporcione el vehículo, además de asegurar que todas las preguntas y respuestas se el iminarán inmediatamente.

A partir de ahora, las empresas que apliquen el uso de IAs generativas, en alguno de sus procesos productivos, deberán ser claras sobre cuál ha sido el empleo que han hecho de estas herramientas. En caso de no hacerlo, se enfrentarán a multas que podrían alcanzar los 35 millones de euros o incluso el 7% del volumen de negocio de la empresa infractora.

DEJA UNA RESPUESTA

¡Por favor, escribe tu comentario!
Por favor, introduce tu nombre aquí

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.