spot_img

La que sería la primera ley de IA podría entrar en vigor en mayo

A la par de los beneficios hay preocupación por los riesgos que implicaría utilizar la Inteligencia Artificial (IA) de manera equivocada, el Parlamento de la Unión Europea (UE) ratificó la primera ley de IA del mundo, allanando el camino para la legislación de esta tecnología.

El Parlamento de la UE ratificó la primera ley de IA del mundo el 13 de marzo pasado, luego de que el 21 de abril de 2021 aprobara un marco normativo pionero que buscaba armonizar y sentar las bases para otorgar seguridad jurídica de cara a estimular la inversión e innovación, promulgando un conjunto de normas para salvaguardar los derechos fundamentales y la seguridad. La aparición a finales de 2022 del ChatGPT dio el empuje definitivo para llegar a la ley, la cual se prevé que entre en vigor en mayo de este año.

En términos generales, la necesidad de una ley de IA surge del riesgo de no actuar ante el uso equivocado de la IA porque, a medida que la IA aumenta en complejidad, los procesos por los cuales toma decisiones se volverán cada vez más oscuros, reduciendo el poder para formular objeciones tanto de los ciudadanos como de los gobiernos, entre otras situaciones.

Pero no todo es a favor de la ley de IA, hay voces que apuntan que la legislación puede frenar la innovación. Datos del Parlamento Europeo indican que actualmente solo el 3% de los unicornios de IA del mundo proceden de la UE, con una inversión privada en IA unas 14 veces mayor en Estados Unidos y cinco veces más en China. Sin embargo, hay estimaciones que sugieren que el alcance regulatorio y la aplicación geográfica de la ley europea podría plantear desafíos significativos para plataformas estadounidenses. Para 2030, se espera que el mercado mundial de la IA alcance los 1.5 billones de dólares.

Enfoque legal

Este primer marco regulador de la Unión Europea para la IA tiene dos objetivos principales:

Seguridad para la ciudadanía, garantizando que los sistemas de IA usados en la UE e introducidos en el mercado europeo sean seguros y respeten los derechos de los ciudadanos.

Estimular la inversión y la innovación en el ámbito de la IA en Europa.
Según la ley de IA, los sistemas de aprendizaje automático se dividirán en cuatro categorías principales en función del riesgo potencial que supongan para la sociedad:

Riesgo inaceptable. Algunos ejemplos son los sistemas orientados a la manipulación cognitiva conductual o el rastreo indiscriminado de imágenes faciales extraídas de la web. Las únicas excepciones, muy delimitadas y protocolizadas, tienen que ver con usos de extrema urgencia que requieren una autorización judicial.

Riesgo alto. IA usada en infraestructuras críticas, formación, empleo, servicios esenciales, procesos judiciales y democráticos, control fronterizo, etc. estarán sometida a estrictos requisitos y certificaciones y no podrán comercializarse hasta que el organismo regulador les dé su aprobación.

Riesgo limitado. Los usos asociados a la falta de transparencia, como texto informativo sobre temas de interés público redactado por una IA o chabot. En estos casos las aplicaciones están sometidas a requisitos de etiquetado para aclarar que se trata de sistemas de IA.

Riesgo mínimo. La mayoría de los sistemas usados actualmente como filtros de sapam o videojuegos con IA integrada tienen permitido el uso libre sin requisitos ni obligaciones.

Las normas generales sobre IA se aplicarán un año después de su entrada en vigor, según las previsiones en mayo de 2025, y las obligaciones para los sistemas de alto riesgo en tres años. Estarán bajo la supervisión de las autoridades nacionales, apoyadas por la oficina de IA dentro de la Comisión Europea, pero corresponderá a los Estados miembros crear agencias nacionales de supervisión para lo cual tienen 12 meses.

spot_img

Suscribete

Related articles

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí