La Unión Europea marca un hito histórico al consensuar la primera normativa global sobre inteligencia artificial (IA), un proceso legislativo que aún no ha concluido pero que ya dibuja un antes y un después en el manejo de esta tecnología.

Este acuerdo, alcanzado antes de las elecciones europeas de 2024, revela la importancia y la urgencia de regular un campo tan expansivo y potencialmente disruptivo como la IA.

 

Grandes pactos, largas negociaciones

El camino hacia este acuerdo no ha sido fácil, marcado por negociaciones extensas y debates intensos, culminando en dos sesiones maratonianas de 22 y 14 horas respectivamente. Este esfuerzo mancomunado entre el Parlamento Europeo y el Consejo de la UE, aunque aún provisional, subraya un avance crucial en la legislación sobre IA, aunque su implementación plena no se espera hasta finales de 2026.

La Ley de Inteligencia Artificial, conocida como IA Act, se presentó por primera vez en abril de 2021. La presidenta de la Comisión Europea, Ursula von der Leyen, ha enfatizado el valor y las posibilidades que abre esta nueva ley. Centrándose en los "riesgos identificables", la normativa busca equilibrar la seguridad y los derechos humanos con el impulso a la innovación. La clasificación de la IA según el riesgo que representa es una de sus claves, con categorías que van desde "riesgo mínimo" hasta "riesgo inaceptable".

Esta normativa también aborda usos específicos y potencialmente peligrosos de la IA, estableciendo prohibiciones en ciertas aplicaciones y requisitos estrictos para otras, como las que implican infraestructuras críticas. En particular, el Parlamento Europeo detalla aplicaciones prohibidas que representan una amenaza tanto para los derechos de los ciudadanos como para la democracia, incluyendo ciertos sistemas de reconocimiento biométrico y de categorización.

IA y vigilancia

Uno de los aspectos más controvertidos ha sido el uso de sistemas de identificación biométrica, dadas sus implicaciones en el control gubernamental y los derechos ciudadanos. Tras intensas negociaciones, se han establecido límites y condiciones estrictas para su uso, especialmente en contextos de vigilancia policial.

La ley también incide en los modelos generativos de IA, como ChatGPT, introduciendo reglas específicas para garantizar la transparencia y la gestión de riesgos. El Parlamento Europeo ha logrado imponer obligaciones más estrictas para los modelos de "alto impacto", que incluyen evaluaciones de riesgos, informes de incidentes y garantías de ciberseguridad.

Un aspecto crucial y delicado que aborda la legislación es la relación entre la IA y los derechos de autor. La ley exige que los sistemas y modelos de IA respeten los requisitos de transparencia y cumplan con la normativa de la UE sobre derechos de autor.

Antes de LA IA Act

Antes del establecimiento de la ley de inteligencia artificial por parte de la Unión Europea, tanto Europa como Estados Unidos habían tomado varias iniciativas para abordar los desafíos éticos, legales y técnicos que plantea la IA.

En Europa:

  1. Directrices Éticas para la IA Confiable: la Comisión Europea presentó en abril de 2019 unas directrices éticas para el desarrollo y uso de la IA. Estas directrices se centraban en la confiabilidad, asegurando que la IA sea legal, ética y robusta desde un punto de vista técnico.

  2. Reglamento General de Protección de Datos (GDPR): aunque no es específico de la IA, el GDPR, implementado en mayo de 2018, ha influido significativamente en cómo se manejan los datos en la IA, especialmente en lo que respecta a la privacidad y la protección de datos personales.

  3. Iniciativas Nacionales: varios países de la UE, como Francia y Alemania, habían desarrollado sus propias estrategias nacionales de IA, centradas en la ética, la innovación y el apoyo a la investigación y el desarrollo en el campo de la IA.

En Estados Unidos:

  1. Guía de la Casa Blanca para la Regulación de la IA: en enero de 2020, la Casa Blanca publicó un conjunto de principios para el desarrollo y la regulación de la IA. Estos principios se enfocaban en la promoción de la innovación y el crecimiento económico, mientras se protegía la seguridad pública y se fomentaban los valores estadounidenses.

  2. National Artificial Intelligence Initiative Act: aprobada a finales de 2020, esta ley tenía como objetivo coordinar y unificar los esfuerzos de IA en todo el gobierno federal de los Estados Unidos, promoviendo la investigación, la educación y la formación en IA.

  3. Directrices y Estándares Técnicos: organizaciones como el Instituto Nacional de Estándares y Tecnología (NIST) han estado trabajando en el desarrollo de estándares y marcos para la IA, incluyendo aspectos de fiabilidad y seguridad.

  4. Iniciativas del Sector Privado: el sector privado también ha jugado un papel importante en la configuración de las prácticas éticas en IA. Empresas como Google, Microsoft y IBM han desarrollado sus propios principios éticos para la IA y han participado en varias iniciativas para promover el uso responsable de esta.

En resumen, antes de la legislación de la UE, tanto Europa como Estados Unidos habían tomado varias medidas para abordar los desafíos de la IA, aunque estas acciones eran en su mayoría directrices éticas, estrategias nacionales y regulaciones generales de datos, más que legislaciones específicas y detalladas sobre la IA como la recientemente acordada por la UE.

Este acuerdo, pues, marca un precedente significativo en la regulación de la IA a nivel global. Con su enfoque en la seguridad, la transparencia y el respeto a los derechos humanos y la democracia, la UE se posiciona como líder en el establecimiento de un marco ético y legal para el desarrollo y uso de la inteligencia artificial. Aunque todavía falta para su implementación completa, la normativa de la UE sobre IA sienta las bases para una era de innovación tecnológica guiada por principios éticos y legales sólidos.

Recuerda que ya puedes seguirnos en nuestro de Canal de WhatsApp. ¡Únete ahora!