sábado, 24 de febrero

Ciudad Real

Visita nuestra página en Facebook Síguenos en Twitter Síguenos en Instagram Síguenos en YouTube
Buscar
Logotipo de Ciudad Real Digital

Seguridad-Defensa

El enfoque europeo hacia una Inteligencia Artificial fiable

La Comisión acoge con satisfacción el acuerdo político alcanzado entre el Parlamento Europeo y el Consejo sobre la Ley de Inteligencia Artificial (Ley AI), propuesto por la Comisión en abril de 2021.

Imprimir noticia

Ursula von der Leyen , presidenta de la Comisión Europea, dijo: “La inteligencia artificial ya está cambiando nuestra vida cotidiana. Y esto es sólo el principio. Si se utiliza de manera inteligente y amplia, la IA promete enormes beneficios para nuestra economía y sociedad. Por lo tanto, acojo con gran satisfacción el acuerdo político alcanzado hoy por el Parlamento Europeo y el Consejo sobre la Ley de Inteligencia Artificial. La Ley de IA de la UE es el primer marco jurídico integral sobre inteligencia artificial en todo el mundo. Entonces, este es un momento histórico. La Ley de IA traslada los valores europeos a una nueva era. Al centrar la regulación en riesgos identificables, el acuerdo de hoy fomentará la innovación responsable en Europa. Al garantizar la seguridad y los derechos fundamentales de las personas y las empresas, apoyará el desarrollo, el despliegue y la adopción de una IA fiable en la UE. Nuestra Ley de IA hará una contribución sustancial al desarrollo de reglas y principios globales para una IA centrada en el ser humano”. 

El enfoque europeo hacia una IA fiable

Las nuevas normas se aplicarán directamente de la misma manera en todos los Estados miembros, sobre la base de una definición de IA preparada para el futuro. Siguen un enfoque basado en el riesgo:

Riesgo mínimo: la gran mayoría de los sistemas de IA entran en la categoría de riesgo mínimo. Las aplicaciones de riesgo mínimo, como los sistemas de recomendación basados ​​en IA o los filtros de spam, se beneficiarán de un pase libre y de la ausencia de obligaciones, ya que estos sistemas presentan un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos. No obstante, de forma voluntaria, las empresas pueden comprometerse a adoptar códigos de conducta adicionales para estos sistemas de IA.

Alto riesgo: los sistemas de IA identificados como de alto riesgo deberán cumplir con requisitos estrictos, incluidos sistemas de mitigación de riesgos, alta calidad de conjuntos de datos, registro de actividad, documentación detallada, información clara del usuario, supervisión humana y un alto nivel. de robustez, precisión y ciberseguridad. Los entornos de pruebas regulatorios facilitarán la innovación responsable y el desarrollo de sistemas de IA compatibles.

Ejemplos de sistemas de IA de alto riesgo incluyen ciertas infraestructuras críticas, por ejemplo en los campos del agua, el gas y la electricidad; dispositivos médicos; sistemas para determinar el acceso a instituciones educativas o para reclutar personas; o determinados sistemas utilizados en los ámbitos de la aplicación de la ley, el control de fronteras, la administración de justicia y los procesos democráticos. Además, los sistemas biométricos de identificación, categorización y reconocimiento de emociones también se consideran de alto riesgo. 

Riesgo inaceptable: se prohibirán los sistemas de IA que se consideren una clara amenaza para los derechos fundamentales de las personas . Esto incluye sistemas o aplicaciones de inteligencia artificial que manipulan el comportamiento humano para eludir el libre albedrío de los usuarios, como juguetes que utilizan asistencia de voz para fomentar comportamientos peligrosos de menores o sistemas que permiten la "puntuación social" por parte de gobiernos o empresas, y ciertas aplicaciones de vigilancia policial predictiva. Además, se prohibirán algunos usos de los sistemas biométricos, por ejemplo, los sistemas de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar personas o identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público (con excepciones limitadas).

Riesgo de transparencia específico : al emplear sistemas de inteligencia artificial como los chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina. Los deepfakes y otros contenidos generados por IA deberán etiquetarse como tales, y los usuarios deberán ser informados cuando se utilicen sistemas de categorización biométrica o reconocimiento de emociones. Además, los proveedores tendrán que diseñar sistemas de manera que el contenido sintético de audio, vídeo, texto e imágenes esté marcado en un formato legible por máquina y detectable como generado o manipulado artificialmente.

Las empresas que no cumplan las normas serán multadas.

IA de propósito general

La Ley de IA introduce reglas específicas para modelos de IA de propósito general que garantizarán la transparencia a lo largo de la cadena de valor. Para modelos muy potentes que podrían plantear riesgos sistémicos, habrá obligaciones vinculantes adicionales relacionadas con la gestión de riesgos y el seguimiento de incidentes graves, la realización de evaluaciones de modelos y pruebas adversas. Estas nuevas obligaciones se harán operativas mediante códigos de prácticas elaborados por la industria, la comunidad científica, la sociedad civil y otras partes interesadas junto con la Comisión.

En términos de gobernanza, las autoridades nacionales competentes de vigilancia del mercado supervisarán la implementación de las nuevas normas a nivel nacional, mientras que la creación de una nueva Oficina Europea de IA dentro de la Comisión Europea garantizará la coordinación a nivel europeo. La nueva Oficina de IA también supervisará la implementación y el cumplimiento de las nuevas normas sobre modelos de IA de propósito general. Junto con las autoridades nacionales de vigilancia del mercado, la Oficina de IA será el primer organismo a nivel mundial que hará cumplir normas vinculantes sobre IA y, por lo tanto, se espera que se convierta en un punto de referencia internacional. Para los modelos de propósito general, un panel científico de expertos independientes desempeñará un papel central al emitir alertas sobre riesgos sistémicos y contribuir a clasificar y probar los modelos.

Próximos pasos

El acuerdo político está ahora sujeto a la aprobación formal del Parlamento Europeo y del Consejo.

Una vez que se adopte la Ley de IA, habrá un período de transición antes de que el Reglamento sea aplicable. Para salvar este tiempo, la Comisión lanzará un Pacto sobre IA . Convocará a desarrolladores de IA de Europa y de todo el mundo que se comprometan de forma voluntaria a implementar las obligaciones clave de la Ley de IA antes de los plazos legales.

Para promover normas sobre una IA fiable a nivel internacional, la Unión Europea seguirá trabajando en foros como el G7, la OCDE, el Consejo de Europa, el G20 y las Naciones Unidas. Recientemente, apoyamos el acuerdo de los líderes del G7 en el marco del proceso de IA de Hiroshima sobre principios rectores internacionales y un código de conducta voluntario para sistemas avanzados de IA.

Fondo

Durante años, la Comisión ha estado facilitando y mejorando la cooperación en materia de IA en toda la UE para impulsar su competitividad y garantizar la confianza basada en los valores de la UE. 

Tras la publicación de la  Estrategia europea sobre IA  en 2018 y tras una amplia consulta con las partes interesadas, el Grupo de expertos de alto nivel sobre inteligencia artificial (HLEG) desarrolló  unas Directrices para una IA fiable en 2019 y una Lista de evaluación de una IA fiable en 2020. Paralelamente, El primer  Plan Coordinado sobre IA  se publicó en diciembre de 2018 como un compromiso conjunto con los Estados miembros.

El  Libro Blanco de la Comisión sobre la IA , publicado en 2020, estableció una visión clara para la IA en Europa: un ecosistema de excelencia y confianza, que sienta las bases para el acuerdo político de hoy. La  consulta pública  sobre el Libro Blanco sobre la IA suscitó una amplia participación de todo el mundo. El Libro Blanco iba acompañado de un " Informe sobre las implicaciones de seguridad y responsabilidad de la inteligencia artificial, el Internet de las cosas y la robótica " en el que se llega a la conclusión de que la actual legislación sobre seguridad de los productos contiene una serie de lagunas que es necesario abordar, en particular en la Directiva sobre máquinas.

La investigación independiente y basada en evidencia producida por el Centro Común de Investigación (JRC) ha sido fundamental para dar forma a las políticas de IA de la UE y garantizar su implementación efectiva. A través de investigaciones y análisis rigurosos, el JRC ha apoyado el desarrollo de la Ley de IA, informando sobre la terminología de IA, la clasificación de riesgos, los requisitos técnicos y contribuyendo al desarrollo continuo de normas armonizadas.   

Declaración de la presidenta von der Leyen sobre el acuerdo político sobre la Ley de IA de la UE

La inteligencia artificial ya está cambiando nuestra vida cotidiana. Y esto es sólo el principio. Si se utiliza de manera inteligente y amplia, la IA promete enormes beneficios para nuestra economía y sociedad.

Por lo tanto, acojo con gran satisfacción el acuerdo político alcanzado hoy por el Parlamento Europeo y el Consejo sobre la Ley de Inteligencia Artificial. La Ley de IA de la UE es el primer marco jurídico integral sobre inteligencia artificial en todo el mundo. Entonces, este es un momento histórico. La Ley de IA traslada los valores europeos a una nueva era. Un compromiso que asumimos en nuestras directrices políticas para este mandato de la Comisión, y lo cumplimos.

El acuerdo de hoy centra la regulación en riesgos identificables, proporciona seguridad jurídica y abre el camino a la innovación en IA confiable. Al garantizar la seguridad y los derechos fundamentales de las personas y las empresas, la Ley apoyará el desarrollo, el despliegue y la adopción de la IA en la UE, centrados en las personas, transparentes y responsables.

Esa visión nos guió cuando presentamos por primera vez la Ley de IA en abril de 2021, y nuevamente hace apenas unas semanas, cuando decidimos abrir nuestras supercomputadoras de clase mundial a las pymes y empresas emergentes europeas de IA. Al acelerar la formación y las pruebas de IA y reducir el tiempo de formación de meses a semanas, se ayudará a la comunidad de IA de la UE a crecer de forma responsable. Al mismo tiempo, estamos invirtiendo más de mil millones de euros al año de los programas Horizonte Europa y Europa Digital en investigación e innovación en IA.

Hasta que la Ley sea plenamente aplicable, apoyaremos a las empresas y a los desarrolladores para que se anticipen a las nuevas normas. Alrededor de 100 empresas ya han expresado su interés en unirse a nuestro Pacto sobre IA, mediante el cual se comprometerían de forma voluntaria a implementar obligaciones clave de la Ley antes de la fecha límite legal.

Nuestra Ley de IA también hará una contribución sustancial al desarrollo de barreras globales para una IA confiable. Continuaremos nuestro trabajo a nivel internacional, en el G7, la OCDE, el Consejo de Europa, el G20 y las Naciones Unidas. Recientemente, apoyamos el acuerdo de los líderes del G7 en el marco del proceso de IA de Hiroshima sobre principios rectores internacionales y un código de conducta voluntario para sistemas avanzados de IA.

Me gustaría agradecer tanto al Parlamento Europeo como al Consejo su arduo y diligente trabajo para llegar al acuerdo de hoy.