Según la Ley Europea de Inteligencia Artificial o AI Act, la prioridad del Parlamento Europeo es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente.
La Ley Europea de Inteligencia Artificial clasifica la IA según su riesgo:
- Se prohíben los usos de IA con riesgos inaceptables. Esto significa que no se deben utilizar los siguientes tipos de modelos:
- IA subliminal, manipuladora o engañosa
- Modelos de IA que explotan vulnerabilidades relacionadas con la edad, la discapacidad o las circunstancias socioeconómicas para distorsionar el comportamiento, causando daños significativos.
- Sistemas de categorización biométrica que infieren atributos sensibles (como raza, opiniones políticas, afiliación sindical, creencias religiosas o filosóficas, vida sexual u orientación sexual), exceptuando el etiquetado o filtrado de conjuntos de datos biométricos adquiridos legalmente o cuando las fuerzas del orden categorizan datos biométricos.
- Sistemas de puntuación social.
- Sistemas que evalúan el riesgo de que una persona cometa delitos penales.
- Compilar bases de datos de reconocimiento facial de Internet o imágenes de CCTV.
- Inferir emociones en lugares de trabajo o instituciones educativas.
- Identificación biométrica remota (RBI) «en tiempo real» en espacios de acceso público para las fuerzas del orden.
- Sistemas de IA de alto riesgo: están regulados, y la AI Act se concentra sobre todo en esta tipología.
- Sistemas de IA de riesgo limitado: están sujetos a obligaciones de transparencia menos estrictas. Esto significa que los desarrolladores deben asegurarse de que los usuarios finales sean conscientes de que están interactuando con la IA (dejando así claro que hay un modelo de IA detrás de los chatbots y los deepfakes).
- Los modelos de IA de riesgo mínimo: no están regulados: entre ellos se encuentran la mayoría de las aplicaciones de IA que estaban disponibles en el mercado único de la UE en el momento de la entrada en vigor de la Ley de IA en 2021. Por ejemplo, videojuegos habilitados para IA y filtros de spam.
Claramente, este escenario está cambiando con la IA generativa, que aumenta el nivel de riesgo de los modelos de IA, convirtiéndolos en su mayoría de alto riesgo.
Aunque ahora las regulaciones de la IA están avanzando, creemos que los sistemas de IA deberían ser supervisados por las personas, en lugar de por la automatización, para evitar resultados perjudiciales. Esto incluye asegurarnos de que somos capaces de generar sistemas de IA fiables (trustworthy AI en inglés) que tengan un diseño justo y que sean explicables y claros para los responsables de la toma de decisiones.
Está claro que la legislación no acelerará la adopción de una IA responsable, pero son las organizaciones las que deben compartir experiencias y soluciones para mostrar cómo son las «buenas prácticas».
Los consejos de administración deben adoptar la responsabilidad digital corporativa para evaluar los impactos digitales de los productos/servicios en todas las partes interesadas, examinando los impactos sociales, económicos, tecnológicos y ambientales.
Por lo tanto, estamos apoyando a las empresas en su papel para garantizar que la tecnología no se despliegue en «casos de uso negativos» que puedan dañar a la sociedad y generar así modelos de IA que sean transparentes, eficaces, justos y responsables.
→ Consulta nuestra solución Trustworthy AI