Cinco alternativas para regular la inteligencia artificial
Aunque lo que han intentado para mantenerse al día con el desarrollo de la inteligencia artificial en general no ha sido suficiente, los reguladores de todo el mundo siguen adoptando enfoques muy distintos para establecer controles en torno a esta tecnología. En consecuencia, el panorama regulatorio global para esta tecnología sin fronteras, que promete transformar el mercado laboral y contribuir a la propagación de desinformación, además de que bien podría ser un riesgo para la humanidad, está de lo más fragmentado y es tremendamente confuso.
Estos son los principales marcos para la regulación de la IA:
La legislación basada en riesgos de Europa: La Ley de Inteligencia Artificial de la Unión Europea, que comenzó a negociarse el 6 de diciembre, asigna regulaciones proporcionales al nivel de riesgo que presenta una herramienta de IA. La idea es crear una escala proporcional de regulaciones diseñada para asignarle las restricciones más estrictas a los sistemas de IA más riesgosos. Esta legislación pretende categorizar las herramientas de inteligencia artificial con base en cuatro designaciones: riesgo inaceptable, alto, limitado y mínimo.
Algunos ejemplos de riesgos inaceptables son los sistemas de IA que se encargan de la clasificación social de las personas o el reconocimiento facial en tiempo real en espacios públicos. Este tipo de sistemas estarían prohibidos. Otras herramientas menos riesgosas, como el software que genera videos manipulados e imágenes ultrafalsas (deepfake), deben informarles a los espectadores que el contenido que observan fue generado con IA. A los infractores podrían imponérseles multas del 6 por ciento de sus ventas globales. Algunos ejemplos de sistemas de riesgo mínimo son los filtros de correo basura y los videojuegos generados con IA.