A medida que la inteligencia artificial se integra más en nuestras vidas, la necesidad de una regulación clara y efectiva se hace más evidente. Con la introducción del Reglamento de Inteligencia Artificial (IA) de la Unión Europea, se busca establecer un marco que garantice tanto la innovación como la protección ética de los ciudadanos.
En este contexto, Juanjo Martínez, CISO Advisor y fundador de ThousandGuards, nos ofrece una visión detallada sobre la recién aprobada ley de IA, sus implicaciones y el futuro de la inteligencia artificial en la sociedad.
¿Qué destacarías de la nueva ley de IA?
En primer lugar, cabe destacar la diferencia entre la mentalidad americana y la mentalidad europea. La mentalidad americana se dedica a innovar y desplegar lo más rápido posible grandes innovaciones tecnológicas sin pararse demasiado a pensar los daños colaterales a los que podría conducir su abuso, dejando en manos de los propios actores la capacidad de controlarse a sí mismos para hacer exclusivamente un uso socialmente beneficioso de las mismas.
Por otro lado, encontramos la mentalidad europea, capaz de examinar las innovaciones desde el punto de vista de la responsabilidad social y la protección de derechos fundamentales de los ciudadanos para regular su uso, y establecer unos marcos de actuación que todos tengamos que respetar.
De manera general, me siento bastante cómodo con la primera mentalidad, quizás porque he trabajado mucho en empresas americanas, o porque admiro a los innovadores, y me siento más identificado con ellos que con los que los regulan.
Sin embargo, en el caso de la Inteligencia Artificial, estoy a favor de la regulación, y de que se haya puesto en marcha desde el primer momento en que se ha hecho evidente el impacto de esta tecnología en muchísimos ámbitos de nuestra vida cotidiana. Ya que los riesgos derivados de un mal uso de la IA pueden ser muy altos, llegando a poner en riesgo la vida humana misma, o derechos fundamentales como la privacidad, el derecho a no ser discriminado por ninguna condición personal, los derechos de protección de los grupos sociales más vulnerables, o la empatía y el discernimiento humano en la toma de decisiones.
La nueva normativa clasifica estos riesgos en cuatro categorías: no aceptables, altos, limitados y mínimos, estableciendo una serie de controles que las propias empresas deben adoptar en función del tipo de riesgo. De esta manera, los sistemas de IA que supongan una amenaza a los derechos fundamentales, como sistemas de puntuación social o que permitan manipular el comportamiento humano, están prohibidos.
La ley establece importantes multas por incumplimiento, que pueden ser de hasta 30 millones de euros o el 6 % de las ventas globales.
¿Cómo afectará a las empresas la nueva legislación?
La IA será un nuevo eje que añadir a la gobernanza de las corporaciones. Las empresas estarán obligadas a adoptar los procesos y mecanismos de control y gobierno de la AI que sean necesarios para asegurar el cumplimiento de la normativa. Además de su responsabilidad social, las fuertes multas constituyen un fuerte incentivo para la gobernanza.
Como en otras áreas de la gobernanza, será necesario un nivel adecuado de compromiso entre los objetivos estratégicos de negocio y los aspectos de cumplimiento. Los sistemas de AI estarán sujetos a auditoría y monitorización, mientras que las empresas estarán obligadas a documentar sus modelos de aprendizaje, así como las fuentes que se han utilizado para alimentarlos. También deberán informar a sus clientes de las situaciones en las que están interactuando con la IA.
En definitiva, estamos ante una herramienta muy potente y de gran valor para el negocio que será necesario alinear con una estricta gobernanza y desde la óptica de la Responsabilidad Social Corporativa.