Saltar al contenido

«Al ritmo al que estamos avanzando, la legislación jamás alcanzará a la realidad»

Eduardo Brenes Sonicwall

A medida que la inteligencia artificial se integra más en nuestras vidas, la necesidad de una regulación clara y efectiva se hace más evidente. Con la introducción del Reglamento de Inteligencia Artificial (IA) de la Unión Europea, se busca establecer un marco que garantice tanto la innovación como la protección ética de los ciudadanos.

Para entender las complejidades y los desafíos de esta nueva legislación, contamos con la opinión de Eduardo Brenes, prescriptor y evangelista de ciberseguridad para empresas que desean reducir el riesgo en SonicWall. Su análisis ofrece una visión esclarecedora sobre cómo la ley pretende integrarse en el panorama tecnológico actual y sus posibles efectos en la sociedad y la economía.

¿Qué destacas de la nueva ley de IA?

En primer lugar, he de destacar que no se aprende a nadar cuándo te estás ahogando. Como sociedad, no somos conscientes del impacto que va a tener la IA generativa, independientemente de a lo que nos dediquemos…

Todo lo que suene a descentralización, independencia y libertad, no les gusta a las élites, que al tener un mayor nivel de consciencia de la colisión del tsunami que tenemos encima, se están apresurando a legislar la IA Gen. Sobre todo, en Europa, que se nos da mal innovar, pero fenomenal legislar.

OpenAI, Meta o Google han afirmado abiertamente que su objetivo es la «IA General». En este sentido, OpenAI lleva la delantera con el modelo Sora lanzado el 15 de febrero, que es un «simulador de mundos» con el que ya pueden interpretar la realidad, tal y como lo hacemos los humanos.

La Ley de IA Europea divide los riesgos de cada herramienta de IA Gen que quiera operar en la Unión Europea, en cuatro categorías: riesgo inaceptable (prohibido), alto riesgo (regulado), riesgo limitado (obligado a transparencia y con un disclaimer) y riesgo mínimo (no regulado).

Creo que es tremendamente complejo legislar la IA Gen y todo tiene sus pros y contras, pero para mí es como tratar de legislar el fuego, es inabarcable. Sin embargo, estoy de acuerdo en que se regulen las herramientas de IA que tengan un riesgo inaceptable (puntuación social, categorización biométrica, evaluación del riesgo de que un individuo cometa delitos (Minority Report), etc.

¿Cómo afectará a las empresas la nueva legislación?

Quizás estamos poniéndolo tan difícil en Europa, que a lo mejor a OpenAI o a Microsoft, no les interesa operar aquí con ChatGPT y Copilot…De momento no se puede asegurar que estas herramientas sean infalibles y no «alucinen» nunca. La mayor parte del reglamento de la UE habla de las herramientas de IA que son de «alto riesgo» y que se deben regular. El problema, es que esto va a impactar en la innovación y en la competencia de pequeñas empresas que no podrán afrontar los costes legales del cumplimiento de la norma y que, de esta forma, quedarán a merced de las grandes tecnológicas que sí podrán afrontar el «compliance«.

Las prohibiciones entrarán en vigor después de 6 meses, las normas de gobernanza y las obligaciones para los modelos de IA de propósito general serán aplicables después de 12 meses y las normas para los sistemas de IA, integradas en productos regulados, se aplicarán después de 36 meses. Al ritmo al que estamos avanzando, la legislación jamás alcanzará a la realidad.

En definitiva, creo que hay que mantener el control de las IAs por parte de los humanos, pero en una fase tan incipiente, apresurarse a legislar nos va a desplazar competitivamente, frente a otros bloques como USA o China que avanzarán mucho más rápido que Europa.

Comparte en tus redes:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias relacionadas