Desde que Meta introdujo inconsulta y forzozamente la inteligencia artificial (IA) en la vida de los usuarios de Whatsapp, muchos se preguntan si es posible desactivar ese botón que crea tantas dudas sobre sus alcances. La respuesta es que en la Argentina no, pues no hay regulación al respecto. Pero en Europa sí: este jueves entró en vigencia allí la nueva ley para regular la IA, una legislación inédita a nivel mundial, con el objetivo de fomentar la innovación pero sobre todo limitar los posibles abusos de esta nueva tecnología. De hecho, en los países de la UE, Meta no puso en marcha la IA en sus aplicaciones.
«Hoy (por este jueves) entra en vigor la Ley de Inteligencia Artificial», escribió Ursula von der Leyen, la presidenta de la Comisión Europea, en la red social X. Se trata del «marco pionero de Europa para una IA innovadora y segura», añadió la dirigente del brazo ejecutivo del bloque de 27 estados miembros. Von del Leyen aseguró que la nueva normativa «impulsará el desarrollo de una IA en la que los europeos puedan confiar». «Brindará apoyo a las pymes y a las empresas emergentes europeas para llevar al mercado soluciones de IA de vanguardia», continuó.
La mayor parte de la legislación se aplicará a partir de 2026 pero algunas disposiciones ya serán vinculantes el año que viene.
La norma adopta un planteamiento «basado en el riesgo» e impone a los diversos sistemas de IA limitaciones proporcionales a los peligros que plantean a la sociedad.
Los sistemas que sólo presenten un riesgo limitado estarán sujetos a obligaciones de transparencia muy leves, mientras que los de alto riesgo, utilizados por ejemplo en infraestructuras críticas, educación, recursos humanos o aplicación de la ley, estarán sujetos a requisitos reforzados antes de ser autorizados.
Estos requisitos incluirán por ejemplo un control humano, el establecimiento de una documentación técnica o la puesta en marcha de un sistema de gestión del riesgo.
Las prohibiciones serán raras y atañarán aplicaciones contrarias a los valores europeos, como los sistemas de calificación ciudadana o de vigilancia masiva.
La Argentina parece ir en sentido contrario: el gobierno nacional anunció esta semana la creación de la Unidad de Inteligencia Artificial Aplicada a la Seguridad (Uiaas), que operará dentro de la Dirección de Ciberdelito y Asuntos Cibernéticos y tendrá entre sus tareas «patrullar la redes sociales abiertas», algo en lo que Bullrich tiene atencedentes de operativos y detenciones irrisorias tanto en la actual gestión como en la de Mauricio Macri.
La resolución destaca la utilización de IA para tareas de «reconocimiento facial», una tecnología aplicada por el PRO en la Ciudad de Buenos Aires, con denuncias y sentencias de inconstitucionalidad por parte del Poder Judicial, y avanza en la posibilidad de «analizar imágenes de cámaras de seguridad en tiempo real». Además, crea como tarea de la Uiaas la de «patrullar mediante drones áreas extensas, proporcionar vigilancia aérea y responder a emergencias».
Al respecto, la activista y presidenta de la Fundación Vía Libre, Beatriz Busaniche, especializada en derechos y tecnologías digitales, advirtió que «es una resolución problemática por donde uno la mire, porque supone que la IA tiene capacidades que realmente no tiene«. «Esta moda de ponerle IA a todo nos está llevando por un camino que puede terminar muy mal, y esta resolución del Gobierno es elocuente del mal uso de la IA», agregó.
Justamente, en Europa la nueva normativa permite o prohíbe el uso de la IA en función del riesgo que suponga para los ciudadanos y, con ella, la UE pretende dar ejemplo al resto del mundo e impulsar a la industria europea frente a Estados Unidos y China.
En líneas generales, la ley europea de inteligencia artificial prohíbe la vigilancia masiva en espacios públicos, pero permite que las fuerzas del orden puedan emplear las cámaras de identificación biométrica, con previa autorización judicial, para prevenir una amenaza terrorista inminente.
También para localizar o identificar a una persona que haya cometido delitos de terrorismo, tráfico de personas, explotación sexual o, por ejemplo un crimen medioambiental, así como para buscar a las víctimas de estos delitos.
Asimismo, el reglamento establece una serie de obligaciones para los sistemas de inteligencia artificial generativa en los que se basan programas como ChatGPT, de la empresa OpenAI, o Bard, de Google.
En concreto, tendrán que especificar si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.
Además, se identifica toda una serie de sistemas de inteligencia artificial de alto riesgo que sólo se podrán comercializar si sus desarrolladores garantizan que respetan los derechos fundamentales. Por ejemplo, los que puedan influir en el resultado de unas elecciones o los que empleen las entidades financieras para evaluar la solvencia y la calificación crediticia de los clientes.
El nuevo reglamento fue adoptado por los 27 estados miembros de la UE el 21 de mayo tras ser adoptado por el Parlamento Europeo con una amplia mayoría. Los legisladores de la UE llegaron a un acuerdo sobre este texto en diciembre, tras difíciles negociaciones en las que algunos países, como Francia, temían una regulación excesiva.
El ejemplo del chat de Meta no es azaroso: al momento, ya desembarcó en Chile, México, Colombia y Ecuador, pero no será utilizado en Brasil, ni tampoco en los países que componen la Unión Europea: la UE es la región que se muestra más reticente a aceptar estas aplicaciones y desconfía de las interacciones entre las nuevas IAs y las personas.