Europa llega a un acuerdo sobre las primeras normas integrales de IA del mundo


 Los pros y los contras de la Unión Europea finalmente han llegado a un acuerdo sobre el primer conjunto de regulaciones universales que rigen la inteligencia artificial.


En Londres, los negociadores de la Unión Europea alcanzaron el viernes las primeras directrices completas sobre inteligencia artificial. Esto prepara el escenario para la gobernanza legislativa de la tecnología de inteligencia artificial, que tiene tanto el potencial de revolucionar la vida diaria como la audacia de sugerir que la humanidad enfrenta amenazas existenciales.



Los negociadores del Parlamento Europeo y los 27 estados miembros de la unión alcanzaron un acuerdo político preliminar para la Ley de Inteligencia Artificial, a pesar de importantes desacuerdos sobre temas polémicos como la IA generativa y el uso de monitoreo de reconocimiento facial por parte de las fuerzas del orden.




El comisario europeo Thierry Breton tuiteó "¡Acuerdo!" poco antes de la medianoche. "Con el establecimiento de regulaciones claras para el uso de la IA, la Unión Europea se convierte en el primer continente en hacerlo."




El resultado fue producto de largas discusiones a puerta cerrada que comenzaron el jueves y continuaron hasta el viernes por la mañana. La primera sesión duró 22 horas.




Para garantizar el éxito político de la legislación emblemática, los funcionarios estaban bajo intensa presión de tiempo. Sin embargo, los grupos de la sociedad civil han estado esperando pacientemente a que se resolvieran los detalles técnicos en las próximas semanas, por lo que han dado una respuesta fría. Argumentaron que el acuerdo no protegía adecuadamente a las personas de posibles daños relacionados con la IA.


El trabajo técnico sobre las características críticas de la Ley de IA, que aún faltan, comenzará hoy como resultado del acuerdo político alcanzado hoy, según Daniel Friedlaender, jefe de la oficina europea de la Asociación de la Industria de Computadoras y Comunicaciones, un grupo de presión para la industria tecnológica. industria.




Al publicar sus regulaciones preliminares sobre IA en 2021, la Unión Europea (UE) fue de lejos la pionera en la carrera mundial para establecer redes de seguridad para la IA. Pero en medio del actual aumento de la IA generativa, los funcionarios europeos se apresuran a revisar un plan que podría convertirse en un estándar global.




Según Brando Benifei, un legislador italiano que codirige los esfuerzos de negociación del organismo, hablando con The Associated Press el viernes por la noche, el Parlamento Europeo aún necesita votar sobre la legislación a principios del próximo año. Sin embargo, una vez cerrado el trato, eso es sólo una formalidad.




Respondió por mensaje de texto: "Es muy, muy bueno", cuando se le preguntó si cumplía con todos sus requisitos. Quiero decir, vamos, tuvimos que ceder un poco, pero en general fue genial. Se podrían imponer multas impactantes de hasta 35 millones de euros (38 millones de dólares), o el 7% de la facturación mundial de una empresa, por infracciones en virtud de la eventual ley, que no entraría plenamente en vigor hasta 2025 a más tardar.




El rápido desarrollo de sistemas de inteligencia artificial generativa como ChatGPT de OpenAI ha causado revuelo, tanto entre los usuarios asombrados por la capacidad de los sistemas para crear texto, fotografías y música similares a los humanos como entre aquellos preocupados por las amenazas a los empleos, la privacidad y la protección de los derechos de autor. y, finalmente, la vida humana.


Aunque todavía están tratando de ponerse al día con Europa, Estados Unidos, el Reino Unido, China y coaliciones globales como el Grupo de las 7 principales democracias han introducido recientemente leyes para controlar la inteligencia artificial.




Anu Bradford, profesora de la Facultad de Derecho de Columbia y autoridad en derecho y regulación digital de la UE, afirmó que las regulaciones sólidas y abarcadoras de la UE "pueden ser un poderoso ejemplo para muchos gobiernos que estén considerando regularlas". No se copiarán todas las disposiciones, pero sí muchas de sus características.




Continuó diciendo que las empresas de IA regidas por las regulaciones de la UE seguramente también asumirán algunas de sus responsabilidades fuera de Europa. "Reentrenar modelos separados para diferentes mercados no es eficiente", comentó.




La intención inicial de la Ley de IA era abordar los riesgos planteados por diversas funciones de la IA, clasificados desde "muy bajo" hasta "muy inaceptable", según sus respectivos niveles de riesgo. Sin embargo, los legisladores quieren ampliar su aplicabilidad a los modelos básicos: los sistemas sofisticados sobre los que se construyen los servicios de inteligencia artificial de propósito general como ChatGPT y el chatbot Bard de Google.




A primera vista, los modelos de fundaciones parecían ser el principal ámbito de discordia en Europa. Sin embargo, al comienzo de las negociaciones, los negociadores pudieron llegar a un acuerdo preliminar, a pesar de la resistencia de Francia, que abogó por la autorregulación para ayudar a las empresas nacionales europeas de IA generativa a competir con las grandes empresas estadounidenses, en particular Microsoft, que compatible con OpenAI.


Estos sistemas se enseñan utilizando enormes colecciones de texto e imágenes recuperadas de Internet; También se les llama modelos de lenguaje masivo. Permiten que los sistemas de IA generativa generen nuevas ideas, a diferencia de la IA convencional que sigue reglas predefinidas para procesar datos y realizar tareas.




Para cumplir con los requisitos de la ley de derechos de autor de la UEy para proporcionar información sobre los materiales de capacitación utilizados, las empresas que construyen modelos de cimientos deberán crear documentación técnica. Se requerirán evaluaciones y mitigaciones adicionales de "riesgos sistémicos", informes de incidentes importantes, implementación de medidas de ciberseguridad e informes de eficiencia energética de los modelos básicos más sofisticados que presentan tales peligros.




Según los investigadores, los ciberataques, el desarrollo de armas biológicas y la desinformación y manipulación en línea podrían verse acelerados por los sólidos modelos básicos de un pequeño número de grandes empresas de tecnología.




Dado que estos modelos sirven como base para que los desarrolladores de software creen servicios impulsados por IA, a los defensores de la privacidad les preocupa que los desarrolladores no puedan decirles a los usuarios qué datos se utilizaron para entrenarlos, lo que podría tener graves consecuencias para la vida cotidiana de las personas.




Las tecnologías de vigilancia con reconocimiento facial de inteligencia artificial (IA) se convirtieron en el tema más polémico y, tras una intensa negociación, se llegó a una solución.


Debido a preocupaciones sobre la privacidad, los parlamentarios europeos solicitaron una prohibición total del uso de escaneo facial y otros dispositivos de "identificación biométrica remota" en espacios públicos. Pero los gobiernos de los países miembros pudieron negociar excepciones, permitiendo que las fuerzas del orden las utilizaran en la lucha contra el terrorismo y la explotación sexual infantil.




La ausencia de salvaguardias para los sistemas de IA empleados en el control de migración y fronteras, así como la decisión de los desarrolladores de evitar que sus sistemas sean clasificados como de alto riesgo, estuvieron entre las principales preocupaciones expresadas por los grupos de derechos humanos en relación con las exenciones de la Ley de IA y otras importantes defectos.




Según Daniel Leufer, analista político senior del grupo de derechos digitales Access Now, "permanecerán enormes fallas en este texto final" independientemente de los resultados de las negociaciones.

Publicar un comentario

Artículo Anterior Artículo Siguiente