Dale al play para escuchar este artículo
Expresado por inteligencia artificial.
LULEÅ, Suecia — Altos funcionarios europeos y estadounidenses se reunieron en Suecia el miércoles para conversar sobre tecnología y comercio y trataron de encontrar una respuesta a uno de los problemas más difíciles que enfrenta el mundo: cómo vigilar la inteligencia artificial.
Durante un almuerzo de una hora de lomo de bacalao y praliné de chocolate, los funcionarios de Washington y Bruselas redactaron un “código de conducta” voluntario diseñado para prevenir daños, incluso de la tecnología de inteligencia artificial más avanzada conocida como IA generativa, como ChatGPT de OpenAI y Google Bardo. En solo unos meses, la tecnología ha conquistado al público, despertando esperanzas y ansiedades por el futuro de la humanidad.
Mientras que algunos están entusiasmados con el potencial de la IA para generar código de computadora y resolver problemas médicos, otros temen que dejará sin trabajo a millones e incluso podría amenazar la seguridad.
“La democracia debe demostrar que somos tan rápidos como la tecnología”, dijo Margrethe Vestager, comisaria digital de Europa, a los periodistas al entrar en la cumbre del Consejo de Comercio y Tecnología (TTC) UE-EE. Círculo Artico.
El TTC se ha convertido en una reunión bianual donde los principales líderes transatlánticos, como el secretario de Estado de EE. UU., Antony Blinken, y el jefe comercial de la Unión Europea, Valdis Dombrovskis, intercambian ideas sobre enfoques comunes en todo, desde semiconductores hasta inversiones en tecnología verde. La cuarta edición de esta semana está dominada por cómo hacer retroceder a China, donde las dos partes aún luchan por ponerse de acuerdo.
Pero cuando se trata del auge de la inteligencia artificial, EE. UU. y la UE están cada vez más ansiosos por avanzar juntos.
“Está llegando a un ritmo como ninguna otra tecnología”, dijo Gina Raimondo, Secretaria de Comercio de EE. UU., refiriéndose a la IA generativa. “Tomará algún tiempo para que el Congreso de los Estados Unidos o el parlamento (de un país) o nuestras otras agencias reguladoras se pongan al día”.
Pero el plan conjunto todavía está en forma de borrador, en el mejor de los casos. Vestager le dijo a POLITICO que el código de conducta voluntario era actualmente una nota informativa de dos páginas producida por la Comisión Europea que ella había entregado personalmente a Raimondo el miércoles.
El gol, segundo el político danés, debe desarrollar estándares no vinculantes sobre transparencia, auditorías de riesgo y otros detalles técnicos para las empresas que desarrollan la tecnología. Esto se presentaría luego a los líderes del G7 como una propuesta transatlántica conjunta en otoño.
Con las regulaciones obligatorias de IA dentro de unos años, un código voluntario es, en el mejor de los casos, una alternativa hasta que se establezca una legislación vinculante.
“Estamos de acuerdo en que trabajaremos en esto, involucrando a colegas, para insertarnos en el proceso del G7”, dijo Vestager a los periodistas.
Si ese esfuerzo falla, potencialmente podría dejar una oportunidad para que China promueva su propia versión autoritaria de la tecnología en todo el mundo.
Donde Europa y Estados Unidos divergen
Sin embargo, sigue existiendo una enorme brecha en forma de IA entre Washington y Bruselas sobre las reglas.
La UE, impulsada por un historial de redacción de gran parte de la regulación digital que ahora domina el mundo occidental, está avanzando con reglas obligatorias para la IA que exigirían que las empresas no utilicen la tecnología de formas “dañinas” predefinidas. Para fines de diciembre, los funcionarios europeos esperan completar la Ley de IA de la UE, luego de difíciles negociaciones políticas que se prolongaron durante más de dos años.
Pero los países europeos y los miembros del Parlamento Europeo, que tienen que ponerse de acuerdo sobre un texto final, están en desacuerdo sobre algunos aspectos clave del texto, en particular sobre el reconocimiento facial en lugares públicos. Mientras tanto, la industria de la tecnología se ha resistido a lo que considera una supervisión demasiado onerosa de la IA generativa.
El esfuerzo en Bruselas ha tenido a la industria estadounidense, que está invirtiendo miles de millones de dólares en inteligencia artificial, mirando a la UE en busca de una legislación concreta, tal como lo hizo cuando el bloque comenzó a legislar la privacidad y la seguridad del contenido en línea.
EE. UU., por otro lado, prefiere un enfoque más directo, confiando en que la industria encuentre sus propias salvaguardas. Las continuas divisiones políticas dentro del Congreso hacen que sea poco probable que se apruebe una legislación específica sobre IA antes de las elecciones estadounidenses del próximo año.
La administración Biden ha hecho de la colaboración internacional en IA una prioridad política, especialmente porque la mayoría de las principales empresas de IA como Google, Microsoft y OpenAI tienen su sede en los Estados Unidos. Para Washington, ayudar a estas empresas a competir contra los rivales de China también es una prioridad de seguridad nacional.
En las últimas semanas, la Casa Blanca abrió sus puertas de par en par para la industria y a principios de mayo recibió a los directores ejecutivos de cuatro importantes empresas de IA para una discusión privada. Ha iniciado esfuerzos para lograr que las empresas de tecnología se comprometan voluntariamente con las normas sobre comportamiento responsable. Y cuando se trata de establecer estándares internacionales, impulsó el marco de gestión de riesgos desarrollado en los Estados Unidos por los Institutos Nacionales de Estándares y Tecnología.
Construyendo el enfoque occidental
El miércoles, altos funcionarios de EE. UU. y la UE intentaron solucionar estas lagunas con un enfoque basado en los principios globales existentes propuestos por la Organización para la Cooperación y el Desarrollo Económicos. Su objetivo era ir más allá de la OCDE al señalar específicamente los peligros potenciales de la IA generativa.
Un acuerdo marco daría a las empresas más certeza sobre cómo esta tecnología emergente será controlada por los dos bloques económicos occidentales más grandes. El objetivo es acelerar un código voluntario, aunque probablemente se basará en los estándares europeos existentes para la IA, y no está claro si los funcionarios y las empresas estadounidenses apoyarán tal enfoque.
“La claridad regulatoria será algo bueno”, dijo Sam Altman, director ejecutivo de OpenAI, la compañía de tecnología detrás de ChatGPT, en un evento en París la semana pasada, durante una gira europea que también incluyó Varsovia, Madrid, Múnich y Londres. . El jefe de tecnología se reunió virtualmente con Vestager el miércoles durante el cual discutieron el código de conducta voluntario propuesto.
Sin embargo, existen dudas de que la UE esté hablando con una sola voz.
Algunos funcionarios en Bruselas esperan adelantarse a algunas de las reglas del bloque en el llamado Pacto AI. un compromiso voluntario separado que las empresas pueden hacer en relación con la próxima ley europea de IA que probablemente entrará en vigor en 2026.
Thierry Breton, comisionado del mercado interno de la UE, dijo que cualquier coordinación regulatoria con socios de ideas afines como EE. UU. se basaría en el enfoque existente de Europa. “Si otros quieren inspirarse, por supuesto, son bienvenidos”, dijo.