LOGO_AIR_IAB_N_HD.jpg

La realeza tecnológica de EE UU al completo acude al Congreso para tratar la regulación de la inteligencia artificial

Elon Musk, Mark Zuckerberg, Bill Gates y Sundar Pichai, entre otros, han abordado con los legisladores la necesidad de reglas para controlar los peligros de esta tecnología emergente.

Todo el quién es quién de la alta tecnología estadounidense estaba este miércoles en el Capitolio en Washington. Por primera vez, los grandes pesos pesados del sector, desde el consejero delegado de Tesla Elon Musk al de Meta (Facebook), Mark Zuckerberg, pasando por el líder de Alphabet (Google) Sundar Pichai, y el fundador de Microsoft Bill Gates, comparecían como grupo en el Senado. El motivo, participar con sus sugerencias en una sesión a puerta cerrada sobre una de las cuestiones más candentes del momento: la regulación de la inteligencia artificial. Un objetivo con el que todos están de acuerdo. Las diferencias están en cómo, y hasta qué punto, hacerlo. Algo sí parece claro: no hay muchos entusiastas del modelo europeo.

Que la veintena de ejecutivos, cuyas cuentas de resultados conjuntas superan el PIB de unos cuantos países, acudieran a la convocatoria lanzada por el líder de la mayoría demócrata en el Senado, Charles Schumer, ya apunta a la importancia del asunto. Varios de ellos se han pronunciado en diversas ocasiones en favor de medidas de control para un área sobre la que llueven las inversiones y que ha despertado un enorme interés en toda la sociedad desde el lanzamiento del chatbot ChatGPT hace menos de un año.

“Es importante que tengamos un árbitro”, declaraba Musk a la prensa a su salida de la reunión, donde describió esta tecnología como “un arma de doble filo”. La figura de un regulador —apuntaba— es necesaria “para garantizar que las empresas toman medidas que sea seguras y que beneficien al público”. Zuckerberg, por su parte, apuntó que “es mejor que quienes fijen los estándares sean las empresas estadounidenses que pueden colaborar con nuestro gobierno para dar forma a estos modelos en asuntos importantes”.

Schumer aspira a aprobar legislación a lo largo del año próximo —antes de las presidenciales de noviembre, para evitar posibles injerencias de esta tecnología en el proceso electoral— que permita, por un lado, incentivar el rápido desarrollo de la inteligencia artificial y recibir sus beneficios. Y que, por otro, ponga freno a los peligros que plantea este sector antes de que su incorporación plena a la vida diaria sea un hecho consumado. Los legisladores aspiran a controlar riesgos como la injerencia electoral, la difusión de información falsa o el ataque a infraestructuras clave.

La idea es evitar que se repita lo ocurrido con otros sectores tecnológicos como las redes sociales, a las que se permitió expandirse sin regulación. Ahora, ya convertidas en herramientas de uso habitual entre la población, acarrean toda una serie de problemas —difusión de noticias falsas y contenido dañino, acusaciones de fomentar problemas de salud mental entre adolescentes y niños— pero se han demostrado complicadas a la hora de ponerles cortapisas en Estados Unidos. Numerosos intentos en el Congreso estadounidense de sacar adelante proyectos de ley que las limiten han acabado quedando en nada, al menos por el momento. En parte, por las presiones de las poderosas compañías tecnológicas, y en parte por los desacuerdos entre los propios legisladores.

En esta ocasión, está por ver si los congresistas tienen finalmente éxito. El senador por Nueva Jersey Cory Booker indicaba que en el foro todos los participantes han estado de acuerdo que “el gobierno tiene un papel regulador”. Pero también matizaba que redactar un proyecto de ley que salga adelante representará un desafío.

La regulación de la inteligencia artificial, apuntaba el propio Schumer en vísperas de la sesión en una entrevista para la agencia AP, será “uno de los asuntos más difíciles que podamos atajar nunca”. Ello por su complejidad tecnológica, sus constantes cambios y por su “enorme, amplio impacto en todo el mundo”.

“Hoy comenzamos un cometido enorme, complejo y fundamental: crear una base para una política sobre inteligencia artificial que cuente con el respaldo de los dos partidos (el Demócrata y el Republicano) y que el Congreso pueda aprobar”, declaraba Schumer en su discurso de apertura de la sesión. “El Congreso debe desempeñar un papel, porque sin el Congreso no sacaremos el máximo rendimiento a la inteligencia artificial ni reduciremos sus riesgos”.

Más tarde dejaba claro que entre sus ideas no entra el reproducir el modo de actuar de la UE. “Si se va demasiado rápido, se puede perjudicar a las cosas. La Unión Europea ha ido demasiado rápido”, consideraba, en referencia a la legislación sobre esta tecnología que aprobó el Parlamento Europeo en junio y que está ahora pendiente del visto bueno en el Consejo y de consultas con los 27 países miembros.

La medida europea sobre inteligencia artificial, la primera del mundo, afecta a cualquier producto o servicio que emplee esas herramientas y los clasifica en cuatro niveles de riesgo, del mínimo al inaceptable. Obliga a dejar claro cuándo se incluye material generado por inteligencia artificial e incluye salvaguardas contra contenido ilícito. Pero en una carta abierta, más de 160 dirigentes de empresas sostienen que el proyecto de ley pone en peligro la competitividad y la soberanía tecnológica de la UE.

Entre los presentes en el Capitolio este miércoles se encontraban, además de los ya mencionados, los consejeros delegados de Nvidia, Jensen Huang; de IBM, Arvind Krishna; de Open AI, Sam Altman, o de Microsoft, Satya Nadella. Junto a ellos, la presidenta de la central sindical AFL-CIO Liz Shuler.

El interés por ChatGPT

La presentación del chatbot ChatGPT hace menos de un año disparó el interés sobre un sector y unas capacidades que hasta poco antes hubieran podido sonar como de ciencia ficción. Estos sistemas de generación de contenido pueden crear imágenes y sonido, programas informáticos o texto indistinguibles de los salidos de una mano humana. Al tiempo que estas herramientas abren enormes posibilidades a las personas y empresas, también generan temor sobre cómo puedan emplearse y su impacto sobre puestos de trabajo existentes, y han suscitado llamamientos a una mayor transparencia sobre su uso.

En marzo, Elon Musk y un grupo de empresarios y expertos en inteligencia artificial habían pedido una pausa de seis meses en el desarrollo de sistemas más potentes que el GPT-4 de Open AI, con el argumento de posibles riesgos para la sociedad. En mayo, Altman advertía en el Congreso que “mi mayor miedo es que esta tecnología salga mal. Y si sale mal, puede salir muy mal”. Ese mismo mes, 350 empresarios y expertos en el sector advertían de que esta tecnología representa un “riesgo de extinción” para la humanidad. George Hinton, uno de los padres de esta tecnología, dejó Google porque cree que estos programas pueden llevarnos al fin de la civilización en cuestión de años. Un informe de la empresa de análisis de mercado Forrester calcula que para 2030 la inteligencia artificial podría sustituir 2,4 millones de puestos de trabajo en Estados Unidos.

No necesariamente los senadores aceptarán todas las sugerencias de los dirigentes tecnológicos. Pero los participantes en la sesión esperaban que el encuentro lleve a una mejor comprensión en el Congreso de las realidades del sector, sus riesgos y sus ventajas, y de qué es lo que se puede hacer.

Ya se han presentado algunas propuestas concretas, incluido un proyecto de ley que obligaría a incluir advertencias en, por ejemplo, propaganda electoral generada por inteligencia artificial que incluya sonidos o imágenes que puedan inducir a equívocos. Otra iniciativa prevé la creación de un organismo regulador que estudie determinados sistemas de inteligencia artificial antes de adjudicarles una licencia de funcionamiento.

En julio, la Casa Blanca planteó una serie de compromisos voluntarios a las empresas de inteligencia artificial, que buscan garantizar que las capacidades de ese sector no se emplean con fines dañinos. Entre otras cosas, se prevé la obligatoriedad de incluir un sello o una marca de agua en el contenido generado por inteligencia artificial, dada la dificultad —o imposibilidad— de distinguir entre imágenes o texto producidos por estos programas y la realidad. La Casa Blanca también trataba en una orden ejecutiva sobre inteligencia artificial.

El martes, ocho empresas del sector, entre ellas Adobe, IBM y Nvidia, anunciaron su adhesión a los compromisos voluntarios pedidos por la oficina presidencial.

Fuente: El País