Elon Musk y más de 1.000 investigadores firman una carta pidiendo pausar el desarrollo de las IAs avanzadas

El fundador y multimillonario dueño de Tesla, Elon Musk, ha hecho un llamamiento junto a otros más de 1.000 investigadores tecnológicos para pausar el desarrollo de inteligencias artificiales avanzadas durante al menos seis meses con el fin de frenar lo que han denominado “una peligrosa carrera que está llevando al desarrollo de modelos más impredecibles y con capacidades cada vez mayores”. 

La carta, impulsada por Future of Life Institute, una organización sin ánimo de lucro creada para vigilar la forma en la que se desarrolla la tecnología financiada en gran parte por el propio Musk, ha recibido más de 1.100 firmas en pocas horas y ha tenido que bloquear la inscripción ante la gran afluencia de solicitudes. Además de Musk, aparecen nombres como el del cofundador de Apple, Steve Wozniak, Jaan Tallin, cofundador de Skype y el de ingenieros de Meta o Microsoft entre otros integrantes del sector. 

“Los sistemas de inteligencia artificial pueden suponer un profundo riesgo para la sociedad y la humanidad. Por desgracia, no se está desarrollando con el nivel de planificación y cuidado adecuado”, arranca exponiendo el documento. Según Future of Life, se ha producido una competición para alcanzar la supremacía en este campo. En los últimos meses, organizaciones como OpenAI con su Chat GPT han demostrado las capacidades potenciales de la IA. Las grandes tecnológicas, principalmente Alphabet, Baidu, Meta y Microsoft, han intensificado sus apuestas por esta tecnología. “Se ha producido una carrera descontrolada para desarrollar sistemas cada vez más poderosos que nadie, ni siquiera sus creadores, entienden, predicen o pueden controlar con fiabilidad”. 

“Por esto, hacemos un llamamiento dirigido a todos los laboratorios de inteligencia artificial para que pausen de forma inmediata los desarrollos más potentes que GPT-4 durante al menos seis meses. Esta pausa deberá ser pública y verificable, e incluir a todos los actores clave. Si esta pausa no llega rápidamente, los Gobiernos deberían dar un paso al frente e imponerla”, escriben. 

La organización puntualiza que no están pidiendo que se deje de investigar la IA, sino que se haga de otra manera distinta a la actual forma que se está siguiendo. “Los laboratorios de inteligencia artificial y los expertos independientes deberían aprovechar la pausa para desarrollar e implementar de forma conjunta una serie de protocolos de seguridad para los diseños más avanzados que sean auditados y asegurados por expertos independientes”. Asimismo, piden a los Gobiernos que aceleren “dramáticamente” unos marcos regulatorios “capaces” de vigilar el desarrollo de estos sistemas y de configurar protocolos para resarcir los posibles daños que puedan causar. 

Precisamente, la Unión Europea está preparando una regulación sobre la inteligencia artificial conocida como la Artificial Intelligence Act. Según explica el World Economic Forum, esta regulación europea está basada en un sistema de escalas de riesgos. En el riesgo bajo estarían por ejemplo las IAs de videojuegos, que podrían funcionar con muy pocas exigencias regulatorias. 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *