Carta abierta a la inteligencia artificial: miles de expertos piden pausar su desarrollo para garantizar la seguridad

Carta abierta a la inteligencia artificial: miles de expertos piden pausar su desarrollo para garantizar la seguridad

La carta es consecuencia del lanzamiento de GPT-4 por parte de OpenAI.

MĆ”s de mil personas, entre ellasĀ Elon MuskĀ y Steve Wozniak, cofundador de Apple, han firmado una carta abierta en la que se pideĀ pausar el desarrollo de sistemas deĀ inteligencia artificial, que empiezan a ser muy potentes, para garantizar la seguridad.

La carta es la consecuencia del lanzamiento de GPT-4 por parte de OpenAI y cuenta con el apoyo de Microsoft.

OpenAI ha declarado que su Ćŗltimo modelo de inteligencia artificial es mucho mĆ”s potente que la versiĆ³n interior, empleada paraĀ ChatGPT, el bot que es capaz de generar fragmentos de texto a partir de muy pocas instrucciones.

La carta abierta lleva por tĆ­tulo “Pausa a los experimentos gigantes de IA” y en ella pueden leerse frases como esta: “Los sistemas de IA con inteligencia humana competitiva pueden plantear profundos riesgos para la sociedad y la humanidad” y esta: “Los sistemas de IA potentes deberĆ­an desarrollarse sĆ³lo cuando estemos seguros de que sus efectos serĆ”n positivos y sus riesgos controlables”.

El propio Elon Musk, que ha firmado la carta, fue uno de los primeros inversores de OpenAI y formĆ³ parte de su consejo de administraciĆ³n durante varios aƱos. Una de las empresas del magnate multimillonario, Tesla, desarrolla sistemas de inteligencia artificial para avanzar en la tecnologĆ­a de conducciĆ³n autĆ³noma.

El texto que recoge la peticiĆ³n estĆ” promovido por el Future of Life Institute, entidad financiada por Musk. En Ć©l han firmado personas que se muestran crĆ­ticas con OpenAI, asĆ­ como competidores de la compaƱƭa responsable de ChatGPT.

Yoshua Bengio, que es pionero de la inteligencia artificial en CanadĆ” y que tambiĆ©n ha firmado la carta dijo en una rueda de prensa virtual “que la sociedad no estĆ” preparada” para esta herramienta tan poderosa y sus posibles usos indebidos.

“Vayamos mĆ”s despacio. AsegurĆ©monos de que desarrollamos mejores guardarraĆ­les”, dijo, pidiendo un debate internacional exhaustivo sobre laĀ IAĀ y sus implicaciones, “como hemos hecho con la energĆ­a nuclear y las armas nucleares”.

En la carta los autores citaban las palabras del fundador de OpenAI, Sam Altman, quien escribiĆ³ en un blog que ā€œen algĆŗn momento puede ser importante obtener una revisiĆ³n independiente antes de empezar a entrenar futuros sistemas“. Los firmantes le dan la razĆ³n y afirman que ese momento ha llegado.

“Hacemos un llamamiento a todos los laboratorios de IA para que pausen inmediatamente, durante al menos 6 meses el entrenamiento de sistemas de IA mĆ”s potentes que el GPT4”, escriben.

Lo que defienden los firmantes de la carta es que durante seis meses se trabaje en garantizar la seguridad de los sistemas de IA, no en el desarrollo de IA mĆ”s potentes con idea de que estos sean ā€œfiables y lealesā€.

Los responsables de la redacciĆ³n de la carta no detallan cuĆ”les son los peligros de GPT-4.

Fuente: Muy Interesante

Written by:

2.504 Posts

View All Posts
Follow Me :

Deja una respuesta

Tu direcciĆ³n de correo electrĆ³nico no serĆ” publicada. Los campos obligatorios estĆ”n marcados con *