CIUDAD DE MÉXICO, marzo 30 (EL UNIVERSAL).-
Un grupo de investigadores destacados en IA, junto con el magnate y CEO de Twitter, Elon Musk, firmaron una carta abierta a los laboratorios de inteligencia artificial en todo el mundo, instándolos a detener el desarrollo de sistemas de IA a gran escala debido a los «profundos riesgos para la sociedad y la humanidad».
La carta, publicada por el Future of Life Institute, destaca que actualmente hay una «carrera fuera de control» en los laboratorios de IA para desarrollar e implementar sistemas de aprendizaje automático que son demasiado complejos para ser entendidos, predichos o controlados incluso por sus creadores.
«Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4», dice la carta.
«Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria».
Entre los firmantes se encuentran personalidades destacadas como el autor Yuval Noah Harari, el cofundador de Apple Steve Wozniak, el cofundador de Skype Jaan Tallinn, el político Andrew Yang, además de varios reconocidos investigadores y directores ejecutivos en el campo de la inteligencia artificial, como Stuart Russell, Yoshua Bengio, Gary Marcus y Emad Mostaque.
Aunque es poco probable que la carta tenga impacto en el actual clima de investigación en inteligencia artificial, donde compañías como Google y Microsoft han lanzado nuevos productos que han cambiado el escenario tecnológico actual, el documento sirve como una señal del creciente rechazo a esta mentalidad de «enviar ahora y arreglar después». Este rechazo podría eventualmente influir en la esfera política y ser considerado por los legisladores en Estados Unidos.
Tal como se indica en la carta, incluso OpenAI ha reconocido la necesidad de una «evaluación independiente» de los próximos sistemas de inteligencia artificial, con el fin de garantizar que se adhieran a los estándares de seguridad necesarios. Los que han firmado la carta sostienen que ese momento ha llegado.
«Los laboratorios de IA y los expertos independientes deberían usar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzado de IA que son rigurosamente auditados y supervisados por expertos externos independientes», indica el documento.
«Estos protocolos deberían garantizar que los sistemas que se adhieren a ellos estén seguros más allá de toda duda razonable».