octubre 24, 2025 3:16 pm
octubre 24, 2025 3:16 pm
octubre 24, 2025 3:16 pm

Alertan expertos sobre riesgos de IA «superinteligente»

Más de mil quinientos expertos, científicos, empresarios y figuras públicas firmaron una carta abierta que solicita la prohibición del desarrollo de sistemas de inteligencia artificial (IA) superinteligente, es decir, aquellos que podrían superar las capacidades cognitivas humanas en casi todas las tareas.

El documento fue difundido por el Future of Life Institute (FLI), organización internacional sin fines de lucro dedicada a promover el desarrollo seguro de tecnologías avanzadas. Según la carta, la creación de una IA de nivel superior representa riesgos graves para la seguridad global, los derechos civiles y la estabilidad económica.

Entre los firmantes se encuentran Geoffrey Hinton y Yoshua Bengio, ganadores del Premio Turing por sus aportes al aprendizaje profundo; el cofundador de Apple, Steve Wozniak; y el empresario Richard Branson. También figuran nombres del ámbito político, como Steve Bannon y Susan Rice, según detalló WIRED en español.

La carta advierte que varias compañías tecnológicas tienen como meta alcanzar una forma de superinteligencia durante la próxima década. Los autores sostienen que dicho objetivo no debe continuar “hasta que exista consenso científico sobre su seguridad y controlabilidad, y un apoyo público amplio”.

“Pedimos una prohibición sobre el desarrollo de la superinteligencia, que no se levante antes de que haya consenso científico de que puede hacerse de forma segura y controlada, y una fuerte aceptación pública”, señala el texto publicado en el sitio superintelligence-statement.org

El documento sostiene que una IA superinteligente podría provocar la obsolescencia económica de los humanos, pérdida de libertades civiles y riesgos para la seguridad nacional, además de consecuencias potencialmente existenciales para la humanidad.

Según una encuesta citada por WIRED, el 73 % de los encuestados en Estados Unidos se pronunció a favor de una regulación estricta sobre los sistemas avanzados de IA, y solo un 5 % apoyó un desarrollo sin restricciones.

El comunicado retoma el debate iniciado en 2023, cuando el mismo FLI publicó una carta que pedía una pausa temporal en el entrenamiento de modelos de IA avanzados como GPT-4.

Por su parte, compañías como OpenAI, Google DeepMind y Anthropic continúan investigando sistemas cada vez más potentes. Ninguna de ellas ha respondido oficialmente a la nueva solicitud, aunque sus directivos han declarado en diversas ocasiones que trabajan en medidas de seguridad para garantizar el control humano sobre estos modelos.

Comparte en tus redes sociales
Etiquetado: