Alertan expertos sobre riesgos de IA «superinteligente»
Más de mil quinientos expertos, científicos, empresarios y figuras públicas firmaron una carta abierta que solicita la prohibición del desarrollo de sistemas de inteligencia artificial (IA) superinteligente, es decir, aquellos que podrían superar las capacidades cognitivas humanas en casi todas las tareas. El documento fue difundido por el Future of Life Institute (FLI), organización internacional…