Ciencia y Tecnología Internacional

Inteligencia Artificial supone un riesgo de «extinción» para la humanidad, advierten líderes tecnológicos

–Una carta abierta firmada por los 350 ejecutivos más importantes de ese sector tecnológico, advierte que la Inteligencia Artificial (IA) podría suponer para la humanidad un «riesgo de extinción» de la magnitud de una guerra nuclear o una pandemia.

Los líderes en el desarrollo de la IA, entre los cuales se encuentran el CEO de OpenAI, Sam Altman; el ganador del Premio Turing, Geoffrey Hinton; los consejeros delegados de DeepMind y Anthropic, y varios ejecutivos de Microsoft y Google, advierten que reducir el riesgo existencial generado por la inteligencia artificial debería ser una «prioridad mundial».

«Mitigar el riesgo de extinción por causa de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear», reza la carta, publicada por el Centro para la Seguridad de la IA, una organización sin ánimo de lucro.

La declaración de los expertos se produce en un momento en el que la IA se ha convertido en el centro de las conversaciones entre tecnólogos y gobiernos, que enfrentan el desafío de cómo se desarrollará esta tecnología en el futuro y la forma en que debe ser regulada.

A mediados de este mes, Altman declaró ante el Senado estadounidense que la IA podría «salir muy mal» y causar «un daño significativo al mundo» si no se regula adecuadamente.

El empresario sugirió que se creara una agencia estadounidense o internacional que conceda licencias a los sistemas de IA más potentes y tenga autoridad para «retirar esa licencia y garantizar el cumplimiento de las normas de seguridad».

De igual forma, el exdirector ejecutivo de Google, Eric Schmidt, afirmó la semana pasada que la IA podría plantear riesgos existenciales y que los gobiernos deben garantizar que esa tecnología no sea usada indebidamente por «personas malvadas».

Hace apenas dos meses, importantes ejecutivos, científicos y humanistas, entre ellos el multimillonario Elon Musk, firmaron una carta más extensa en el que pedían detener el desarrollo de nuevas tecnologías hasta poder garantizar su seguridad total y evitar efectos nocivos.

Eliezer Yudkowsky decía que sería preferible que hubiera una guerra nuclear a desarrollar sistemas avanzados de IA. Geoffrey Hinton advertía por ejemplo de la amenaza de la desinformación. En su declaración ante el congreso, Sam Altman que «si esta tecnología va mal, puede ir bastante mal».

Estas afirmaciones llegan en un momento en el que el número de herramientas de inteligencia crecen vertiginosamente, a la vez que los retos actuales, como la guerra en Ucrania o la crisis climática, demuestran el riesgo que supone la inteligencia artificial, especialmente en torno a la desinformación. (Información RT y DW).