La Inteligencia Artificial podría llevar a la extinción de la humanidad, advirtieron algunos expertos en el tema, incluyendo a los jefes de OpenAI y Google Deepmind, dos de las empresas en la vanguardia del desarrollo de este tipo de tecnología.
El comunicado, publicado en la página del Centro por la Seguridad en Inteligencia Artificial, cuenta con docenas de firmas, y asegura que "mitigar el riesgo de extinción por la Inteligencia Artificial debería ser una prioridad global al nivel de las pandemias y la guerra nuclear". Sam Altman, CEO de OpenAI, la empresa detrás de ChatGPT, Demis Hassabis, el jefe de Google DeepMind, y Dario Amodei, de Anthropic, apoyaron el comunicado.
De acuerdo al Centro por la Seguridad de la IA, esta tecnología podría derivar en distintos escenarios catastróficos. Esta podría transformarse en una herramienta de guerra y usarse para desarrollar, por ejemplo, armas químicas, o la desinformación producida con IA podría desestabilizar a la sociedad y "comprometer las tomas de decisión colectivas". Además, la IA podría concentrarse cada vez más en menos manos, permitiendo que "regímenes impongan sus valores a través de una vigilancia omnipresente y una censura opresiva", o arruinar el mundo a través de la dependencia extrema en esta herramienta, generando un escenario "similar al que se puede ver en la película Wall-E".
El doctor Geoffrey Hilton y el profesor de Ciencias de la Comunicación Yoshua Bengio, ambos considerados "padrinos de la IA", también le pusieron su firma al comunicado del Centro por la Seguridad de la IA.
Sin embargo, también hay voces disidentes, como la del profesor LeCunn, que trabaja en Meta, quien afirmó que las advertencias apocalípticas son exageradas. A través de un tuit, comentó que "la reacción más común de los investigadores de IA a estas profecías catastróficas es agarrarse la cabeza".