La declaración más fuerte, firmada por todos esos números y más, es una declaración de 22 palabras publicado hace dos semanas por el Center for AI Safety (CAIS), una organización de investigación impulsada por una agenda con sede en San Francisco. Afirma: «Reducir el riesgo de extinción de la IA debe ser una prioridad mundial junto con otros riesgos a nivel social, como las pandemias y la guerra nuclear».
Las palabras están destinadas. «Si hubiésemos optado por una declaración del tipo de prueba de Rorschach, habríamos dicho ‘riesgo existencial’ porque eso puede significar muchas cosas para muchas personas diferentes», dijo el director de CAIS, Dan Hendryks. Pero quieren ser claros: no se trata del colapso económico. «Es por eso que pasamos al ‘peligro de extinción’ a pesar de que muchos de nosotros también estamos preocupados por los diferentes riesgos», dijo Hendryks.
Hemos estado aquí antes: AI doom sigue a AI hype. Pero esta vez se siente diferente. Cambiar la ventana de Overton. Las opiniones anteriormente extremas ahora se están convirtiendo en la corriente principal, acaparando no solo los titulares sino también la atención de los líderes mundiales. «El coro de voces que expresan preocupaciones sobre la IA se ha vuelto demasiado fuerte para ignorarlo», dijo Jenna Burrell, directora de investigación de Data and Society, una organización que estudia las implicaciones sociales de la tecnología.
¿Lo que está sucediendo? ¿Realmente la IA se ha vuelto (más) peligrosa? ¿Y por qué las personas que instigaron esta tecnología ahora dan la alarma?
Es cierto que estas opiniones han dividido el campo. La semana pasada, Yann Lecun, científico jefe de Meta y ganador junto con Hinton y Bengio del Premio Turing 2018, calificó el doomerismo de «locura». Aiden Gomez, CEO de la firma de inteligencia artificial Cohere, dijo que era «un uso absurdo de nuestro tiempo».
Otros también se burlaron. «No hay más evidencia hoy que en 1950 de que la IA planteará estos riesgos existenciales», dijo la presidenta de Signal, Meredith Whittaker, cofundadora y ex directora del AI Now Institute, un laboratorio de investigación que estudia las implicaciones sociales y políticas. de inteligencia artificial. «Las historias de fantasmas son contagiosas, realmente emocionantes e inducen miedo».
«También es una forma de revisar todo lo que está pasando en este momento», dijo Burrell. «Esto indica que aún no hemos visto daños reales o graves».
un viejo miedo
Las preocupaciones sobre las máquinas desbocadas y automejorables han existido desde Alan Turing. Futuristas como Vernor Vinge y Ray Kurzweil popularizaron estas ideas en charlas sobre la llamada Singularidad, una fecha hipotética en la que la inteligencia artificial supera a la inteligencia humana y las máquinas toman el relevo.