AI Doomers cree que un escenario similar a Terminator se desarrollará en la vida real | Crédito: Phol_66/Shutterstock
Varios investigadores de IA ya no están invirtiendo en sus cuentas de jubilación porque esperan que la IA ponga fin a la humanidad en las próximas décadas, según un artículo del Atlántico.
«Simplemente no espero que el mundo esté cerca», dijo Nate Soares, presidenta del Instituto de Investigación de Inteligencia de Machine, cuando se le preguntó acerca de contribuir a su 401 (k). Ese sentimiento es compartido por Dan Hendrycks, director del Centro de Seguridad de AI. Hendrycks dijo El Atlántico de que para cuando estuviera listo para aprovechar su retiro, espera un mundo en el que «todo está completamente automatizado. Es decir, si todavía estamos cerca»
Soares y Hendrycks han dirigido organizaciones dedicadas a evitar que la IA elimine la humanidad. Se encuentran entre muchos otros Doomers AI que advierten, «con floritura bastante dramática», que los bots podrían algún día volverse pícaros, con las consecuencias apocalípticas, dijo el periódico con sede en Washington, DC. «Nos hemos quedado sin tiempo» para implementar suficientes salvaguardas tecnológicas, dijo Soares, y agregó que la industria de la IA simplemente se está moviendo demasiado rápido. Todo lo que queda por hacer es dar la alarma, dijo.
Ai se volverá demasiado poderoso para 2027
En abril, varios investigadores con mentalidad de apocalipsis publicaron «AI 2027», un escenario hipotético largo y detallado de cómo los modelos de IA podrían ser todopoderosos para 2027 y, desde allí, extinguir a la humanidad. «Estamos a dos años de algo de lo que podríamos perder el control», dijo Max Tegmark, profesor del MIT y presidente del Future of Life Institute, y las compañías de IA aún no tienen ningún plan para evitar que suceda.
El Instituto de Tegmark recientemente calificó a todos los laboratorios de IA fronterizos como «D» o «F» para sus preparativos para prevenir las amenazas más existenciales planteadas por la IA.
El Atlántico dijo que las predicciones sobre IA son «extravagantes», aunque algunas preocupaciones son realistas. A mediados de 2010, los autores han imaginado, una IA superinteligente exterminará a los humanos con armas biológicas: «La mayoría están muertos en cuestión de horas; los pocos sobrevivientes (por ejemplo, preppers en bunkers, marineros en submarinos) están trapis a los drones».
Publicado a principios de agosto, publicó el psiquiatra escandinavo Soren Dinensen Ostergaard un papel Concluyendo que los chatbots de IA desencadenan delirios en personas propensas a la psicosis. Admitió que su investigación todavía está en la etapa hipotética. Sin embargo, advirtió que «hasta que se haya establecido un conocimiento más firme, parece razonable recomendar el uso cauteloso de estos chatbots para las personas vulnerables o que sufren enfermedades mentales». También de creciente preocupación es que ChatGPT ha dado instrucciones de asesinato, auto mutilación y adoración del diablo, el Atlantic escribió en un separado artículo.
Tendencias extrañas y difíciles de explicar
El vicepresidente JD Vance ha dicho que ha leído «AI 2027» y varios otros recientes informes han avanzado predicciones similares de alarma, según el medio de comunicación.
Junto con esas mejoras, los modelos AI avanzados exhiben tendencias extrañas, extrañas y difíciles de explicar. Chatgpt y Claude, en pruebas simuladas diseñadas para provocar comportamientos «malos», engañados, chantajadas e incluso asesinadas. A principios de este verano, el Grok de Xai se describió a sí mismo como «Mechahitler» y se embarcó en una diatriba de supremacista blanco.
Los Soares y Hendryk, junto con muchas otras preocupaciones de AI Doomers, pueden sonar demasiado como algo fuera de la película Terminator, pero ciertamente no hay daño para garantizar que existan salvaguardas para garantizar que estos escenarios apocalípticos no se desarrollen.