El mes pasado, cientos de figuras destacadas en el mundo de la inteligencia artificial firmaron una carta abierta advirtiendo que la IA algún día podría destruir a la humanidad.
“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos para toda la sociedad, como las pandemias y la guerra nuclear”, dijo el declaración de una oración ha dicho.
La carta fue la última de una serie de advertencias siniestras de AI que han sido particularmente livianas en los detalles. Los sistemas de IA de hoy no pueden destruir a la humanidad. Algunos de ellos apenas pueden sumar y restar. Entonces, ¿por qué están tan preocupadas las personas que saben más sobre IA?
El escenario aterrador.
Un día, dicen las Cassandras de la industria tecnológica, las corporaciones, los gobiernos o los investigadores independientes podrían implementar poderosos sistemas de inteligencia artificial para administrar todo, desde los negocios hasta la guerra. Estos sistemas pueden hacer cosas que no queremos que hagan. Y si los humanos trataran de interferir o apagarlos, podrían resistir o incluso replicarse para seguir funcionando.
“Los sistemas de hoy están lejos de representar un riesgo existencial”, dijo Yoshua Bengio, profesor e investigador en inteligencia artificial de la Universidad de Montreal. “¿Pero en uno, dos, cinco años? Hay demasiada incertidumbre. Este es el problema. No estamos seguros de que no habrá un momento en que las cosas se vuelvan catastróficas.
Los preocupados a menudo han usado una metáfora simple. Si le pides a una máquina que cree tantos clips como sea posible, dicen, podría funcionar a toda marcha y convertir todo, incluida la humanidad, en fábricas de clips.
¿Cómo se relaciona esto con el mundo real, o un mundo de fantasía no muchos años en el futuro? Las empresas podrían dar a los sistemas de IA cada vez más autonomía y conectarlos a infraestructura vital, incluidas redes eléctricas, mercados de valores y armas militares. A partir de ahí, podrían causar problemas.
Para muchos expertos, eso no parecía tan plausible hasta el año pasado, cuando empresas como OpenAI demostraron mejoras significativas en su tecnología. Mostró lo que podría ser posible si la IA continúa avanzando a un ritmo tan rápido.
“La IA se delegará progresivamente y podría, a medida que se vuelva más autónoma, usurpar la toma de decisiones y el pensamiento de los humanos actuales y las instituciones dirigidas por humanos”, dijo Anthony Aguirre, cosmólogo de la Universidad de California en Santa Cruz y fundador de Future. of Life Institute, la organización detrás de una de las dos cartas abiertas.
«En algún momento quedará claro que la gran máquina que dirige la sociedad y la economía no está realmente bajo el control humano, ni puede ser detenida más de lo que podría ser arrestado el S&P 500», dijo.
O eso dice la teoría. Otros expertos en inteligencia artificial piensan que es una premisa ridícula.
«Hipotético es una forma muy educada de expresar mis pensamientos sobre el discurso del riesgo existencial», dijo Oren Etzioni, director ejecutivo fundador del Instituto Allen para la IA, un laboratorio de investigación en Seattle.
¿Hay alguna señal de que la IA podría hacer esto?
No demasiado. Pero los investigadores están convirtiendo chatbots como ChatGPT en sistemas que pueden actuar en función del texto que generan. Un proyecto llamado AutoGPT es el ejemplo perfecto.
La idea es darle al sistema objetivos como «iniciar un negocio» o «ganar dinero». Luego seguirá buscando formas de lograr este objetivo, especialmente si está conectado a otros servicios de Internet.
Un sistema como AutoGPT puede generar programas informáticos. Si los investigadores le dieran acceso a un servidor informático, podría ejecutar estos programas. En teoría, es una forma en que AutoGPT puede hacer casi cualquier cosa en línea: recuperar información, usar aplicaciones, crear nuevas aplicaciones e incluso mejorar.
Los sistemas como AutoGPT no funcionan bien en este momento. Tienden a quedarse atascados en bucles interminables. Los investigadores le dieron a un sistema todos los recursos que necesitaba para replicarse. no pude hacerlo.
Con el tiempo, estas limitaciones podrían corregirse.
«La gente está tratando activamente de construir sistemas de automejora», dijo Connor Leahy, fundador de Conjecture, una empresa que dice que quiere alinear las tecnologías de inteligencia artificial con los valores humanos. “Actualmente, no funciona. Pero un día llegará. Y no sabemos cuándo es ese día.
Leahy argumenta que cuando los investigadores, las corporaciones y los delincuentes dan a estos sistemas propósitos como «ganar dinero», podrían terminar irrumpiendo en los sistemas bancarios, fomentando una revolución en un país donde tienen futuros de petróleo o crían cuando alguien intenta convertirlos. desactivado.
¿Dónde aprenden los sistemas de IA a comportarse mal?
Los sistemas de IA como ChatGPT se basan en redes neuronales, sistemas matemáticos que pueden aprender habilidades mediante el análisis de datos.
Alrededor de 2018, empresas como Google y OpenAI comenzaron a construir redes neuronales que aprendieron grandes cantidades de texto digital extraído de Internet. Al identificar patrones en todos estos datos, estos sistemas aprenden a generar escritura por sí mismos, incluidos artículos de noticias, poemas, programas de computadora e incluso conversaciones humanas. El resultado: chatbots como ChatGPT.
Debido a que aprenden de más datos de los que incluso sus creadores pueden comprender, estos sistemas también exhiben un comportamiento inesperado. Los investigadores han demostrado recientemente que un sistema es capaz de contratar a un humano en línea para superar una prueba de Captcha. Cuando el humano preguntó si era un «robot», el sistema mintió y dijo que era una persona con discapacidad visual.
A algunos expertos les preocupa que a medida que los investigadores hagan que estos sistemas sean más poderosos, entrenándolos con cantidades cada vez mayores de datos, podrían aprender más malos hábitos.
¿Quiénes son las personas detrás de estas advertencias?
A principios de la década de 2000, un joven escritor llamado Eliezer Yudkowsky comenzó a advertir que la IA podría destruir a la humanidad. Sus publicaciones en línea han generado una comunidad de creyentes. Llamados racionalistas o altruistas efectivos, esta comunidad se ha vuelto enormemente influyente en la academia, los grupos de expertos gubernamentales y la industria tecnológica.
El Sr. Yudkowsky y sus escritos jugaron un papel clave en la creación de OpenAI y DeepMind, un laboratorio de IA adquirido por Google en 2014. Y muchos miembros de la comunidad «EA» han trabajado en estos laboratorios. Creían que debido a que entendían los peligros de la IA, estaban en la mejor posición para construirla.
Las dos organizaciones que recientemente publicaron cartas abiertas advirtiendo sobre los riesgos de la IA, el Centro para la Seguridad de la IA y el Instituto del Futuro de la Vida, están estrechamente vinculadas a este movimiento.
Las advertencias recientes también provienen de pioneros de la investigación y líderes de la industria como Elon Musk, quien ha advertido durante mucho tiempo sobre los riesgos. La última carta fue firmada por Sam Altman, director gerente de OpenAI; y Demis Hassabis, quien ayudó a fundar DeepMind y ahora supervisa un nuevo laboratorio de inteligencia artificial que combina a los mejores investigadores de DeepMind y Google.
Otras figuras muy respetadas han firmado una o ambas cartas de advertencia, incluidos el Dr. Bengio y Geoffrey Hinton, quien recientemente renunció a su puesto ejecutivo y de investigación en Google. En 2018, recibieron el Premio Turing, a menudo llamado «Premio Nobel de Computación», por su trabajo en redes neuronales.

