¿Adquisición de robots? No demasiado. Así sería el fin del mundo de la IA | Tecnología
La alarma sobre la inteligencia artificial ha llegado a su clímax en los últimos meses. Solo esta semana, más de 300 líderes de la industria emitieron una carta advirtiendo que la IA podría llevar a la extinción humana y debería ser vista con la seriedad de «pandemias y guerra nuclear».
Términos como «día del juicio final de la IA» evocan imágenes de ciencia ficción de una toma de control por parte de un robot, pero ¿cómo se ve realmente ese escenario? La realidad, dicen los expertos, podría ser más larga y menos cinematográfica: no una bomba nuclear sino un deterioro progresivo de áreas fundamentales de la sociedad.
“No creo que la preocupación sea que la IA vaya a ser malvada o que tenga algún tipo de deseo malévolo”, dijo Jessica Newman, directora de la Iniciativa de Seguridad de Inteligencia Artificial de la Universidad de California a Berkeley.
«El peligro proviene de algo mucho más simple, que es que las personas pueden programar la IA para que haga cosas dañinas, o terminamos causando daño al integrar sistemas de IA intrínsecamente inexactos en más y más áreas de la sociedad».
Eso no quiere decir que no debamos preocuparnos. Aunque los escenarios de la aniquilación de la humanidad son poco probables, la poderosa IA tiene la capacidad de desestabilizar civilizaciones en forma de creciente desinformación, manipulación de usuarios humanos y gran transformación del mercado.
Las tecnologías de inteligencia artificial han existido durante décadas, pero la velocidad a la que los modelos de aprendizaje de idiomas como ChatGPT han entrado en la corriente principal ha intensificado las preocupaciones de larga data. Mientras tanto, las empresas de tecnología han entrado en una especie de carrera armamentista, apresurándose a implementar inteligencia artificial en sus productos para competir entre sí, creando una tormenta perfecta, dijo Newman.
«Estoy extremadamente preocupada por el camino en el que estamos», dijo. “Estamos en un momento particularmente peligroso para la IA porque los sistemas se encuentran en un lugar donde se ven increíbles, pero siguen siendo increíblemente inexactos y tienen vulnerabilidades inherentes”.
Los expertos entrevistados por The Guardian dicen que estas son las áreas que más les preocupan.
La desinformación acelera la erosión de la verdad
En muchos sentidos, la llamada revolución de la IA ha estado en marcha durante algún tiempo. El aprendizaje automático sustenta los algoritmos que dan forma a nuestras fuentes de noticias en las redes sociales, una tecnología que ha sido acusada de perpetuar el sesgo de género, alimentar la división y fomentar el malestar político.
Los expertos advierten que estos problemas sin resolver solo se intensificarán a medida que despeguen los modelos de inteligencia artificial. Los peores escenarios podrían incluir una erosión de nuestra comprensión común de la verdad y la información válida, lo que daría lugar a más levantamientos basados en mentiras, como sucedió en el ataque del 6 de enero al capitolio de EE. UU. Los expertos advierten que el aumento de la información errónea y la desinformación podrían desencadenar más turbulencias e incluso guerras.
“Se podría argumentar que el colapso de las redes sociales es nuestro primer encuentro con una IA realmente tonta, porque los sistemas de recomendación son en realidad solo modelos de aprendizaje automático”, dijo Peter Wang, director ejecutivo y cofundador de la plataforma de ciencia de datos Anaconda. «Y nos perdimos por completo ese encuentro».
Los modelos de lenguaje grande como ChatGPT son propensos a un fenómeno llamado «alucinaciones», en el que se repite información inventada o falsa. Fotografía: Greg Guy/Alamy
Wang agregó que estos errores podrían perpetuarse porque los modelos de aprendizaje de idiomas se entrenan con información errónea que crea conjuntos de datos erróneos para modelos futuros. Esto podría conducir a un efecto de «canibalismo de modelos», en el que los modelos futuros se amplifican y quedan sesgados para siempre por los resultados de los modelos anteriores.
La desinformación, meras inexactitudes, y la información errónea, información falsa difundida maliciosamente con la intención de engañar, han sido amplificadas por la inteligencia artificial, dicen los expertos. Los modelos de lenguaje grande como ChatGPT son propensos a un fenómeno llamado «alucinaciones», en el que se repite información inventada o falsa. Un estudio realizado por el organismo de control de la credibilidad del periodismo, NewsGuard, identificó docenas de sitios de «noticias» en línea escritos en su totalidad por AI, muchos de los cuales contenían tales imprecisiones.
Las redes sociales fueron nuestro primer encuentro con la IA tonta, y fallamos por completo en ese encuentroPeter Wang, director ejecutivo de Anaconda
Dichos sistemas podrían ser armados por malos actores para difundir deliberadamente desinformación a gran escala, dijeron Gordon Crovitz y Steven Brill, codirectores ejecutivos de NewsGuard. Esto es de particular preocupación en los eventos noticiosos de alto riesgo, como ya hemos visto con la manipulación intencional de la información en la guerra ruso-ucraniana.
“Tienes actores maliciosos que pueden generar narrativas falsas y luego usar el sistema como un multiplicador de fuerza para difundirlas ampliamente”, dijo Crovitz. «Hay gente que dice que los peligros de la IA son exagerados, pero en el mundo de la información tiene un impacto asombroso».
Los ejemplos recientes van desde los más benignos, como la imagen viral generada por IA del Papa con una «chaqueta adornada», hasta falsificaciones con consecuencias potencialmente más graves, como un video generado por IA del presidente ucraniano Volodymyr Zelenskiy, anunciando una rendición en abril. 2022.
“La desinformación es el individuo [AI] daño que tiene el mayor potencial y el mayor riesgo en términos de daños potenciales a mayor escala”, dijo Rebecca Finlay, de AI Partnership. “La pregunta que surge es: ¿cómo creamos un ecosistema donde seamos capaces de entender lo que es verdad? ¿Cómo autentificamos lo que vemos en línea? »
Si bien la mayoría de los expertos dicen que la desinformación ha sido la preocupación más inmediata y generalizada, existe un debate sobre la medida en que la tecnología podría influir negativamente en los pensamientos o el comportamiento de sus usuarios.
Estas preocupaciones ya se están manifestando de manera trágica, después de que un hombre en Bélgica se quitara la vida luego de que un chatbot supuestamente lo alentara a quitarse la vida. Se han reportado otros incidentes alarmantes, incluido un chatbot que le dice a un usuario que deje a su pareja y otro que le dice a los usuarios con trastornos alimentarios que bajen de peso.
Es probable que los chatbots, por diseño, generen más confianza porque hablan con sus usuarios de una manera conversacional, dijo Newman.
«Los grandes modelos de lenguaje son particularmente capaces de persuadir o manipular a las personas para que modifiquen ligeramente sus creencias o comportamientos», dijo. «Necesitamos ver el impacto cognitivo que esto está teniendo en un mundo que ya está tan polarizado y aislado, donde la soledad y la salud mental son problemas importantes».
Entonces, el temor no es que los chatbots de IA ganen en sensibilidad y abrumen a sus usuarios, sino que su lenguaje programado pueda manipular a las personas para causar daños que de otro modo no tendrían. Esto es particularmente preocupante con los sistemas de lenguaje que operan con un modelo de ganancias publicitarias, dijo Newman, ya que buscan manipular el comportamiento de los usuarios y lograr que usen la plataforma durante el mayor tiempo posible.
“Hay muchos casos en los que un usuario ha causado daño no porque quisiera, sino porque fue una consecuencia involuntaria de que el sistema no siguió los protocolos de seguridad”, dijo.
Newman agregó que la naturaleza humana de los chatbots hace que los usuarios sean especialmente susceptibles a la manipulación.
«Si estás hablando con algo que usa pronombres en primera persona y estás hablando de sus propios sentimientos y sus propios antecedentes, incluso si no es real, es más probable que provoque algún tipo de respuesta humana, lo que hace que las personas se sientan más probablemente quiera creerlo», dijo. «Hace que la gente quiera confiar en él y tratarlo más como un amigo que como una herramienta».
La crisis laboral que se avecina: «No hay marco para sobrevivir»
Una preocupación de larga data es que la automatización digital requerirá una gran cantidad de trabajos humanos. La investigación varía, y algunos estudios concluyen que la IA podría reemplazar el equivalente a 85 millones de puestos de trabajo en todo el mundo para 2025 y más de 300 millones a largo plazo.
Algunos estudios sugieren que la IA podría reemplazar el equivalente a 85 millones de puestos de trabajo en todo el mundo para 2025. Fotografía: Wachiwit/Alamy
Los sectores afectados por la IA son muy variados, desde guionistas hasta científicos de datos. AI aprobó el examen de la barra con puntajes similares a los de los abogados reales y respondió preguntas de salud mejor que los médicos reales.
Los expertos están haciendo sonar la alarma sobre la pérdida masiva de empleos y la inestabilidad política que podría derivar del aumento continuo de la inteligencia artificial.
Wang advierte que los despidos masivos son inminentes, con una «cantidad de puestos de trabajo en riesgo» y pocos planes para hacer frente a las consecuencias.
“No existe un marco en Estados Unidos sobre cómo sobrevivir cuando no tienes trabajo”, dijo. «Causará mucha perturbación y mucho malestar político. Para mí, esa es la consecuencia no deseada más concreta y realista que surge de esto».
Y luego ?
A pesar de las crecientes preocupaciones sobre el impacto negativo de la tecnología y las redes sociales, se ha hecho muy poco en los Estados Unidos para regularlas. Los expertos temen que la inteligencia artificial no sea diferente.
“Una de las razones por las que muchos de nosotros estamos preocupados por el despliegue de la IA es que, en los últimos 40 años, como sociedad, básicamente hemos renunciado a regular la tecnología”, dijo Wang. .
Aún así, ha habido esfuerzos positivos por parte de los legisladores en los últimos meses, con el Congreso pidiendo al CEO de Open AI, Sam Altman, que testifique sobre las salvaguardas que deberían implementarse. Finlay dijo que estaba «animada» por tales movimientos, pero dijo que se necesita hacer más para crear protocolos compartidos sobre la tecnología de IA y su lanzamiento.
“Tan difícil como es predecir escenarios apocalípticos, es difícil predecir la capacidad de respuestas legislativas y regulatorias”, dijo. «Necesitamos una consideración cuidadosa para este nivel de tecnología».
Si bien los daños de la IA son una prioridad para la mayoría de las personas en la industria de la IA, no todos los expertos en el campo son «apocalípticos». Muchos están entusiasmados con las posibles aplicaciones de la tecnología.
«De hecho, creo que esta generación de tecnología de inteligencia artificial en la que acabamos de caer realmente podría desbloquear un gran potencial para que la humanidad prospere en una escala mucho mejor que la que hemos visto en los últimos 100 o 200 años», dijo Wang. . «De hecho, soy muy, muy optimista sobre su impacto positivo. Pero al mismo tiempo, observo lo que las redes sociales han hecho a la sociedad y la cultura, y soy muy consciente de que hay muchas desventajas potenciales.