La IA ya está causando daños no deseados. ¿Qué pasa cuando cae en malas manos? | david evan harris

A principios de este año, la empresa matriz de Facebook, Meta, le dio acceso a un investigador a un software de inteligencia artificial increíblemente poderoso, y lo filtró al mundo. Como antiguo investigador sobre la integridad cívica de Meta y los equipos responsables de inteligencia artificial, me aterroriza lo que pueda suceder a continuación.
Aunque Meta fue violada por la filtración, salió victoriosa: los investigadores y codificadores independientes ahora están compitiendo para mejorar o construir sobre la base de LLaMA (Large Language Model Meta AI: la versión de marca de Meta de un modelo de lenguaje grande o LLM, el tipo de software detrás de ChatGPT), muchos comparten abiertamente su trabajo con el mundo.
Esto podría posicionar a Meta como el propietario central de la plataforma de IA dominante, similar a cómo Google controla el sistema operativo Android de código abierto que construyen y adaptan los fabricantes de dispositivos en todo el mundo. Si Meta asegurara esta posición central en el ecosistema de la IA, tendría influencia para dar forma a la dirección de la IA en un nivel fundamental, controlando las experiencias de los usuarios individuales y estableciendo límites sobre lo que otras empresas pueden y no pueden hacer. De la misma manera que Google recauda miles de millones a través de la publicidad, las ventas de aplicaciones y las transacciones de Android, podría configurar Meta para un momento muy rentable en el espacio de la IA, cuya estructura exacta aún no ha sido revelada.
Aparentemente, la compañía emitió avisos de eliminación para desconectar el código filtrado, ya que se suponía que solo se podía acceder a él con fines de investigación, pero luego de la filtración, el científico jefe de IA de la compañía, Yann LeCun, dijo: "La plataforma ganadora estará abierta". ”, lo que sugiere que la empresa simplemente podría usar el modelo de código abierto como una estrategia competitiva.
Aunque Bard de Google y ChatGPT de OpenAI son gratuitos, no son de código abierto. Tanto Bard como ChatGPT tienen equipos de ingenieros, moderadores de contenido y analistas de amenazas que trabajan para evitar que sus plataformas se utilicen con fines dañinos; en sus iteraciones actuales (con suerte) no lo ayudarán a construir una bomba, planificar un ataque terrorista o fabricar falsos. contenido diseñado para interrumpir una elección. Estas personas y los sistemas que construyen y mantienen mantienen a ChatGPT y Bard alineados con valores humanos específicos.
Sin embargo, el LLaMA de código semiabierto de Meta y sus Modelos de Lenguaje Descendente Grande (LLM) pueden ser ejecutados por cualquier persona con suficiente hardware informático para admitirlos; la última generación se puede usar en las computadoras portátiles disponibles en el comercio. Esto le da a cualquier persona, desde consultores políticos sin escrúpulos hasta la agencia de inteligencia GRU de Vladimir Putin con buenos recursos, la libertad de ejecutar la IA sin ningún sistema de seguridad.
De 2018 a 2020, trabajé en el equipo de Integridad Cívica de Facebook. He dedicado años de mi vida a luchar contra la interferencia en línea en la democracia de muchas fuentes. Mis colegas y yo hemos jugado largos juegos de topos con dictadores de todo el mundo que han usado "comportamiento inauténtico coordinado", contratando equipos de personas para crear manualmente cuentas falsas para promover sus regímenes, monitorear y hostigar a sus enemigos, fomentar disturbios e incluso promover el genocidio.
"Después de varias rondas de despidos, me temo que la capacidad de Meta para combatir las 'operaciones de influencia' se ha visto obstaculizada". Fotografía: ZUMA Press, Inc./Alamy Stock Photo/Alamy Live News.
Supongo que el equipo de Putin ya está buscando excelentes herramientas de inteligencia artificial para interrumpir las elecciones presidenciales de EE. UU. de 2024 (y probablemente también en otros países). Puedo pensar en pocas adiciones mejores a su arsenal que la aparición de LLM disponibles gratuitamente como LLaMA y la pila de software que se está construyendo a su alrededor. Podría usarse para hacer que el contenido falso sea más convincente (gran parte del contenido ruso desplegado en 2016 tenía deficiencias gramaticales o estilísticas) o para producir mucho más, o incluso podría reutilizarse como un "clasificador" que analiza las plataformas de los medios de comunicación social para particularmente contenido incendiario de estadounidenses reales para amplificar con comentarios y reacciones falsos. También podría escribir guiones convincentes para deepfakes que sinteticen videos de candidatos políticos diciendo cosas que nunca dijeron.
La ironía de todo esto es que las plataformas de Meta (Facebook, Instagram y WhatsApp) estarán entre los mayores campos de batalla para desplegar estas “operaciones de influencia”. Desafortunadamente, el equipo de integridad cívica en el que trabajé se cerró en 2020 y, después de varias rondas de despidos, me temo que la capacidad de la empresa para combatir estas operaciones se ha visto obstaculizada.
Sin embargo, lo que es aún más inquietante es que ahora hemos entrado en la "era del caos" de las redes sociales y la proliferación de plataformas nuevas y en crecimiento, cada una con equipos de "integridad" o empresas de "confianza y seguridad" distintas y mucho más pequeñas. incluso puede estar peor posicionado que Meta para detectar y detener operaciones de influencia, particularmente en los últimos días y horas de las elecciones, donde la velocidad es más crítica.
Pero mis preocupaciones no terminan con la erosión de la democracia. Después de trabajar en el equipo de integridad cívica de Facebook, dirigí equipos de investigación que trabajaban en IA responsable, haciendo una crónica de los daños potenciales de la IA y buscando formas de hacerla más segura y justa para la sociedad. Vi cómo los propios sistemas de IA de mi empleador podían facilitar la discriminación en la vivienda, crear asociaciones racistas y evitar que las mujeres vieran las ofertas de trabajo visibles para los hombres. Fuera de los muros corporativos, los sistemas de IA recomendaron injustamente sentencias de prisión más largas para las personas negras, no reconocieron con precisión los rostros de las mujeres de piel oscura y causaron innumerables incidentes adicionales, miles de los cuales se enumeran en la base de datos de incidentes de IA.
Sin embargo, la parte aterradora es que los incidentes que describo anteriormente fueron, en su mayor parte, las consecuencias no deseadas de implementar sistemas de IA a gran escala. Cuando la IA está en manos de personas que la usan de forma deliberada y maliciosa, las posibilidades de desalineación aumentan exponencialmente, lo que se agrava aún más a medida que aumentan las capacidades de la IA.
Sería justo preguntar: ¿No se convertirán inevitablemente los LLM en código abierto de todos modos? Desde la filtración de LLaMA, muchas otras empresas y laboratorios se han unido a la carrera, y algunos han lanzado LLM que rivalizan con LLaMA gobernante con licencias de código abierto más permisivas. Un LLM basado en LLaMA promociona con orgullo su naturaleza "sin censura", citando su falta de controles de seguridad como una característica, no como un error. Meta, sin embargo, a día de hoy parece estar sola en su capacidad de seguir sacando modelos cada vez más potentes combinado con su afán de ponerlos en manos de quien los quiera. Es importante recordar que si bien los actores maliciosos pueden obtener el código, es poco probable que les importe lo que dice el acuerdo de licencia.
Vivimos en una época de aceleración tan rápida de las tecnologías de IA que incluso retrasar su lanzamiento, especialmente su versión de código abierto, durante unos meses podría dar tiempo a los gobiernos para implementar regulaciones críticas. Eso es lo que piden los directores ejecutivos como Sam Altman, Sundar Pichai y Elon Musk. Las empresas tecnológicas también deben implementar controles mucho más estrictos sobre quién califica como "investigador" para obtener acceso especial a estas herramientas potencialmente peligrosas.
Las plataformas más pequeñas (y los equipos huecos de las más grandes) también necesitan tiempo para que sus equipos de confianza y seguridad/integridad se pongan al día con las implicaciones de los LLM para que puedan construir defensas contra el abuso. Las empresas de IA generativa y las plataformas de comunicación deben trabajar juntas para implementar marcas de agua para identificar el contenido generado por IA y firmas digitales para verificar que el contenido generado por humanos es auténtico.
La carrera a la baja en la seguridad de la IA que estamos viendo en este momento debe detenerse. Durante las audiencias del mes pasado ante el Congreso de los EE. UU., Gary Marcus, un experto en IA, y Sam Altman, director ejecutivo de OpenAI, pidieron la creación de nuevos órganos de gobierno internacional específicamente para la IA, similares a los órganos que rigen la seguridad nuclear. La UE está muy por delante de los EE. UU. en esto, pero desafortunadamente su pionera Ley de Inteligencia Artificial de la UE no entrará en vigor hasta 2025 o más tarde. Es demasiado tarde para marcar la diferencia en esta carrera.
Hasta que se establezcan nuevas leyes y órganos rectores, desafortunadamente tendremos que depender de la tolerancia de los directores ejecutivos de tecnología para evitar que las herramientas más poderosas y peligrosas caigan en manos equivocadas. Entonces, por favor, CEO: disminuyamos un poco la velocidad antes de romper la democracia. Y legisladores: date prisa.
-
David Evan Harris es académico público del canciller en UC Berkeley, miembro principal del Instituto Internacional de Ciencias de la Computación, asesor principal de ética de IA en el Instituto de Psicología de la Tecnología, investigador afiliado en el Laboratorio de Políticas de CITRIS y autor colaborador en el Centro para la Innovación en Gobernanza Internacional
Deja una respuesta