¿El LLM de código abierto de Meta hará que la IA sea más segura o la pondrá en las manos equivocadas? | Manzana

El verano de la IA ya está sobre nosotros. (Es posible que esta mordaza no funcione tan bien para los lectores del hemisferio sur). Ya sea que llamemos a este período el pico del "ciclo de exageración" o simplemente el momento en que la curva se vuelve vertical solo será evidente en retrospectiva, pero la cadencia de las principales noticias en el campo ha cambiado de semanal a casi diaria. Pongámonos al día con lo que están haciendo los principales actores de la IA: Meta, Microsoft, Apple y OpenAI.

Manzana

Siempre uno para mantener sus cartas cerca de su pecho, no espere escuchar acerca de muchos avances de I + D de Cupertino. Incluso el trabajo de IA que ayudó a enviar productos está oculto en lugar de gritado desde los tejados, y la compañía habló sobre "aprendizaje automático" y "transformadores" en su Conferencia Mundial de Desarrolladores (WWDC) anual el mes pasado, pero evitó de manera notoria decir "IA".

Pero eso no significa que no juegue el mismo juego que todos los demás. Según Bloomberg (£):

El fabricante de iPhone ha creado su propio marco para crear grandes modelos de lenguaje, los sistemas impulsados ​​​​por IA en el corazón de nuevas ofertas como ChatGPT y Bard de Google, según personas familiarizadas con los esfuerzos. Con esta base, conocida como "Ajax", Apple también creó un servicio de chatbot que algunos ingenieros llaman "Apple GPT".

En los últimos meses, el impulso de la IA se ha convertido en un gran esfuerzo para Apple, con múltiples equipos colaborando en el proyecto, dijeron las personas, que pidieron no ser identificadas porque el asunto es privado. El trabajo incluye intentar resolver posibles problemas de privacidad relacionados con la tecnología.

Por un lado: por supuesto que lo son. Es difícil de recordar, ya que ha estado en un segundo plano durante tanto tiempo, pero Apple dominó la industria con los asistentes de voz cuando lanzó Siri en 2011. Pero en unos pocos años, ciertamente con el lanzamiento del altavoz inteligente Echo en 2014, se había quedado atrás y ahora ha sido relegado casi a un estado de broma. Arreglar a Siri es un trabajo duro, pero es un trabajo de vanguardia para el que el LLM es perfecto. Por lo tanto, no es de extrañar que la compañía esté trabajando en ello.

Por otro lado: construir un modelo base es difícil, costoso y posiblemente innecesario. Apple se ha basado antes en raíces de código abierto (cada uno de sus sistemas operativos, por ejemplo, se basa en última instancia en el núcleo Darwin de código abierto) y tiene tecnología con licencia de terceros (en particular, en estos días, Arm, que aún proporciona los diseños básicos para sus chips). Y hay muchas oportunidades para cualquiera de estos enfoques...

Meta y Microsoft

El modelo de base Llama de Meta se convirtió en la base accidental de toda una comunidad de investigación. El competidor GPT se lanzó para su descarga para un grupo selecto de investigadores, que habían firmado NDA y prometieron no compartirlo más ampliamente... cuando se filtró rápidamente. Se compartieron copias de Samizdat en la red, al igual que un sistema de colaboración completo sin revelar abiertamente el LLM robado. Todo esto iba en contra de los términos de Meta, pero la empresa no parecía demasiado infeliz por estar en el centro de una revolución informática.

Y ahora es oficial. Meta lanzó Llama 2 con términos de servicio que legitiman este ecosistema. De su anuncio:

Ahora estamos listos para lanzar la próxima versión de Llama 2 y hacer que esté disponible gratuitamente para investigación y uso comercial. También incluimos pesos de modelo y código semilla para el modelo preentrenado y versiones conversacionales ajustadas.

Y la empresa se ha asociado con Microsoft para ampliar el acceso:

A partir de hoy, Llama 2 está disponible en Azure AI Template Catalog, lo que permite a los desarrolladores que usan Microsoft Azure crear con él y aprovechar sus herramientas nativas de la nube para el filtrado de contenido y las funciones de seguridad. También está optimizado para ejecutarse localmente en Windows, lo que brinda a los desarrolladores un flujo de trabajo fluido a medida que brindan experiencias generativas de inteligencia artificial a los clientes en diferentes plataformas.

Sin embargo, el patrón es libre como en la cerveza, en lugar de libre como en el habla. Los términos comerciales de Meta requieren una licencia de cualquier empresa con más de 700 millones de usuarios activos mensuales, esencialmente todas las demás empresas mencionadas en el boletín de hoy y muy pocas más. Además de eso, evita que alguien use Llama 2 para actualizar otros LLM. Puede ser gratis, en otras palabras, pero no es de código abierto.

IA abierta

IA abierta¿Las medidas para hacer que los LLM sean más seguros también los hacen más tontos? Fotografía OpenAI: Olivier Morin/AFP/Getty Images

Pero sigue siendo más abierto que la competencia. Permitir que los usuarios, investigadores y competidores (más pequeños) descarguen el modelo completo y vean cómo funciona obviamente ayuda a cualquier persona que quiera aprovechar lo que ha hecho, pero también ayuda a generar confianza con socios potenciales. Para ver una señal de las trampas que vienen con el enfoque opuesto, eche un vistazo a OpenAI. De Ars Technica:

En un estudio titulado "¿Cómo cambia el comportamiento de ChatGPT con el tiempo?" publicado en arXiv, Lingjiao Chen, Matei Zaharia y James Zou, cuestionan el desempeño constante de los modelos de lenguaje grande (LLM) de OpenAI, especialmente GPT-3.5 y GPT-4. Mediante el acceso a la API, probaron las versiones de marzo y junio de 2023 de estos modelos en tareas como resolver problemas matemáticos, responder preguntas delicadas, generar código y razonamiento visual. En particular, la capacidad de GPT-4 para identificar números primos se redujo drásticamente, de un 97,6 % de precisión en marzo a solo un 2,4 % en junio. Curiosamente, GPT-3.5 mostró un rendimiento mejorado durante el mismo período.

Los hallazgos juegan con un temor generalizado de que los esfuerzos para mejorar la seguridad de GPT la están haciendo más tonta. Sin duda, OpenAI publica ajustes en GPT con regularidad y, dada la regularidad con la que el director general, Sam Altman, habla sobre la seguridad de la IA, es perfectamente plausible que estos ajustes se centren en gran medida en la seguridad. Entonces, si el sistema está empeorando, en lugar de mejorar, puede deberse a esta compensación.

omitir la promoción del boletín

La inmersión semanal de Alex Hern sobre cómo la tecnología está dando forma a nuestras vidas

","newsletterId":"tech-scape","successDescription":"Le enviaremos TechScape semanalmente"}" clientOnly>Aviso de privacidad: los boletines pueden contener información sobre organizaciones benéficas, anuncios en línea y contenido financiado por terceros. Para obtener más información, consulte nuestra política de privacidad. Usamos Google reCaptcha para proteger nuestro sitio web y se aplican la Política de privacidad y los Términos de servicio de Google.

Pero el papel en sí no se sostiene. Ars Technica, de nuevo:

El investigador de inteligencia artificial Simon Willison también cuestiona los hallazgos del artículo. "No me parece muy convincente", le dijo a Ars. "Una parte decente de sus críticas es si la salida del código está envuelta o no en los acentos inversos de Markdown"... Hasta ahora, Willison cree que cualquier cambio percibido en las capacidades de GPT-4 se debe a la novedad de los LLM que se desvanecen. Después de todo, GPT-4 desató una ola de pánico AGI poco después del lanzamiento y una vez se probó para ver si podía dominar el mundo. Ahora que la tecnología se ha vuelto más común, sus fallas parecen evidentes.

Pero las acusaciones golpean el corazón del modelo (irónicamente) cerrado de OpenAI. La empresa realiza cambios regularmente en GPT, con poca explicación y sin capacidad para que los usuarios entiendan por qué o cómo difiere cada nuevo modelo. Inspeccionar cualquier LLM es un problema de "caja negra", con poca oportunidad de mirar dentro y ver cómo piensa, pero estos problemas son mucho peores cuando su única forma de interactuar es a través de una API a una versión alojada por un tercero.

Ars Tehcnica, una última vez:

Willison está de acuerdo. "Honestamente, la falta de notas de lanzamiento y transparencia es quizás la historia más importante aquí", dijo a Ars. "¿Cómo se supone que construimos un software confiable en una plataforma que cambia de formas completamente indocumentadas y misteriosas cada pocos meses?"

X marca el lugar

El pájaro azul de Twitter había volado sobre la cooperativa Musk.El pájaro azul de Twitter ya no tuitea. Fotografía: Mateusz Slodkowski/ZUMA Press Wire/Shutterstock

Así que Twitter tiene un nuevo nombre: aquí está todo lo que sabemos hasta ahora.

El TechScape ampliado

Lily Tomlin y Jane Fonda en el piquete en Hollywood.Lily Tomlin y Jane Fonda en el piquete en Hollywood. Fotografía: Jake Lee Green/ZUMA Press Wire/Shutterstock

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir