Por qué los beneficios de la inteligencia artificial de código abierto superan los riesgos: Entrevista con el cofundador de Hugging Face, Wolf

Por qué los beneficios de la inteligencia artificial de código abierto superan los riesgos: Entrevista con el cofundador de Hugging Face, Wolf

En esta edición, un cofundador de Hugging Face sobre la importancia del código abierto, un Premio Nobel para Geoff Hinton y John Hopfield, un modelo de película de Meta, ¿un ‘Proyecto Manhattan’ de Trump para la IA?

¡Hola y bienvenidos a Eye on AI!

Ayer tuve el privilegio de moderar una charla con Thomas Wolf, cofundador y director científico de Hugging Face, en la Cumbre de Liderazgo Global de CogX en el Royal Albert Hall en Londres.

Hugging Face, por supuesto, es el principal repositorio del mundo para modelos de IA de código abierto, el GitHub de la IA, por así decirlo. Fundada en 2016 (en Nueva York, como me recordó Wolf en el escenario cuando dije erróneamente que la compañía había sido fundada en París), la compañía fue valorada en 4.500 millones de dólares en su última ronda de financiación de capital de riesgo de 235 millones de dólares en agosto de 2023.

Fue fascinante escuchar a Wolf hablar sobre lo que él ve como la importancia vital de los modelos de IA de código abierto y asegurarse de que la IA sea en última instancia una tecnología exitosa y impactante. Aquí hay algunas ideas clave de nuestra conversación.

Menos es más

Wolf argumentó que era la comunidad de código abierto la que estaba liderando el camino en el esfuerzo por producir modelos de IA más pequeños que funcionan tan bien como los más grandes. Señaló que la recién lanzada familia de modelos Llama 3.2 de Meta incluye dos modelos pequeños, de 1.000 millones y 3.000 millones de parámetros, en comparación con decenas de miles o incluso cientos de miles de millones, que funcionan tan bien como muchos modelos más grandes en tareas basadas en texto, incluida la síntesis.

Los modelos más pequeños, a su vez, argumentó Wolf, serían esenciales por dos razones. Uno, permitirían a las personas ejecutar IA directamente en teléfonos inteligentes, tabletas, y quizás eventualmente en otros dispositivos, sin tener que transmitir datos a la nube. Eso era mejor para la privacidad y la seguridad de los datos. Y permitiría a las personas disfrutar de los beneficios de la IA incluso si no tuvieran una conexión a Internet constante y de alta velocidad.

Más importante aún, los modelos más pequeños consumen menos energía que los grandes modelos que se ejecutan en centros de datos. Eso es importante para combatir la huella de carbono y el consumo de agua en crecimiento de la IA.

Democratización de la IA

Críticamente, Wolf ve la IA de código abierto y los modelos pequeños como fundamentalmente "democratizadores" de la tecnología. Él, como muchos, está perturbado por la medida en que la IA simplemente ha reforzado el poder de los grandes gigantes tecnológicos, como Microsoft, Google, Amazon, y, sí, Meta, aunque se podría argumentar que ha hecho más por la IA de código abierto que nadie más.

Si bien OpenAI y, en menor medida, Anthropic, han surgido como actores clave en el desarrollo de capacidades de IA de frontera, solo han podido hacerlo a través de asociaciones cercanas y relaciones de financiamiento con gigantes tecnológicos (Microsoft en el caso de OpenAI; Amazon y Google en el caso de Anthropic). Muchas de las otras compañías que trabajan en LLMs propietarios—Inflection, Character.ai, Adept, Aleph Alpha, por mencionar solo algunas—han optado por alejarse de intentar construir los modelos más capaces.

La única forma de asegurar que solo unas pocas compañías no monopolicen esta vital tecnología es hacerla libremente disponible para los desarrolladores e investigadores como software de código abierto, dijo Wolf. Los modelos de código abierto—y especialmente los modelos pequeños de código abierto—también dieron a las empresas más control sobre cuánto estaban gastando, lo cual él consideraba crítico para que las empresas realmente logren ese esquivo retorno de la inversión en IA.

Más seguro a largo plazo

Presioné a Wolf sobre los riesgos de seguridad de la IA de código abierto. Dijo que otros tipos de software de código abierto, como Linux, han terminado siendo más seguros que el software propietario porque hay tantas personas que pueden escrutar el código, encontrar vulnerabilidades de seguridad y luego descubrir cómo corregirlas. Dijo que pensaba que la IA de código abierto resultaría no ser diferente.

Le dije a Wolf que tenía menos confianza que él. En este momento, si un atacante tiene acceso a los pesos de un modelo, es fácil crear indicaciones, algunas de las cuales podrían parecer disparates para un humano, diseñadas para hacer que ese modelo salte sus barreras de protección y haga algo que no debería, ya sea revelar datos propietarios, escribir malware o dar al usuario una receta para un arma biológica.

Además, la investigación ha demostrado que un atacante puede usar los pesos de modelos de código abierto para ayudar a diseñar ataques similares de "inyección de indicaciones" que también funcionarán razonablemente bien contra modelos propietarios. Entonces, los modelos abiertos no solo son más vulnerables, sino que potencialmente están haciendo que todo el ecosistema de IA sea menos seguro.

Wolf reconoció que podría haber un equilibrio—con los modelos abiertos siendo más vulnerables a corto plazo hasta que los investigadores pudieran descubrir cómo protegerlos mejor. Pero insistió en que a largo plazo, tener tantos ojos en un modelo haría que la tecnología fuera más segura.

Apertura, en un espectro

También le pregunté a Wolf sobre la controversia sobre la clasificación del software de IA de Meta como de código abierto, cuando los puristas del código abierto critican a la compañía por imponer algunas restricciones en los términos de la licencia de sus modelos de IA y por no divulgar completamente los conjuntos de datos en los que sus modelos están entrenados. Wolf dijo que era mejor ser menos dogmático y pensar en la apertura como existente en un espectro, con algunos modelos, como los de Meta, siendo "semiabiertos".

Mejores puntos de referencia

Una de las cosas por las que Hugging Face es más conocido son sus tablas de clasificación, que clasifican modelos de código abierto entre sí según su rendimiento en ciertos puntos de referencia. Si bien las tablas de clasificación son útiles, lamenté el hecho de que casi no existen que busquen demostrar qué tan bien funcionan los modelos de IA como ayuda para el trabajo y la inteligencia humanos. Es en este papel de "copiloto" donde los modelos de IA han encontrado sus mejores usos hasta ahora. Y sin embargo, casi no hay puntos de referencia para ver qué tan bien funcionan los humanos cuando son asistidos por diferentes software de IA. En cambio, las tablas de clasificación siempre enfrentan a los modelos entre sí y contra el rendimiento a nivel humano—lo que tiende a enmarcar la tecnología como un reemplazo de la inteligencia y el trabajo humano.

Wolf estuvo de acuerdo en que sería genial tener puntos de referencia que analicen cómo se desempeñan los humanos cuando son asistidos por la IA, y señaló que algunos modelos iniciales para la codificación tenían dichos puntos de referencia, pero dijo que estas pruebas de referencia eran más costosas de llevar a cabo ya que tenías que pagar a los probadores humanos, por lo que pensaba que pocas empresas las intentaban.

Ganando dinero

Interesantemente, Wolf también me dijo que Hugging Face se está desviando de una tendencia entre las compañías de IA: es rentable. (La compañía gana dinero con proyectos de consultoría y vendiendo herramientas para desarrolladores empresariales). Por el contrario, se cree que OpenAI está quemando miles de millones de dólares. Tal vez realmente hay un futuro rentable en regalar modelos de IA.

Con eso, aquí tienes más noticias sobre IA.

Por Jeremy Kahn
jeremy.kahn@fortune.com
@jeremyakahn

Antes de pasar a las noticias… Si deseas aprender más sobre la IA y sus posibles impactos en nuestras empresas, nuestros trabajos, nuestra sociedad e incluso en nuestras vidas personales, considera adquirir una copia de mi libro, "Dominando la IA: Una Guía de Supervivencia para Nuestro Futuro Superpotenciado". Ya está disponible en los Estados Unidos de Simon & Schuster, y puedes pedir una copia hoy aquí. En el Reino Unido y los países de la Commonwealth, puedes comprar la edición británica de Bedford Square Publishers aquí.