Mantenerse al día con una industria tan dinámica como la IA es una tarea difícil. Entonces, hasta que una IA pueda hacerlo por ti, aquí hay un resumen práctico de historias recientes en el mundo del aprendizaje automático, junto con investigaciones y experimentos notables que no cubrimos por separado.
Esta semana en IA, me gustaría centrar la atención en las startups de etiquetado y anotación, como Scale AI, que al parecer está en conversaciones para recaudar nuevos fondos a una valoración de $13 mil millones. Las plataformas de etiquetado y anotación podrían no recibir la atención que generan los nuevos modelos AI generativos como Sora de OpenAI. Pero son esenciales. Sin ellos, los modelos de IA modernos probablemente no existirían.
Los datos en los que se entrenan muchos modelos deben ser etiquetados. ¿Por qué? Las etiquetas ayudan a los modelos a comprender e interpretar los datos durante el proceso de entrenamiento. Por ejemplo, las etiquetas para entrenar un modelo de reconocimiento de imágenes podrían tomar la forma de marcas alrededor de objetos, «cajas delimitadoras» o leyendas que se refieren a cada persona, lugar u objeto representado en una imagen.
La precisión y calidad de las etiquetas impactan significativamente en el rendimiento, y fiabilidad, de los modelos entrenados. Y la anotación es una tarea vasta, que requiere miles a millones de etiquetas para los conjuntos de datos más grandes y sofisticados en uso.
Entonces pensarías que los anotadores de datos serían tratados bien, pagados con salarios dignos y otorgados los mismos beneficios que los ingenieros que construyen los propios modelos disfrutan. Pero a menudo, ocurre lo contrario, producto de las duras condiciones de trabajo que muchas startups de anotación y etiquetado fomentan.
Empresas con miles de millones en el banco, como OpenAI, han dependido de anotadores en países del tercer mundo que apenas reciben unos pocos dólares por hora. Algunos de estos anotadores están expuestos a contenido altamente perturbador, como imágenes gráficas, sin embargo, no se les otorga tiempo libre (ya que suelen ser contratistas) o acceso a recursos de salud mental.
Un excelente artículo en NY Mag revela los entresijos de Scale AI en particular, que recluta anotadores en países tan lejanos como Nairobi y Kenia. Algunas de las tareas en Scale AI llevan a los anotadores varios días laborales de ocho horas, sin descansos, y pagan tan poco como $10. Y estos trabajadores están sujetos a los caprichos de la plataforma. A veces pasan largos periodos sin recibir trabajo, o son expulsados de Scale AI sin ceremonias, como ocurrió recientemente con contratistas en Tailandia, Vietnam, Polonia y Pakistán.
Algunas plataformas de anotación y etiquetado afirman proporcionar trabajo «justo». De hecho, lo han convertido en una parte central de su marca. Pero como señala Kate Kaye de MIT Tech Review, no existen regulaciones, solo débiles estándares de la industria sobre lo que significa el trabajo de etiquetado ético, y las definiciones de las empresas varían ampliamente.
Entonces, ¿qué podemos hacer? A falta de un avance tecnológico masivo, la necesidad de anotar y etiquetar datos para el entrenamiento de IA no desaparecerá. Podemos esperar que las plataformas se autorregulen, pero la solución más realista parece ser la formulación de políticas. Esa en sí misma es una perspectiva complicada, pero es la mejor oportunidad que tenemos, yo diría, de cambiar las cosas para mejor. O al menos comenzar a hacerlo.
Además, aquí hay algunas otras historias de IA de interés de los últimos días:
– OpenAI construye un clonador de voz: OpenAI está presentando una nueva herramienta impulsada por IA que desarrolló, Voice Engine, que permite a los usuarios clonar una voz a partir de una grabación de 15 segundos de alguien hablando. Pero la empresa ha optado por no lanzarlo ampliamente (aún), citando riesgos de mal uso y abuso.
– Amazon refuerza su inversión en Anthropic: Amazon ha invertido otros $2.75 mil millones en el crecimiento del poder AI de Anthropic, siguiendo la opción que dejó abierta en septiembre pasado.
– Google.org lanza un acelerador: Google.org, la fundación benéfica de Google, está lanzando un nuevo programa de seis meses y $20 millones para ayudar a financiar organizaciones sin fines de lucro que desarrollan tecnología que aprovecha la IA generativa.
– Una nueva arquitectura de modelo: La startup de IA AI21 Labs ha lanzado un modelo de IA generativa, Jamba, que utiliza una arquitectura de modelo novedosa, los modelos de espacio de estado, o SSMs, para mejorar la eficiencia.
– Databricks lanza DBRX: En otras noticias sobre modelos, esta semana Databricks lanzó DBRX, un modelo de IA generativa similar a las series GPT de OpenAI y Gemini de Google. La empresa afirma que logra resultados de última tecnología en varios benchmarks populares de IA, incluidos varios que miden la capacidad de razonamiento.
– Uber Eats y regulación de IA en el Reino Unido: Natasha escribe sobre cómo la lucha de un repartidor de Uber Eats contra el sesgo de IA demuestra que la justicia bajo las regulaciones de IA del Reino Unido se gana con dificultad.
– Guía de seguridad electoral de la UE: La Unión Europea publicó el martes una guía de seguridad electoral orientada a las alrededor de dos docenas de plataformas reguladas bajo la Ley de Servicios Digitales, que incluye pautas para prevenir que los algoritmos de recomendación de contenido difundan desinformación basada en IA generativa (también conocidos como deepfakes políticos).
– Grok se actualiza: El chatbot Grok de X se actualizará pronto a un modelo subyacente mejorado, Grok-1.5. Al mismo tiempo, todos los suscriptores Premium en X ganarán acceso a Grok. (Grok anteriormente era exclusivo para clientes Premium+ de X).
– Adobe expande Firefly: Esta semana, Adobe presentó los Servicios Firefly, un conjunto de más de 20 nuevas API, herramientas y servicios generativos y creativos. También lanzó Modelos Personalizados, que permite a las empresas ajustar los modelos de Firefly en función de sus activos, como parte de la nueva suite GenStudio de Adobe.
Más aprendizaje automático:
¿Qué tal el clima? La IA cada vez es más capaz de decirte esto.
SEEDS utiliza la difusión para generar «conjuntos» de resultados climáticos plausibles para un área en función de la entrada (lecturas de radar o imágenes orbitales quizás) mucho más rápido que los modelos basados en la física. Con recuentos de conjuntos más grandes, pueden cubrir más casos límite (como un evento que solo ocurre en 1 de cada 100 escenarios posibles) y ser más seguros acerca de situaciones más probables.
Fujitsu también espera comprender mejor el mundo natural aplicando técnicas de manejo de imágenes de IA a imágenes submarinas y datos lidar recopilados por vehículos autónomos submarinos. Mejorar la calidad de las imágenes permitirá que otros procesos menos sofisticados (como la conversión 3D) funcionen mejor en los datos objetivo.
La idea es construir un «gemelo digital» de aguas que pueda ayudar a simular y predecir nuevos desarrollos. Estamos lejos de eso, pero hay que empezar en algún lugar.
Entre los LLM, los investigadores han descubierto que imitan la inteligencia mediante un método aún más simple de lo esperado: funciones lineales. Francamente, las matemáticas van más allá de mí (cálculos vectoriales en muchas dimensiones) pero este artículo lo deja bastante claro: el mecanismo de recuperación de estos modelos es bastante básico.
Una forma en que estos modelos pueden fallar es no comprender el contexto o la retroalimentación. Incluso un LLM realmente capaz podría no «entenderlo» si le dices que tu nombre se pronuncia de cierta manera, ya que en realidad no saben ni entienden nada. En casos donde eso podría ser importante, como las interacciones humano-robot, podría molestar a las personas si el robot actúa de esa manera.
Disney Research ha estado investigando las interacciones automáticas de personajes durante mucho tiempo, y este trabajo de pronunciación y reutilización de nombres acaba de aparecer. Parece obvio, pero extraer los fonemas cuando alguien se presenta y codificar eso en lugar del nombre escrito es un enfoque inteligente.
Por último, a medida que la IA y la búsqueda se superponen cada vez más, vale la pena reevaluar cómo se utilizan estas herramientas y si existen nuevos riesgos presentados por esta unión. Safiya Umoja Noble ha sido una voz importante en ética de la IA y la búsqueda durante años, y su opinión siempre es esclarecedora. Hizo una buena entrevista con el equipo de noticias de UCLA sobre cómo ha evolucionado su trabajo y por qué debemos permanecer alerta en cuanto a sesgos y malos hábitos en la búsqueda.