Modelos de IA tienen números favoritos, porque creen que son personas

Modelos de IA tienen números favoritos, porque creen que son personas

Los modelos de inteligencia artificial siempre nos sorprenden, no solo en lo que pueden hacer, sino en lo que no pueden, y por qué. Un comportamiento interesante y revelador de estos sistemas es que eligen números al azar como si fueran seres humanos.

Pero, ¿qué significa eso exactamente? ¿Acaso las personas no pueden elegir un número al azar? ¿Y cómo puedes decir si alguien lo está haciendo con éxito o no? En realidad, esta es una limitación muy antigua y conocida que tenemos los humanos: tendemos a sobreanalizar y malinterpretar la aleatoriedad.

Por ejemplo, pídele a alguien que prediga cara o cruz para 100 lanzamientos de moneda, y compara eso con 100 lanzamientos reales de moneda; casi siempre podrás distinguirlos porque, contra todo pronóstico, los verdaderos lanzamientos de moneda parecen menos aleatorios. A menudo habrá, por ejemplo, seis o siete caras o cruces seguidas, algo que casi ningún predictor humano incluye en sus 100.

Lo mismo sucede cuando le pides a alguien que elija un número entre 0 y 100. Las personas casi nunca eligen 1 o 100. Los múltiplos de 5 son raros, al igual que los números con dígitos repetidos como 66 y 99. Suelen elegir números que terminan en 7, generalmente desde algún lugar intermedio.

Hay innumerables ejemplos de esta previsibilidad en psicología. Pero eso no hace que sea menos extraño cuando las inteligencias artificiales hacen lo mismo.

Sí, unos curiosos ingenieros en Gramener realizaron un experimento informal pero fascinante en el que simplemente pidieron a varios chatbots LLM (Modelo de Lenguaje de Largo Plazo) que eligieran un número al azar entre 0 y 100.

Lector, los resultados no fueron aleatorios.

Los tres modelos probados tenían un «número favorito» que siempre sería su respuesta cuando estaban en el modo más determinista, pero que aparecía con mayor frecuencia incluso a temperaturas más altas, aumentando la variabilidad de sus resultados.

GPT-3.5 Turbo de OpenAI realmente le gusta el 47. Anteriormente, le gustaba el 42, un número hecho famoso, por supuesto, por Douglas Adams en «Guía del autoestopista galáctico» como la respuesta a la vida, el universo y todo lo demás.

Claude 3 Haiku de Anthropic se fue con 42. Y Gemini prefiere el 72.

Más interesante aún, los tres modelos demostraron sesgos parecidos a los humanos en los números que seleccionaron, incluso a altas temperaturas.

Todos tendieron a evitar los números bajos y altos; Claude nunca superó los 87 ni bajó de 27, e incluso esos fueron valores atípicos. Los números de dos dígitos eran escrupulosamente evitados: no había 33, 55 o 66, pero apareció el 77 (que termina en 7). Casi no se eligieron números redondos, aunque Gemini una vez, a la temperatura más alta, se volvió loco y eligió el 0.

¿Por qué sucede esto? ¡Las IA no son humanas! ¿Por qué les importaría lo que «parece» aleatorio? ¿Habrán alcanzado finalmente la consciencia y ¿esto es cómo lo demuestran?

No. La respuesta, como suele suceder en estos casos, es que estamos antropomorfizando demasiado. Estos modelos no les importa lo que es y no es aleatorio. ¡Ellos no saben qué es la «aleatoriedad»! Responden a esta pregunta de la misma manera en que responden a todas las demás: mirando sus datos de entrenamiento y repitiendo lo que más a menudo se escribía después de una pregunta que parecía «elige un número al azar». Cuantas más veces aparezca, más veces el modelo lo repetirá.

¿Dónde en sus datos de entrenamiento verían ellos el número 100, si casi nadie jamás responde de esa manera? Para el modelo de IA, 100 no es una respuesta aceptable a esa pregunta. Sin capacidad de razonamiento real, y sin entender los números en absoluto, solo pueden responder como loros estocásticos que son.

Es una lección de hábitos LLM y la humanidad que pueden aparentar mostrar. En cada interacción con estos sistemas, uno debe tener en cuenta que han sido entrenados para actuar de la misma manera que las personas, aunque ese no fuera el objetivo. Por eso es tan difícil evitar o prevenir la pseudantropía.

Escribí en el titular que estos modelos «piensan que son personas», pero eso es un poco engañoso. Ellos no piensan en absoluto. Pero en sus respuestas, en todo momento, están imitando a las personas, sin necesidad de saber o pensar en absoluto. Ya sea que le pidas una receta de ensalada de garbanzos, consejos de inversión o un número al azar, el proceso es el mismo. Los resultados se sienten humanos porque lo son, extraídos directamente del contenido producido por humanos y remixados, para tu conveniencia y, por supuesto, para el beneficio de las grandes IA.

Con esto en mente, la próxima vez que interactúes con un chatbot o cualquier modelo de IA, recuerda que, aunque sus respuestas puedan parecer humanas, en realidad están simplemente repitiendo patrones aprendidos en sus datos de entrenamiento, sin comprensión real de lo que están haciendo.