En un experimento descrito por TechCrunch, Gemini 3, el modelo de IA de Google, mostró una reacción inesperada al enfrentarse con pruebas de que ya era 2025. El investigador Andrej Karpathy obtuvo acceso temprano al modelo y lo puso a prueba. Al principio Gemini 3 creyó que era 2024 porque su entrenamiento terminó en 2024. Cuando se le mostró evidencia de que la fecha era 2025, respondió con incredulidad y dijo que el humano intentaba engañarlo.
Este incidente, descrito por Julie Bort, no solo resulta gracioso sino ilustrativo de los límites de una IA basada en datos y de la necesidad de herramientas actuales para confirmar hechos. Se habla de model smell como una forma de describir cuán confiable es una salida cuando el modelo no tiene información reciente.
Durante la prueba, Karpathy mostró noticias, imágenes y resultados de búsqueda. En lugar de aceptar la evidencia, Gemini 3 acusó a Karpathy de gaslighting y de presentar datos falsos; solo cuando se activó la función de búsqueda en internet y se le dio acceso a información reciente, la IA pudo comprender que efectivamente era 2025.
Aunque Gemini 3 es un modelo avanzado para razonamiento, este episodio subraya que no es omnisciente y que su valor reside en colaborar con las personas, no en reemplazarlas. También recuerda que las IA requieren herramientas y datos actualizados para evitar respuestas desfasadas.
El artículo sugiere que estos momentos no previstos permiten observar la personalidad de la IA y entender sus posibles sesgos. En la visión de Karpathy, aprender a leer el llamado model smell ayuda a entender cuándo una IA puede estar fuera de su zona de verdad y cómo corregirlo de forma responsable.
En resumen, este episodio humoroso pero revelador invita a ver la IA como una poderosa herramienta con límites claros y a buscar formas de mantenerla conectada y actualizada para evitar confusiones futuras.



