El gobierno de la Ciudad Autónoma de Buenos Aires anunció la utilización de Gemini en todas las escuelas primarias públicas. La medida va a contramano de las recomendaciones internacionales: Unicef sugiere que la edad mínima para utilizar IA generativa es 13 años
El gobierno porteño anunció con entusiasmo la llegada de la inteligencia artificial de Google a las escuelas públicas. La iniciativa se presenta como un salto pedagógico: docentes asistidos por algoritmos, estudiantes interactuando con plataformas inteligentes, tecnología de última generación aplicada al aprendizaje. La escena suena moderna. Silicon Valley entrando por la puerta del aula con promesa de futuro.
El problema es que la inteligencia artificial todavía tiene un pequeño inconveniente: a veces es bastante poco inteligente.
La prueba llegó desde España. Un usuario consultó al sistema de IA de Google una pregunta bastante elemental: cuántas personas viven en el planeta. La respuesta fue un prodigio de lógica torcida. El sistema explicó que para calcular la población había que sumar a los vivos con todos los humanos que alguna vez existieron. Es decir: vivos más muertos. Conclusión: más de cien mil millones de personas “en el mundo”.
No era una broma. Era la respuesta seria de un sistema diseñado para procesar información con precisión matemática.
El episodio español tiene algo de fábula tecnológica. La inteligencia artificial es capaz de indexar bibliotecas enteras en segundos, analizar millones de datos y responder con una seguridad impecable. Pero puede tropezar con algo que cualquier estudiante de primaria resolvería en cinco segundos.
La paradoja es perfecta para el momento que vive la educación. Mientras los gobiernos anuncian la llegada de la inteligencia artificial al aula, el sistema educativo todavía pelea por sostener algo bastante más básico: que los estudiantes aprendan a pensar.
Porque la IA no razona. Calcula probabilidades. No entiende el mundo: lo predice estadísticamente. Es un loro extremadamente sofisticado que aprendió a repetir lo que leyó en internet, sólo que ahora lo hace con tono enciclopédico.
Y ahí aparece el verdadero riesgo pedagógico. No es que las máquinas se equivoquen. Los humanos también lo hacen. El problema es la autoridad con la que se equivoca la máquina. La IA no duda. No titubea. No dice “no sé”. Se equivoca con la convicción de un experto.
Justo lo contrario de lo que debería enseñar una escuela.
Por eso la escena es casi irónica. En nombre del progreso tecnológico, se introduce en las aulas una herramienta que produce respuestas instantáneas, mientras la educación —la de verdad— consiste exactamente en lo contrario: aprender a desconfiar de las respuestas demasiado rápidas.
La inteligencia artificial puede ser una herramienta útil. Pero si algo mostró el episodio español es que todavía necesita algo que ningún algoritmo puede fabricar.




