jueves, 5 marzo 2026

La inteligencia artificial de google desembarca en las escuelas porteñas

El gobierno de la Ciudad Autónoma de Buenos Aires anunció la utilización de Gemini en todas las escuelas primarias públicas. La medida va a contramano de las recomendaciones internacionales: Unicef sugiere que la edad mínima para utilizar IA generativa es 13 años

El gobierno porteño anunció con entusiasmo la llegada de la inteligencia artificial de Google a las escuelas públicas. La iniciativa se presenta como un salto pedagógico: docentes asistidos por algoritmos, estudiantes interactuando con plataformas inteligentes, tecnología de última generación aplicada al aprendizaje. La escena suena moderna. Silicon Valley entrando por la puerta del aula con promesa de futuro.

El problema es que la inteligencia artificial todavía tiene un pequeño inconveniente: a veces es bastante poco inteligente.

La prueba llegó desde España. Un usuario consultó al sistema de IA de Google una pregunta bastante elemental: cuántas personas viven en el planeta. La respuesta fue un prodigio de lógica torcida. El sistema explicó que para calcular la población había que sumar a los vivos con todos los humanos que alguna vez existieron. Es decir: vivos más muertos. Conclusión: más de cien mil millones de personas “en el mundo”.

No era una broma. Era la respuesta seria de un sistema diseñado para procesar información con precisión matemática.

El episodio español tiene algo de fábula tecnológica. La inteligencia artificial es capaz de indexar bibliotecas enteras en segundos, analizar millones de datos y responder con una seguridad impecable. Pero puede tropezar con algo que cualquier estudiante de primaria resolvería en cinco segundos.

La paradoja es perfecta para el momento que vive la educación. Mientras los gobiernos anuncian la llegada de la inteligencia artificial al aula, el sistema educativo todavía pelea por sostener algo bastante más básico: que los estudiantes aprendan a pensar.

Porque la IA no razona. Calcula probabilidades. No entiende el mundo: lo predice estadísticamente. Es un loro extremadamente sofisticado que aprendió a repetir lo que leyó en internet, sólo que ahora lo hace con tono enciclopédico.

Y ahí aparece el verdadero riesgo pedagógico. No es que las máquinas se equivoquen. Los humanos también lo hacen. El problema es la autoridad con la que se equivoca la máquina. La IA no duda. No titubea. No dice “no sé”. Se equivoca con la convicción de un experto.

Justo lo contrario de lo que debería enseñar una escuela.

Por eso la escena es casi irónica. En nombre del progreso tecnológico, se introduce en las aulas una herramienta que produce respuestas instantáneas, mientras la educación —la de verdad— consiste exactamente en lo contrario: aprender a desconfiar de las respuestas demasiado rápidas.

La inteligencia artificial puede ser una herramienta útil. Pero si algo mostró el episodio español es que todavía necesita algo que ningún algoritmo puede fabricar.

Compartir

Publicidad

Publicidad

Publicidad

Te puede interesar
TAMBIÉN

El presidente que es amigo de Milei encabeza el ranking de mayor caída industrial a nivel mundial

Se trata de Viktor Órban, que registró peores números que la Argentina, según un informe de Audemus.  

Mahiques pidió la UIF y la ley de Inocencia Fiscal quedó en terapia intensiva

El flamante ministro de Justicia promueve una reforma de la Unidad de Información Financiera el órgano que controla el lavado de dinero. El movimiento entra en colisión directa con la llamada ley de Inocencia Fiscal, una iniciativa pensada para relajar el peso penal sobre contribuyentes.

El peronismo del interior empieza a diseñar un modelo de desarrollo propio para diferenciarse del kirchnerismo

Con eje en producción y empleo, buscan correrse del esquema de planes y subsidios que marcó al kirchnerismo.