Un estudio innovador publicado el 19 de junio de 2025 por investigadores del Laboratorio de Medios del Instituto de Tecnología de Massachusetts (MIT) ha presentado un vínculo potencial entre el uso sostenido de modelos de idiomas grandes (LLM) como ChatGPT y una disminución medible en la función cognitiva. Los hallazgos sugieren que depender en gran medida de las herramientas de IA para las tareas que requieren un pensamiento crítico pueden obstaculizar el compromiso cerebral y el rendimiento intelectual general con el tiempo, particularmente en las mentes más jóvenes y en desarrollo.
El estudio integral involucró un experimento controlado diseñado para evaluar el impacto de las herramientas de IA en la cognición humana. Los investigadores reclutaron sujetos y les encargaron escribir múltiples ensayos SAT, una evaluación estandarizada conocida por exigir habilidades lingüísticas y analíticas complejas. Para aislar los efectos de la IA, estos sujetos se dividieron meticulosamente en tres grupos distintos. El primer grupo recibió acceso a ChatGPT de OpenAI, un modelo de lenguaje grande prominente, para su ayuda. El segundo grupo se basó en el motor de búsqueda de Google, una herramienta de investigación digital más tradicional. El tercer y último grupo, denominado grupo “solo para cerebro”, completó sus ensayos sin ningún ayudas digitales, confiando únicamente en sus propias habilidades cognitivas.
Para medir cuantitativamente la actividad y el compromiso del cerebro durante el proceso de redacción de ensayos, los investigadores emplearon electroencefalografía (EEG). Esta técnica neurofisiológica no invasiva registra la actividad eléctrica del cerebro, proporcionando información sobre las vías neuronales y el procesamiento cognitivo en múltiples regiones cerebrales. El monitoreo detallado del EEG permitió al equipo del MIT rastrear cómo los cerebros de cada grupo respondieron a las demandas cognitivas de la tarea durante varios meses.
Los resultados del estudio revelaron disparidades significativas en el compromiso y el rendimiento del cerebro entre los tres grupos. Los sujetos que utilizaron constantemente ChatGPT para sus ensayos exhibieron los niveles más bajos de compromiso cerebral. Además, este grupo “constantemente tuvo un rendimiento constante a nivel neural, lingüístico y de comportamiento”, de acuerdo con los hallazgos publicados del estudio. Profundizando más en los patrones de comportamiento del grupo ChatGPT, los investigadores observaron un cambio notable en sus hábitos de uso. Inicialmente, estos participantes aprovecharían la LLM para plantear preguntas estructurales, buscando orientación sobre la organización de ensayos y el desarrollo temático. Sin embargo, a medida que avanzaba el estudio, surgió una tendencia preocupante: los sujetos se recurrieron cada vez más a copiar y pegar directamente el contenido de ensayo generado por ChatGPT, lo que indica una dependencia decreciente de sus propias capacidades analíticas y de escritura.
En contraste, el grupo que utilizó el motor de búsqueda de Google demostró un nivel moderado de compromiso cerebral. Si bien utilizaron una herramienta externa, la naturaleza de un motor de búsqueda generalmente requiere que los usuarios examinen la información, la sinteten y formulen sus propias respuestas, lo que requiere una participación cognitiva más activa que la generación de contenido directo. El grupo “solo cerebral”, como se anticipó, mostró las “redes más fuertes y de gran alcance” de la actividad cerebral. Este resultado refuerza la comprensión de que participar en tareas cognitivas complejas sin atajos externos estimula una variedad más amplia de conexiones neuronales, fomentando un desarrollo intelectual robusto.
Estos hallazgos convincentes sugieren que el uso generalizado de LLM como ChatGPT podría dañar el pensamiento crítico de un individuo y la función cognitiva general durante un período prolongado. Esta preocupación es particularmente aguda cuando se considera a los usuarios más jóvenes, cuyos cerebros aún están en etapas de desarrollo cruciales. El lanzamiento del estudio llega en un momento en que los educadores a nivel mundial están lidiando con la integración generalizada de las herramientas de IA en entornos académicos, navegando por la delgada línea entre aprovechar la tecnología para aprender y evitar su mal uso para la deshonestidad académica.
Nataliya Kosmyna, la autora principal del estudio, expresó sus urgentes preocupaciones con respecto a las implicaciones de estos hallazgos para la política educativa. En declaraciones a Time, Kosmyna declaró: “Lo que realmente me motivó a publicarlo ahora antes de esperar una revisión completa de pares es que me temo en 6-8 meses, habrá algunos formuladores de políticas que deciden:” Hagamos GPT Kindergarten “. Creo que eso sería absolutamente malo y perjudicial “. Ella enfatizó la vulnerabilidad particular de las personas jóvenes, y agregó: “Los cerebros en desarrollo tienen el mayor riesgo”.
A pesar de estos hallazgos de advertencia, la tendencia de incorporar la inteligencia artificial en los marcos educativos parece ser acelerado, en lugar de desacelerar. Tan recientemente como abril, el presidente Trump firmó una orden ejecutiva destinada a integrar las herramientas de IA en las aulas de los Estados Unidos. El secretario de personal de la Casa Blanca, Will Scharf, elaboró la justificación detrás de esta orden ejecutiva, afirmando: “La idea básica de esta orden ejecutiva es garantizar que capacitemos adecuadamente la fuerza laboral del futuro asegurando que los niños escolares, los jóvenes estadounidenses, estén adecuadamente capacitados en herramientas de inteligencia artificial, para que puedan ser competitivos en la economía años desde ahora en el futuro, a medida que se convierte en una oferta más grande y más grande”. Esta política tiene como objetivo equipar la fuerza laboral futura con habilidades consideradas esenciales para una economía cada vez más formada por la IA, creando una dicotomía entre los beneficios percibidos de la alfabetización de IA y los posibles inconvenientes cognitivos destacados por la investigación del MIT.
El estudio del MIT sirve como una contribución crítica al discurso en curso que rodea la inteligencia artificial y su impacto en la cognición humana. A medida que las tecnologías de IA se vuelven más sofisticadas e integradas en la vida diaria, estos hallazgos subrayan la importancia de comprender sus efectos a largo plazo, particularmente en entornos educativos donde se están formando las mentes de las generaciones futuras.
Source: CHATGPT Use vinculado al deterioro cognitivo, el estudio del MIT encuentra





