Investigar con inteligencia artificial: entre el pensamiento crítico y la simulación académica

Avatar de Sergio Martínez Dunstan

La IA puede ayudar a investigar mejor, pero también puede facilitar la simulación de que se investigó.


La inteligencia artificial generativa llegó al campo educativo con una promesa seductora: ahorrar tiempo, organizar información, producir textos, resumir documentos, elaborar matrices, sugerir preguntas, revisar redacción y acelerar tareas que antes requerían muchas horas de trabajo intelectual. En la docencia, esa promesa ya ha generado debates importantes. Pero hay otro terreno donde la discusión apenas comienza y donde los riesgos son incluso más delicados: la investigación educativa.

Si en la enseñanza la IA puede automatizar prácticas pedagógicas obsoletas, en la investigación puede automatizar algo igual de problemático: la apariencia de pensamiento académico.

No se trata de negar el valor de la inteligencia artificial. Sería ingenuo hacerlo. Hoy puede apoyar búsquedas iniciales, ordenar categorías, comparar enfoques, revisar la coherencia de un argumento, sugerir rutas metodológicas o ayudar a visualizar relaciones entre conceptos. Bien utilizada, puede convertirse en una mediación poderosa para ampliar el trabajo académico. El problema aparece cuando se le atribuye una función que no le corresponde: sustituir el juicio del investigador.

Investigar no consiste en producir páginas. Tampoco consiste en ensamblar conceptos, acumular citas o generar marcos teóricos formalmente presentables. Investigar implica formular una pregunta relevante, construir un problema, delimitar un objeto, justificar decisiones metodológicas, interpretar evidencias, dialogar críticamente con autores, reconocer límites y asumir responsabilidad sobre lo que se afirma.

Una investigación no se define por la apariencia académica del producto, sino por la calidad del problema, la pertinencia del método, la consistencia del análisis y la responsabilidad de la interpretación. Ninguna herramienta puede reemplazar ese proceso sin empobrecer el sentido mismo de investigar.

La IA puede ayudar a investigar mejor, pero también puede facilitar la simulación de que se investigó.

Ahí se encuentra la tensión central.

En educación, esta tensión adquiere una importancia mayor porque la investigación educativa no trabaja con objetos neutros. Trabaja con sujetos, instituciones, prácticas, políticas, desigualdades, trayectorias, culturas escolares, decisiones públicas y experiencias humanas. No basta con organizar información sobre una realidad: hay que comprenderla, situarla, interpretarla y responder éticamente por la lectura que se hace de ella.

El riesgo no está en que un estudiante de maestría o doctorado use inteligencia artificial para elaborar una matriz comparativa, depurar una pregunta de investigación o contrastar categorías. El problema aparece cuando utiliza la herramienta para evitar la lectura, sustituir el análisis o encubrir la ausencia de criterio propio. En ese momento, la IA deja de ser mediación académica y comienza a funcionar como coartada intelectual.

La IA no inventó la simulación académica. La hizo más rápida, más limpia y más convincente.

Uno de los primeros riesgos es la automatización de la pregunta. La pregunta de investigación no es un trámite. Es el punto de condensación de una inquietud intelectual, una lectura de realidad y una tensión teórica. Cuando se le pide a la IA que “proponga preguntas de investigación” sin haber leído, observado, problematizado o delimitado un campo, lo que suele obtenerse es una lista correcta, general y académicamente plausible, pero débilmente situada. Son preguntas que suenan a investigación, aunque no necesariamente nacen de un problema real.

El segundo riesgo es la simulación del estado del arte y del marco teórico. La IA puede producir con facilidad apartados conceptuales sobre constructivismo, política educativa, evaluación formativa, gestión escolar, inclusión, brecha digital o Nueva Escuela Mexicana. Puede hacerlo con orden, fluidez y apariencia académica. Pero un marco teórico no es una colección de definiciones. Es una toma de posición. Implica seleccionar autores, reconocer debates, identificar tradiciones, distinguir conceptos, advertir tensiones y justificar desde dónde se mira el objeto de estudio.

Algo similar ocurre con los estados del arte. No son simples resúmenes de autores, sino reconstrucciones críticas de lo que se ha investigado, de los debates abiertos y de los vacíos que justifican una nueva indagación. La IA puede ayudar a organizar rutas de búsqueda, identificar campos semánticos o sugerir relaciones iniciales entre temas. Pero no puede reemplazar la revisión directa de fuentes, la lectura crítica de la literatura ni la identificación de vacíos reales de conocimiento.

Aceptar sin verificación una respuesta generada por IA puede producir un efecto especialmente delicado: presentar como debate académico lo que apenas es una síntesis plausible.

El tercer riesgo es delegar la interpretación. En investigación educativa, interpretar no es resumir datos. Es relacionar evidencias con categorías, contextos y preguntas. Es reconocer patrones sin borrar singularidades. Es advertir contradicciones. Es decidir qué significa un hallazgo y qué no puede afirmarse a partir de él.

Si el investigador entrega entrevistas, respuestas abiertas, narrativas docentes o documentos institucionales a una herramienta de IA para que “haga el análisis”, sin comprender el método, sin revisar categorías y sin contrastar resultados, no está fortaleciendo su investigación. Está renunciando al núcleo más importante de su trabajo intelectual.

Investigar exige lo que en el campo académico suele llamarse vigilancia epistemológica. En términos simples, significa revisar desde dónde se pregunta, con qué categorías se mira, qué supuestos se arrastran, qué límites tiene la evidencia disponible y qué consecuencias puede tener una interpretación. Esa vigilancia no puede automatizarse. Puede apoyarse, documentarse y contrastarse con herramientas digitales, pero no puede ser delegada.

El cuarto riesgo es diluir la autoría. Este punto es ético y académico. La inteligencia artificial no es autora en sentido estricto: no tiene intención, responsabilidad, conciencia del contexto ni compromiso con la verdad. Puede simular operaciones intelectuales valiosas, pero no puede hacerse responsable del sentido, la pertinencia ni las consecuencias de una interpretación.

La autoría sigue perteneciendo a quien formula el problema, decide usar la herramienta, revisa sus resultados, corrige sus errores, verifica sus afirmaciones y asume las consecuencias de lo escrito.

Usar IA no elimina la responsabilidad del investigador; la incrementa.

Por eso, la discusión no debe reducirse a una pregunta administrativa: ¿se permite o no se permite usar IA? Esa pregunta es insuficiente. La discusión de fondo es otra: ¿bajo qué condiciones su uso fortalece el pensamiento académico y bajo qué condiciones lo debilita?

En la formación de posgrado, la IA puede tener un lugar legítimo si se usa con transparencia, método y criterio. Puede servir para construir una primera matriz comparativa entre enfoques educativos; pero el estudiante debe verificarla, corregirla y discutir sus simplificaciones. Puede apoyar la revisión de coherencia de una pregunta de investigación; pero no debe formularla en lugar del investigador. Puede sugerir categorías de análisis; pero estas deben justificarse teóricamente. Puede ayudar a ordenar bibliografía; pero no reemplaza la lectura directa de los textos. Puede mejorar la redacción; pero no debe fabricar el pensamiento.

No todo uso de IA exige el mismo nivel de declaración. No es lo mismo corregir puntuación, mejorar la claridad de una frase o revisar la consistencia de un párrafo que pedirle a la herramienta formular categorías, interpretar datos, construir argumentos o redactar apartados sustantivos. La exigencia ética crece cuando la IA interviene en decisiones intelectuales relevantes.

Esta discusión no compete solo a quienes cursan un posgrado. También interpela a docentes, asesores, formadores, directivos y responsables de diseñar propuestas educativas, porque todos enfrentan hoy la misma tentación: producir más rápido sin necesariamente comprender mejor.

La diferencia entre apoyo metodológico y simulación académica está en el juicio de quien investiga.

De ahí que el uso responsable de IA en investigación educativa exija, al menos, tres condiciones. La primera es transparencia: declarar cuándo, cómo y para qué se utilizó, especialmente cuando su intervención fue sustantiva. La segunda es verificabilidad: contrastar sus respuestas con fuentes académicas, documentos normativos, evidencia empírica o literatura especializada. La tercera es apropiación crítica: explicar qué se aceptó, qué se corrigió, qué se descartó y por qué.

No declarar el uso sustantivo de IA, presentar como propio un análisis no revisado o utilizar referencias no verificadas compromete la integridad académica. No porque la IA sea ilegítima en sí misma, sino porque la investigación exige trazabilidad intelectual: la posibilidad de mostrar cómo se llegó a una pregunta, con qué fuentes se trabajó, qué decisiones metodológicas se tomaron y por qué se sostienen determinadas afirmaciones.

En un curso de teoría y política educativa, por ejemplo, pedir a los doctorantes una matriz comparativa asistida por IA sobre conductismo, cognitivismo, constructivismo, humanismo, enfoque sociocultural y neurociencia puede ser una actividad pertinente. Pero solo si se acompaña de una nota crítica. No basta con entregar la matriz. Hay que explicar qué produjo la herramienta, qué simplificó, qué omitió, qué corrigió el estudiante y cómo esa comparación ayuda a comprender el diseño de políticas educativas.

Ese desplazamiento es crucial: pasar de la entrega automática al trabajo intelectual visible.

Investigar con IA no puede significar pensar menos. Debería significar pensar mejor, con más contraste, con más vigilancia epistemológica y con mayor conciencia de los límites de la herramienta. Si la inteligencia artificial reduce el esfuerzo intelectual, empobrece la formación. Si lo reorganiza, lo desafía y lo vuelve más exigente, puede aportar valor.

La investigación educativa no necesita investigadores que produzcan textos más rápido. Necesita investigadores capaces de formular mejores preguntas, leer con mayor profundidad, interpretar con rigor y asumir una posición ética frente a los problemas educativos. La IA puede acompañar ese proceso, pero no puede reemplazarlo.

La tentación de estos tiempos es confundir velocidad con pensamiento, fluidez con comprensión y producción textual con conocimiento. Esa confusión puede ser especialmente grave en el posgrado, donde el propósito no es entregar documentos académicamente presentables, sino formar criterio, método y capacidad de interpretación.

La inteligencia artificial no vuelve obsoleta la investigación educativa. Lo que vuelve obsoleta es una forma rutinaria de investigar: aquella que se limita a repetir conceptos, ensamblar citas, cumplir formatos y presentar productos sin verdadera problematización. Pero si se usa sin criterio, la IA puede acelerar justamente esa obsolescencia.

En educación, investigar no es producir textos sobre la escuela; es construir conocimiento responsable sobre problemas públicos que afectan derechos, trayectorias y condiciones reales de vida.

Por eso, el desafío no es decidir entre investigar con IA o sin IA. El desafío es más profundo: aprender a investigar sin abdicar del pensamiento.

La herramienta puede ordenar. Puede sugerir. Puede comparar. Puede redactar. Pero no puede hacerse responsable de una pregunta, de un método, de una interpretación ni de una postura académica. Ese lugar sigue siendo humano.

Porque una investigación no se sostiene por la fluidez de sus textos, sino por la responsabilidad intelectual de quien puede explicar cómo llegó a sus preguntas, cómo interpretó sus evidencias y por qué decide sostener determinadas afirmaciones.

Y ahí se sigue jugando, todavía, la dignidad intelectual de toda investigación educativa.