Cargando...

El silencio sobre el impacto de la inteligencia artificial en el sistema educativo

El silencio sobre el impacto de la inteligencia artificial en el sistema educativo
Alfonso Bordallo
MPH, MSc
En este artículo crítico debatimos sobre el impacto de la inteligencia artificial a nivel universitario, y la dificultad de un "uso ético" o un "uso responsable" de la IA. Abordamos las implicaciones éticas del fraude académico y el impacto laboral de la generación que está delegando el desarrollo de su competenca intelectual en la máquina.

"USO RESPONSABLE" DE LA INTELIGENCIA ARTIFICIAL

El ser humano más que un ser racional, es un ser racionalizador. Gran parte de la conducta humana está mediada por el efecto de juegos de lenguaje. Cuando un político quiere recaudar más impuestos, sabe que debe usar un juego de lenguaje para lograr el consentimiento. Dirá que está "aumentando el estado del bienestar". Alehop. El impacto psicológico de cualquier hecho objetivo depende más del juego de lenguaje con el que se disfrace que del hecho en sí. Los políticos son quienes mejor lo entienden, y sus votantes, los que menos.

En su tiempo se habló de que el impacto de las redes sociales dependía de un "uso responsable" de las mismas. El problema con este razonamiento es que las tecnologías no se utilizan con una lógica, sino que son ellas las que imponen la suya. Las redes sociales se diseñaron para hacer salientes señales visuales y formas de comunicar que promueven reacciones afectivas primitivas y una interacción impulsiva: cotilleo, risa, envidia, resentimiento, etc. Esta es precisamente la base de su éxito. Por diseño, el uso general no puede ser "responsable". Por otro lado, internet puso a disposición de todo el mundo la capacidad de acceder a un universo de libros y lecturas de gran valor intelectual. Pero esto no ha hecho que las personas lean más, ni se decanten por lecturas de mayor profundidad. Ha hecho exactamente lo contrario, y la lectura no ha dejado de caer, en paralelo con la inteligencia humana.

Lo mismo sucede con la Inteligencia Artificial, en particular en la educación. Se alude a un condicional "uso ético y responsable de la IA" . No hay ningún "uso responsable" en un sentido general, porque el uso es determinado por la propia estructura funcional de tal tecnología. La tecnología no se usa con una lógica, sino que ella impone su propia lógica de uso. Es la IA la que propaga su propio orden de cosas, en la dirección de autores como Jaques Ellul. Así, es el ser humano el instrumento de la tecnología más que al revés. Con ello, el sistema educativo ha quedado sometido por este tipo de tecnologías, cuya lógica no es ética, sino intrínsecamente mecanicista y utilitaria.

Corregimos cientos de trabajos de fin de Máster cada año, y podemos describir la realidad: pocos usan la IA para expandir su razonamiento, la mayoría lo usa para sustituirlo. Las personas tienden a tomar el camino más corto hacia sus objetivos ahorrando el esfuerzo de pensar o tener que escribir. Con ello, competencias cognitivas como la capacidad de elaboración conceptual, la comprensión lectora profunda, la organización de ideas mediante el proceso de escritura, la capacidad de síntesis e integración, la interpretación y articulación de un criterio propio, etc, quedan sin desarrollar en la persona. Todo lo que realiza esta herramienta el estudiante no lo trabaja, lo que implica que su cerebro tampoco trabaja. Inevitablemente se traducirá en una pérdida de inteligencia, y de otras capacidades neurocognitivas (atención, memoria, funciones ejecutivas, etc). El efecto flynn inverso seguirá su camino.

La educación pasa a ser un trámite para obtener un título por el camino más corto posible, no un proceso de desarrollo de competencias. Esto hace que asignar trabajos haya pasado a ser casi ciencia ficción. Así las cosas, las mayores revistas científicas están diciendo que lo que se debe evaluar ahora son cosas como la "empatía" o la "creatividad" del alumno. Hay bastantes problemas con esta visión. En primer lugar, las decisiones morales maduras requieren precisamente la capacidad de realizar un razonamiento profundo, y no simple emocionalidad. La empatía desde un punto de vista "pedagogo", por decirlo así, es un concepto ingenuamente manoseado incluso psicológicamente problemático. Lo mismo sucede con el concepto de "creatividad". Difícilmente se da pensamiento creativo sin inteligencia en primer lugar. La inteligencia no es causa suficiente para la creatividad, pero sí es una causa necesaria en buena medida. Se necesita ser particularmente inteligente para ver más allá de lo que otros ven. Sin embargo, inadvertidamente, lo que se está dejando caer es el fin de la evaluación basada en competencias y conocimientos para obtener una "titulación superior". Parece que la "evaluación" en un futuro próximo comenzará a basarse irremediablemente en un conjunto de aspectos difusos de carácter personal, alejados de la competencia que se le supone al estudiante que obtiene una titulación. Todo comienza a ir en la dirección de la sociedad del simulacro de Baudrillard. Otra cosa es que se quiera hacer como que no está pasando nada, del mismo modo que se ha hecho con la degradación del sistema educativo durante décadas

IA Y FUTURO LABORAL

Aparte del impacto del uso de la IA en su inteligencia general, y en el desarrollo de las competencias académicas que se presuponen, lo que los estudiantes parecen no entender, fascinados por el ahorro de esfuerzo que obtienen de la IA, es que, precisamente, ese ahorro implica que no están adquiriendo competencia intelectual alguna que no realice una IA automáticamente en una fracción de tiempo. Creo que la mayoría de los estudiantes no entienden la ironía, y aparentemente se imaginan a sí mismos trabajando cómodamente asistidos por una IA, pulsando un botón para todo aquello que requiera esfuerzo o intelecto. Tengo una noticia para tí: la IA no necesita a nadie para pulsar un botón. La persona misma se ha expulsado de la ecuación. En otras palabras, quien no sepa hacer algo que no realice una IA, quedará fuera del mundo laboral. Solo sobrevivirán laboralmente aquellas personas que han desarrollado la competencia suficiente para aportar el razonamiento, contexto y matices que una IA, en su procesamiento por fuerza bruta, no logra captar. Mucha gente inteligente y trabajadora va a ir quedando fuera del mercado laboral. Quien no es particularmente inteligente, ni trabajador, ni ha desarrollado competencia alguna, y no aporta nada por encima de la respuesta automática de una IA, no tendrá ni para empezar.

ÉTICA EN EL AULA

Aunque a cuentagotas, algunos medios van comentando como el sistema educativo universitario es ahora mismo un "paraíso de engaño académico", y las propias universidades no saben que hacer para frenarlo. El alumno se siente con derecho a no hacer ningún trabajo, y se siente con derecho a que una IA haga sus tareas. Los profesores lo saben. Su opción menos costosa es mirar a otro lado y evitar toda clase de problemas e inconvenientes institucionales, profesionales y personales. La otra opción es hacer de policía, en lugar de ser profesor, y perder horas al corregir buscando indicios de IA, ante los cuales en realidad tampoco puede hacer nada dado el vacío legal respecto al fraude académico (que tampoco es nuevo). Por otro lado, existe evidencia de que los sanitarios que hacen trampas académicas trasladan su conducta a los pacientes. Por tanto, el fraude académico, aparte de degradar la calidad educativa y degradar el valor de las titulaciones, no es inocuo para la sociedad, y es preocupante, al menos para los pocos que aún nos preocupamos por estas cosas. Yo mismo he tenido que parar los pies a bastantes personas, algunas con incompetencia frontal que puede resultar en consecuencias graves a terceras personas, y otras que simplemente han ido normalizando el engaño como su forma de vida. Pararles los pies no es una cuestión simplemente académica: es un deber ético de todo profesor. Las respuestas a menudo de este tipo de personas suelen ser bastante agresivas, y el profesor se encuentra básicamente solo y legalmente desamparado ante este tipo de situaciones. Al fin y al cabo, estas personas llevan años disfrutando de un sistema diseñado para permitirles campar a sus anchas, degradando todo a su paso. Esta situación no ha sido casual, ha sido permitida, por no decir diseñada y activamente legislada.

Unos años atrás, la principal causa de fraude académico era la presentación de trabajos con texto plagiado. Hoy esto es muy residual. La mayor parte de mis propios alumnos suspenden principalmente por usar IA, más específicamente, por la presencia en sus trabajos de datos inventados que no se corresponden con los estudios científicos que deben evaluar (las famosas alucinaciones), y presentar errores groseros derivados de su uso. Si no hay errores, aunque un profesor sepa que un trabajo está hecho con IA, (tengo alumnos que no se molestan ni en quitar las flechitas de colores que produce la IA de su TFM), en realidad no puede objetivar el suspenso. La última vuelta de tuerca es que las universidades se están llenando de reclamaciones "pseudo-legales" redactadas con IA, bastante divertidas algunas, en las que alumnos se hacen pasar por abogados, para tratar de coaccionar para que se les aprueben sus trabajos académicos realizados con IA mediante todo tipo de amenazas. Insisto: todo esto ha sido permitido, por no decir activamente diseñado. Lo que ha crecido en las últimas décadas en el sistema educativo sobre todo es la burocratización como respuesta, disolviendo con ello el carácter humano de las relaciones y el valor existente en el proceso de enseñanza por parte del profesor, quedando un marco contractual en el que el alumno se siente un cliente que ha pagado por un servicio en el que tiene derecho a toda clase de exigencias, en lugar de un estudiante.

PALABRAS FINALES

La ética o la misma inteligencia son cosas que han dejado de tener valor. Poco importa en nuestra sociedad aquello que no reporte un beneficio inmediato a la persona. La educación se está convirtiendo en el más puro simulacro a lo Baudrillard. Los centros públicos cobran su dinero público, los centros privados su dinero privado, los profesores su nómina, el gobierno recauda impuestos de las personas que trabajan... y la noria sigue girando. Los rebeldes, aquellos que aún estudian, son conscientes de que el sistema no educa a nadie, se educa la persona que quiere hacerlo, más contra el sistema que gracias a él.

La IA puede tener usos positivos, pero esto no hace que deje de existir un uso general que no lo es. Lo que sí es cierto del artículo de Nature, es lo que dice su título: hay que repensar las evaluaciones en las universidades. Simplemente, porque no queda otra. Y a los rebeldes, y a aquellos profesores que aún no os habéis rendido pasando las noches corrigiendo hasta que se os cierran los ojos, parando los pies a quien debe ser parado, todo mi respeto.


Instagram ICNS Instituto
CONTACTO
c/Madrid 18. Las Rozas de Madrid
        28231, Madrid.
  91 853 25 99 / 699 52 61 33
  699 52 61 33