CARGANDO

Buscar...

AEA Todos Educamos Voz Educación Abierta

Tomar postura #TodosEducamos

Las escuelas no son lugares neutrales, y consiguientemente tampoco los profesores pueden adoptar una postura neutral.


Henry A. Giroux. 1988

Los profesores como intelectuales. Hacia una pedagogía crítica del aprendizaje.

Sabemos que la tecnología no es neutra. Tampoco lo son los algoritmos que están detrás de los sistemas de aprendizaje inteligentes. Ni una, ni otros están libres de prejuicios y de sesgos. No existe, de hecho, un algoritmo éticamente neutro porque nada humano deja de ser humano, ni siquiera la tecnología (Arias Maldonado, 2015).

Los datos no nos garantizan una objetividad que no existe. Si no son neutros es porque responden a unos intereses, porque alguien ha decidido sobre su diseño y los ha programado para que funcionen de una determinada manera. Si no son neutros es porque alguien los controla, los aprovecha, los explota y los interpreta.

En apenas dos décadas hemos hecho de los datos (su control, su explotación, su interpretación) uno de los mayores riesgos de nuestra sociedad. Los datos se han convertido en amplificadores de viejas brechas y asimetrías, al tiempo que están creando nuevas. Reflejan una estructura de poder. Son fuente de poder y control. También, claro, los datos muestran maneras concretas de entender el mundo, la escuela, el papel de los docentes y los fines de la educación.

Necesitamos mayores niveles de transparencia y de responsabilidad colectiva para garantizar un uso ético de los datos que ponga en el centro el bienestar de las personas y aminore estas nuevas asimetrías de poder que se están produciendo.

Igual que hemos desarrollado una ética para otros ámbitos donde lo tecnológico y lo humano interaccionan, necesitamos marcos éticos que nos garanticen una gobernanza sólida de los datos en general y de los datos en educación en particular. Todas las personas directa o indirectamente afectadas deberían poder opinar sobre la forma en que se utilizan los (sus) datos en la educación. Todos, deberiamos poder preguntarnos ¿para qué y a quién sirven nuestros datos educativos?

Hemos despertado. A estas alturas a nadie se le escapa que detrás de un servicio gratis en Internet casi siempre hay un negocio. No todo es como nos lo pintaron o como quisimos imaginarlo hace dos décadas. Lo que vivimos a diario es una realidad bien distinta a la que muchos soñamos y diametralmente opuesta a la que muchos aún nos quieren hacer creer. Si no pagas es porque tú eres el producto. La luna de miel de Internet, utilizando la expresión de Cristóbal Cobo, ha terminado de manera brusca.

Nadie duda que el proceso ha tenido (y sigue teniendo) sus ventajas. Y que, en muchos aspectos, estamos mejor que antes. Pero tampoco hay duda que tiene costes (vigilancia, pérdida de autocontrol, desafío a la privacidad, determinación de la identidad…). No hay un solo instante en la vida de las personas que no esté modelado, contaminado o controlado por algún dispositivo. La vida social y personal está cada vez más conectada y atravesada por la membrana digital. Nos estamos convirtiendo en datos: toda nuestra vida se está traduciendo a comportamientos datificables que son leídos por algoritmos para vendernos algo de manera más eficiente (Ed Finn, 2017. What algorithms want: imagination in the age of computing).

Los datos sobre nosotros se recopilan en circunstancias que cada vez entendemos menos, para unos fines que no entendemos y para ser utilizados de maneras que tampoco entendemos (Luci Pangrazio & Neil Selwyn)

Si somos el producto es porque alguien mercadea con él. No nos queda más remedio que aceptarlo y actuar en consecuencia. Lejos queda ya la ingenua retórica del empoderamiento, la desintermediación liberadora y las oportunidades infinitas. Más que ser los sujetos protagonistas de nuestra propia historia, parece cada vez más claro que nos hemos convertido, a veces sin darnos cuenta, a veces aceptando las condiciones y a veces eligiendo no elegir, en objeto de recolecta, intercambio y venta. Es cada vez más urgente saber quién está detrás de las máquinas y los datos.

Hasta hace muy poco, la mayoría de los datos recopilados sobre los estudiantes provenían de exámenes convencionales que trataban de medir los conocimientos y habilidades alcanzadas. Apenas se generaban datos más allá de los registros de notas. En los últimos años, sin embargo, hemos asistido a un incremento exponencial en el número y tipo de datos educativos recogidos (Edu Big Data), en su interpretación (Learning Analytics) y también en el número de agentes implicados en esta recolección. Y hemos empezado a ver cómo grandes organizaciones como la OCDE o entidades privadas como ClassDojo ya no se conforman con recoger las evidencias “clásicas” del aprendizaje y han dado un giro psicológico hacia la evaluación y medición de la personalidad, bajo el supuesto de que medir las habilidades socio emocionales es una buena manera de predecir el progreso educativo y futuro desempeño laboral.

Es urgente, por tanto, preguntarnos sobre el impacto futuro que toda esa información educativa (que alguien sin duda está acumulando) tendrá sobre los alumnos. No podemos equivocarnos. Nos jugamos mucho. Debemos ser capaces de diseñar sistemas que ayuden en el proceso de aprendizaje pero garantizando, al mismo tiempo, el futuro y los derechos de todos.

Por otro lado, sería ingenuo pensar que la acumulación de datos tiene en sí misma algún valor educativo. Ingenuo e irresponsable. Es urgente preguntarnos también hasta qué punto los datos recopilados nos dan información valiosa para los procesos educativos. Saber si la acumulación de datos educativos ayuda en algo en algo a los docentes y a los alumnos. Preguntarnos si ¿alumnos, docentes, familias y escuela somos sujetos u objetos de los datos?

Una de las grandes promesas de la Inteligencia Artificial y de la datificación de la educación es la de la personalización de la enseñanza, para así, poder automatizar y pautar adecuadamente, y al ritmo de cada uno, qué y cómo aprender.

Detrás de esta promesa, encontramos, de nuevo, la idea de una mediación neutral, sin los sesgos propios de los docentes y, por tanto, mucho más justa para los alumnos. Pero insistimos una vez más, las tecnologías no son neutras. Los algoritmos que determinan qué y cómo aprender; que deciden el ritmo y la orientación del aprendizaje tampoco lo son. Responden en primer lugar a una manera concreta de entender el mundo, la educación y sus fines. Están programados para priorizar unos objetivos y alcanzarlos en un tiempo dado y de una manera determinada. Detrás de los algoritmos que nos prometen un aprendizaje más eficiente y a medida siempre hay una pedagogía y un modelo determinado de alumno/ciudadano con unos conocimientos, habilidades, valores y actitudes determinados.

No olvidemos que los algoritmos no predicen el futuro, sino que lo construyen (Cathy O’Neil). Ser conscientes de esto es el primer paso para poner en su justo lugar la promesa de la automatización y la personalización. En la era de la automatización necesitamos pensar maneras de integrar la diversidad, lo excepcional, lo paradójico, lo particular y lo contingente. Debemos comprender que los datos y los algoritmos que constituyen el software se combinan con agendas políticas particulares, intereses comerciales, ambiciones empresariales, formas de experiencia científica y conocimiento profesional para crear nuevas formas de entender, imaginar e intervenir en educación (Ben Williamson, 2017). Debemos ser cautelosos, al menos, con respecto a muchas de las afirmaciones sobre el potencial transformador y revolucionario de muchos de estos nuevos desarrollos, si no completamente escépticos, o, quizá, directamente, un poco resistentes (Ben Williamson, 2017) y preguntarnos constantemente quién diseña y quién decide de manera global y descontextualizada qué hay que aprender y cómo.

Quizá la amenaza más recurrente vinculada a la datificación de la educación y a la irrupción de la inteligencia artificial es el riesgo a convertirnos en prescindibles. A nadie se le oculta que detrás del entusiasmo de muchos por la personalización y la automatización de la enseñanza no hay únicamente un interés (en el caso de que lo haya) por las personas y la mejora de sus aprendizajes, sino un interés por una mejora en la eficiencia de los costosos actuales sistemas educativos, independientemente que detrás esté la administración pública (invertir mejor los siempre escasos recursos públicos) o una empresa educativa (obtener más retorno por la inversión).

Hacer más (y mejor) con menos es una promesa difícilmente eludible para unos y otros. La amenaza de la desregulación y precarización afecta directamente a todo el sistema educativo, no solo a la noción de aula tradicional, sino a la propia función del centro educativo y a la idea de escolarización. No son pocos los vínculos existentes entre las grandes tecnológicas interesadas en educación y quienes apuestan por una disminución de los estados en los asuntos educativos. ¿Supone la Inteligencia Artificial una amenaza para los centros educativos y para la educación escolar como la conocemos?

Somos humanos porque somos capaces de hacer explícitas nuestras propias representaciones. Somos humanos porque somos capaces de pensar sobre nuestra inteligencia, de entender el proceso de la vida y de adaptarnos al entorno a través del conocimiento, la tecnología y el pensamiento. Somos humanos porque nos educamos los unos a los otros para la vida.

La gran promesa de la Inteligencia Artificial es precisamente su apelación a la posibilidad de una inteligencia distinta y en cierta manera más eficiente que la humana, una especie de superinteligencia que permitiría a las máquinas adaptar sus comportamientos en lugar de simplemente ejecutar comandos humanos. Máquinas capaces de aprender. Máquinas independientes. Super máquinas en palabras de Alan Turing.

Y aunque todo parece indicar que aún estamos lejos de esa superinteligencia y lejos de aquello que Ray Kurzweil bautizó como el punto de singularidad, no cabe duda de que dotarnos de un código ético que controle el uso que hacemos de los datos no es suficiente. Las tecnologías siempre nos han modificado. Las actuales tecnologías están creando y modelando nuestras realidad intelectual y física, cambiando nuestra comprensión de nosotros mismos, modificando cómo nos relacionamos entre nosotros y con nosotros mismos, y cómo interpretamos el mundo (Luciano Floridi. The fourth revolution. 2014).

No son pocos los que sostienen la necesidad de protegernos de una posible expansión antihumana de una Inteligencia Artificial. Ir de un control «ex post» a uno «ex ante». Anticiparnos. Aprender a entender a la máquinas. Poner límites al entendimiento de las máquinas. Límites que para algunos deberían construirse desde un principio general. A saber: el de prohibir el desarrollo de Inteligencia Artificial capaz de decir «no» a los humanos. La pregunta entonces sería si es suficiente con dotarnos de un código ético (AI Australia Ethic’s Framework; EU Ethics Guidelines for Trustworthy AI).  ¿Quién nos enseña a entender a la máquina?

Por último, el Big data es parte del Big Deal contemporáneo. Analizar grandes cantidades de datos requiere mucho tiempo, mucho dinero, mucha tecnología y mucho conocimiento. No es gratis y nadie lo hace gratis. El análisis de grandes datos puede hacer visibles cosas que no imaginábamos, pero también ocultarnos muchas otras que son igualmente importantes.

Si no somos cuidadosos lo grande puede enmascarar lo pequeño. Necesitamos mucho saber y mucha sensibilidad para no fiarnos solo de lo cuantitativo y saber hacer uso de nuestra capacidad de análisis cualitativo. Debemos trabajar “esa capacidad hoy amenazada y quizás relegada al ámbito de lo privado para entender la importancia de los detalles, los matices, las diferencias, lo local, lo excepcional, lo inaudito, lo inefable y lo invisible.” (Antonio Lafuente. SlowU).

El Big Data y la Inteligencia Artificial son actividades complejas que buscan simplificar los resultados. Atender a los pequeños datos en educación es o parece una actividad sencilla pero que nos muestra la verdadera complejidad de los temas educativos.

Frente a las seductoras promesas de los datos, quizá debamos recuperar maneras más sencillas de entender lo que nos pasa. La Inteligencia Artificial y el Big Data nos exigen poner nuestra confianza en las máquinas y quizá lo que tendríamos que hacer, llegados a este punto, es poner más confianza en las personas y en las organizaciones. En los alumnos, los docentes y las escuelas.

Acercarnos a estas cuestiones requiere mucho conocimiento y mucho diálogo por parte de todos los afectados (alumnos, docentes, escuelas, familias, empresas, administración).  Ser conscientes es, sin duda, el primer paso de un largo viaje hacia una sociedad desconocida.

Descubrir los riesgos de la digitalización y de los datos no significa que debamos renunciar sin más a algunas de sus promesas. El reto está, como ha señalado Cristóbal Cobo, en comprender y aprovechar las oportunidades sin ignorar las limitaciones y riesgos que ellas traen consigo. El reto pasa por poner un contrapunto a la ortodoxia de que la aplicación educativa de la tecnología digital es esencialmente una «cosa buena», como ha sugerido Neil Selwyn. El momento actual no demanda tanto de ingeniosas soluciones como de buenas preguntas.

El momento actual nos pide comprender que #TodosEducamos. Que más allá de miradas tecnocríticas o tecnoentusiastas, luditas o solucionistas, necesitamos siempre mantener un acercamiento crítico a la tecnología y al uso de los datos en educación. Necesitamos calma para pensar juntos y para hacernos preguntas pertinentes. Necesitamos entablar un diálogo abierto para problematizar nuestra relación con los datos y la IA. Necsitamos tomar postura.

Este post es consecuencia de las reflexiones y preguntas surgidas en la jornada «El dato, más allá de la Educación». Fue el primer encuentro organizado por la Asociación Educación Abierta en el marco del proceso «Todos Educamos». Pincha aquí si quieres ver más posts como este.

Etiquetas

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.