Вы находитесь на странице: 1из 6

¿QUIÉN VIGILA AL VIGILANTE?

Así va a cambiar China la educación global (y es


terrorífico)
En el verano de 2017, el país oriental dio luz verde a un nuevo proyecto de
inteligencia artificial. Ahora sabemos cómo está influyendo en las aulas de los
colegios e institutos

Colegio a las afueras de Pekín. (Reuters/Jason Lee)

HÉCTOR G. BARNÉS
TAGS
SISTEMA EDUCATIVO
TIEMPO DE LECTURA8'

02/04/2019 05:00 - ACTUALIZADO: 02/04/2019 23:10


Hace dos años, la Comunidad de Madrid implantó el programa Talis Video de la
OCDE, que registraba las clases de matemáticas de segundo de la ESO para
analizar las experiencias de los profesores y comparar sus prácticas. La grabación
en vídeo, aun voluntaria, levantó ampollas. Algo que también ocurrió
cuando José Antonio Marinasugirió la posibilidad de grabar las clases como
forma de mejora. Una herramienta cada vez más extendida que, probablemente,
generará muchos desencuentros durante los próximos años, a medida que se
popularice.
Muchos de los que mostraron sus reservas ante la propuesta –y, muy
probablemente, aquellos que la defendían– se quedarán boquiabiertos ante la
implantación del programa NGAIDP (siglas en inglés de “Plan de Desarrollo de
una Nueva Generación de Inteligencia Artificial”) en las aulas chinas, que promete
marcar un antes y un después en la relación entre docentes y estudiantes.
Básicamente, porque bajo la alambicada retórica utilizada en el informe
presentación, publicado en julio de 2017 (“el uso de tecnología inteligente para
acelerar la promoción de modelos de formación personal y reformas de métodos
educativos”) se oculta lo que, a simple vista, parece un sencillo programa de
espionaje y valoración del estudiante afín al polémico programa de crédito
social.

Algunos colegios han ocultado la implantación a padres del programa

y alumnos para evitar que se manifestasen en contra de él

La información que teníamos hace tan solo un año era limitada. Sabíamos que el
sistema de “gestión del comportamiento de la clase inteligente” (CCS) escaneaba
la clase cada 30 segundos para registrar el comportamiento de los estudiantes,
incluidas sus expresiones faciales. La actitud del alumno era clasificada en seis
conductas diferentes: leyendo, escribiendo, alzando la mano, de pie, escuchando
al profesor o reclinándose sobre la mesa. El teórico objetivo era ayudar a los
profesores y padres a conocer el comportamiento de sus hijos y alumnos, y poder
intervenir cuanto antes.
No ha sido hasta esta semana, cuando la revista 'The Disconnect' ha publicado
un extenso reportaje escrito por Xue Yujie, cuando se han conocido con mayor
detalle los entresijos del programa. Especialmente, los más peliagudos, como el
desconocimiento del sistema por parte de los estudiantes de algunos
colegios. Es el caso de la Escuela de Secundaria de Niulanshan, donde sus
alumnos (como el protagonista del reportaje, Jason) reconocen haber descubierto
que estaban siendo grabados después de ver una imagen suya subida a la red
social Weibo, donde aparecía categorizado con una etiqueta con su número de
identidad y su estado (centrado, distraído, etc.). La polémica había surgido
después de que el hashtag #ThankGodIGraduatedAlready
(#GraciasADiosYaMeGradué) se viralizase.

Foto: iStock.

La razón aducida por el centro para mantener en secreto el proyecto piloto hasta
que los padres y los profesores estuviesen “listos” era la posibilidad de que sus
reservas pudiesen provocar el final del experimento. Actualmente,
hay siete centros en toda China que engloban a 28.000 estudiantes como parte
de este proyecto piloto. No en todos ellos se ha ocultado la implantación del
sistema, y el reportaje de Yujie cita un instituto de la provincia de Zheijang donde
los estudiantes saben que le están grabando y por qué. En este caso, las quejas
vienen motivadas por el intrusismo del sistema: uno de los estudiantes recuerda
que la cámara es capaz de recoger con detallesincluso lo que escriben en el
cuaderno.

Te observan

La ejecución ha sido un poco diferente a la teoría. El sistema de “cuidado de la


clase”, como se conoce, utiliza la tecnología de una empresa llamada Hanwang
Technology, una de las startups boyantes de China. Una cámara del tamaño de
una mandarina se coloca encima de la pizarra, y toma una fotografía por
segundo de la clase entera. La instantánea es enviada a un servidor que se
encuentra localizado en el mismo centro. Allí, la inteligencia artificial de Eigenface
reconoce los rostros de los alumnos y lo clasifica en cinco categorías. La
información es encriptada y clasificada en el servidor, y los algoritmos recogen la
información pasada y presente del estudiante para crear una puntuación
semanal de 1 al 100. Dependiendo del centro, esta está disponible para alumnos,
padres o profesores.

Uno de los alumnos se pregunta si el hecho de bostezar más de la

cuenta puede truncar las posibilidades de acudir a la universidad que

desea

La información es presentada con un profundo nivel de detalle. Por


ejemplo, desgrana hasta con dos decimales cuánto tiempo pasa un estudiante
concentrado o vagueando. Pongamos, por ejemplo, un 8,02%. O un 97,34%.
Como ocurre en la clasificación de la liga, estas cifras aparecen junto a gráficos de
curvas (que muestran la mejora o el empeoramiento del rendimiento
individual), flechas verdes hacia arriba(¡bien!) o rojas hacia abajo (uy, uy, uy,
cuidado). También, el número de preguntas respondidas al profesor o la
participación en clase. No solo eso, sino que como si un VAR educativo se tratase,
la información almacenada puede consultarse a posteriori para ver qué estaba
haciendo determinado alumno a determinada hora.
La meta final es, en teoría, disponer de más información para mejorar el
rendimiento de los estudiantes. Sin embargo, como recuerdan sus detractores,
llama la atención que las clasificaciones empleadas sean tan “disciplinarias”. Es
decir, no se fija tanto en los resultados finales del alumno como en su
comportamiento durante la clase, analizando su gestualidad corporal y facial para
identificar si está prestando o no atención. Es muy revelador el miedo que muestra
uno de los alumnos entrevistados, al preguntarse si el hecho de bostezar en clase
más de la cuenta puede truncar sus posibilidades de acudir a la universidad que él
desea.

Foto: iStock.

Para entender el alcance de estos sistemas de vigilancia (y castigo, si se quiere


citar a Foucault) conviene recordar la dura competitividad del sistema educativo
chino. Dado que la mayor parte de la población proviene del entorno rural,
obtener una buena puntuación en el 'gaokao', el “examen más difícil del mundo”
por su dureza que equivale a la Selectividad española, puede determinar el futuro
de una familia. Casi 10 millones de estudiantes se presentan cada año, y menos
del 40% conseguirán llegar a la universidad. De ahí que esta herramienta se
convierta también en una forma de vigilancia adicional para los niños más
estresados del planeta; cada año, decenas de ellos se suicidan antes de dichas
pruebas.

En China… ¿y en Occidente?
Aún estamos lejos de que un sistema así se implante en Occidente. Para
empezar, por las previsibles resistencias que despiertan no solo entre profesores
que no desean que su trabajo sea registrado, sino también por alumnos y padres
con una conciencia más desarrollada de la privacidad, muy distinta a una China
que ha vivido décadas bajo un régimen comunista. Lo cual, no obstante, no quiere
decir que no haya empresas desarrollando propuestas similares, si bien la mayor
parte de innovación en tecnología artificial se centra en la creación de contenidos
o la automatización de tareas sencillas. Por ejemplo, como también ocurre en
60.000 colegios de China, a la hora de corregir automáticamente los ensayos
escritos por los alumnos.

En Princeton se han realizado escáneres cerebrales de los

estudiantes mientras aprenden para comprender cómo

funciona su cerebro
Un artículo publicado por la consultora McKinsey el pasado año sobre el rol de la
educación en la Inteligencia Artificial señalaba otra posible dirección. En él, la
directora de ciencias computacionales de la Universidad de Princeton, Jennifer
Rexford, explicaba uno de los proyectos en desarrollo en el centro. Se trataba de
escáneres cerebrales de los estudiantes mientras veían vídeos, con el objetivo de
entender cómo se refleja el aprendizaje en el cerebro. Una vez se tengan los
datos, se aplicará 'machine learning' a los datos recogidos. Ya no solo nos
observan sino que se meten en nuestro cerebro, dirán los detractores.

Sin embargo, el motivo más común para implantar nuevas formas de vigilancia es
raramente académico, y tiene más que ver con la seguridad. Algo especialmente
común en Estados Unidos, donde los tiroteos en colegios e institutos son
tristemente frecuentes, y donde los arcos de detección de metales han pasado a
forma parte del paisaje escolar. El pasado año, el permiso concedido a la policía
de Los Ángeles para acceder a las 2.500 nuevas cámaras de seguridad presentes
en UCLA provocó la protesta de los estudiantes, que lo vieron como la
implantación de un estado policial a costa de su privacidad.

Вам также может понравиться