Sobre el término «promedio»

Es curioso como la ciencia, a veces, sirve para legitimar acciones, apoyándose en la validación de hipótesis, reafirmación de teorías o incluso establecimiento de postulados, que no soportan la realidad palpable pero que resisten perfectamente el el modelo generado desde el análisis estadístico. Tood Rose, en su libro Se acabó el promedio aplicado a personas, explica cómo el término ‘promedio’, hace referencia a individuos que no existen. Estas dos reflexiones nos inspiran hoy para que hablemos de un tópico extendido: el estándar como modelo de aprendizaje y defendamos la idea deI inexistente alumnado estándar.

En el citado libro, Tood Rose, nos narra cómo en 2002 Michael Miller, investigador de la UC Santa Bárbara, llevaba a cabo un estudio sobre la memoria verbal mediante resonancia magnética.

El experimento de Miller

La imagen por resonancia magnética funcional (FMRI) es el método más extendido para estudiar el esfuerzo que realiza una región determinada del cerebro cuando se le asigna una tarea. En este caso, la memoria verbal. La imagen de una resonancia magnética detecta –gracias al oxígeno que transporta– qué zonas del cerebro reclaman más energía de flujo sanguíneo  para hacer su función. Y, en base a eso se colorean en diferentes tintadas.

Desde esta explicación (de carácter divulgativo) para los neófitos en el tema es sencillo comprender el resultado de “las fotografías” realizadas. Se tarta de  esos mapas de “la materia gris” donde hay unas zonas más  iluminadas que otras. A buen seguro, hemos visto en muchísimas ocasiones en la red, en libros o en póster de algún congreso estos mapas de los que hablamos, muy parecidos al que mostramos como imagen 1. Sirva de ejemplo éste que mostramos referido a “los mapas cerebrales” que se crean cuando se le ofrecen en distintos momentos a un grupo de estudiantes ejercicios relativos al análisis matemático, al álgebra, a la geometría y a la topología.
inexistente alumnado estándar
Imagen1: Tomada de La Razón 

El experimento que realizó Miller fue parecido: consistía en que a dieciséis voluntarios tomados de uno en uno, se les mostraba sucesivamente un conjunto de palabras, a modo de «bit de vocabulario», mientras se sometían a una resonancia magnética funcional.  Durante estas acciones, se recogían imágenes que se iban guardando para poder ser analizadas posteriormente.

Después de un periodo de descanso, se les mostraba a los mismos participantes otra serie de palabras. En esta ocasión, los voluntarios debían presionar un botón cada vez que reconocían una palabra que pertenecía a la primera serie. Mientras que cada participante tomaba decisiones de presionar el botón cuando había leído alguna palabra de la primera serie, el escáner  fotografiaba el mapa de su actividad cerebral  marcando la zona que requería mayor aporte de energía. Una vez finalizado el experimento, Miller, promedió los mapas cerebrales individuales de todos los sujetos para crear un mapa que revelase los circuitos neuronales implicados en la memoria verbal de un cerebro humano sin disfuncionalidad, según narra Rose en su libro. Una vez tuvo Miller los resultados de los 16 mapas individuales, realizó la intersección de todos ellos para encontrar el mapa cerebral promedio. Siguió así la Teoría de Conjuntos que dice que la intersección de dos conjuntos está formada por todos los elementos que estén, a la vez, en ambos conjuntos.

Al igual que vemos en la imagen 1, Miller observó rápidamente que, en realidad, solo un par de las 16 imágenes individuales se parecían un poco a la imagen establecida como modelo, promedio o estándar. “Quizá si  entrecerraba los ojos, un par mapas individuales se parecían al mapa promedio. Pero la mayoría, nada” – declaraba Miller. Todo apuntaba hacia la «inexistencia del cerebro típico”, esa relación que, equivocadamente, nos hace establecer los “parecidos a norma”. Es más, cuando se detuvo un poco más, Miller observó algo mucho más revelador:

«No solo la imagen del cerebro de cada uno de los 16 voluntarios era diferente al cerebro determinado promedio, sino que también eran diferentes entre sí».

Es decir, no existía ningún cerebro que actuara igual que el establecido como promedio. Primera reflexión educativa que nos lleva a la idea del inexistente alumnado estándar: no hay un “cerebro norma” sino todo lo contrario, la norma es que todos los cerebros humanos sean diferentes.

Hipótesis de normalidad

Otro elemento matemático que nos ha llevado (sin pretenderlo) a la idea cultural de la estandarización es  la denominada Campana de Gauss (en honor a Carl Friedrich Gauss que formuló la ecuación de la curva) o de Distribución normal de datos que había sido reconocida, unos años antes, por el francés Abraham de Moivre.

La demostración gausiana establece una curva estándar que se determina en función de la relación entre dos parámetros: su media y su desviación estándar –o típica–.

Es condición sine qua non  en cualquier investigación, la necesidad de la verificación de la hipótesis de normalidad para poder aplicar posteriormente los procedimientos estadísticos que, habitualmente, se manejan y que ayudan a su análisis. Pero esto no se hace como un reflejo exacto de la realidad, ya sabemos que la estadística solo es una ciencia que utiliza conjuntos de datos numéricos para obtener, a partir de ellos, inferencias basadas en el cálculo de probabilidades.

inexistente alumnado estándar

Intentaremos explicarlo con otro estudio encontrado como ejemplo, en este caso realizado por Unidad de Epidemiología Clínica y Bioestadística. Complexo Hospitalario Universitario de A Coruña, sobre una muestra de 100 mujeres de las que se determinó su peso. La distribución normal de los datos se asemeja bastante a la de una distribución normal –en el sentido matemático de la expresión–, lo que nos podría llevar adoptar la campana como la distribución normal y llevarnos a una idea equivocada de lo que es la «normalidad».

Sin embargo, si observamos con atención, el peso «estándar» de una mujer, estaría fijado en 61,5 kg. Lejos de lo que «cabría esperar», no se encuentra ninguna mujer en la muestra que se ajuste a ese «estándar» puesto que el peso de la mayoría de las mujeres es muy diferente a éste que fue determinado tras el análisis matemático.

 

inexistente alumnado estándar
Ejemplo de un gráfico de probabilidad normal

 

La función básica de este gráfico “normalizador” de probabilidades consiste en representar, en una misma imagen, los datos empíricos observados frente a los datos que se obtendrían en una «distribución normal» teórica. Si la distribución de la variable es ‘normal’ –en el sentido matemático de la expresión–, los puntos quedarán cerca de una línea recta. 

Así, fijándonos en el análisis realizado, podríamos decir –sin ser rigurosamente cierto–, que el 68% de la media, a pesar de no ser igual al estándar, se podría considerar dentro de la «distribución normal» –en el sentido matemático de la expresión–. También podríamos decir que existe, como observamos es la misma gráfica, una mayor variabilidad (separación) en los extremos . Un 32% de datos que no se ajusta a la norma y que desechamos en beneficio de aplicar estadísticas sin que se nos distorsione esta distribución que demuestra el modelo matemático de Gauss.

Todo correcto. En cálculos matemáticos, no pasa nada. Son datos. Pero, en la realidad –y en la escuela– esos 32 valores de cada 100, se corresponden directamente con personas con nombres, apellidos y vida.

Segunda reflexión que nos lleva a la idea del inexistente alumnado estándar: la generación científica de estadísticas promedio han creado (sin ser su objetivo) en la sociedad (incluso científica) la idea falsa de que el promedio es lo normal, lo típico y lo estándar; y anidó, no solo como ciencia, sino también como creencia.

Las cosas como decimos las cosas es como las vemos. Y como las vemos, es dentro del error que supone contemplar la planificación de la enseñanza basándonos en una educación dirigida al inexistente alumnado estándar.

Los estereotipos se validaron en todas las ramas de conocimiento

Así los estereotipos se validaron en todas las ramas del conocimiento. En Psicología y Pedagogía, Jean Piaget hizo numerosos estudios de la infancia en niños, y la dividió en etapas o estadios que cumplían el promedio de los datos. De esta manera, la ciencia comenzó a comparar el desarrollo real de cada niño o niña con las «etapas del desarrollo en niños» con las que Piaget había definido tras sus investigaciones que han servido a la educación  para establecer cuánto se desviaban los datos del desarrollo real de cada individuo entre 0 y 12 años con respecto a los datos que ofrecía el trabajo de Piaget –los cuales se habían validado como «normales»–.

 

 

Esta clasificación puso en alerta a pediatras, educadores padres y madres quienes se mostraban preocupados si sus hijos, pacientes, alumnos… se desviaban de los valores propios del «desarrollo promedio», marcado como “el estándar” por la ciencia. Olvidando que no había un correlato en la realidad del ser promedio, y olvidándose del  inexistente alumnado estándar. De la misma forma, los psicólogos franceses Alfred Binet y Théodore Simon desarrollaron, a principios de siglo, un test para determinar la Edad Mental de un individuo. La puntuación en la escala de esta prueba de Binet-Simon ha revelado hasta hoy la edad mental del niño y con ella la medida de la inteligencia, dividiendo la edad mental entre la edad cronológica y multiplicando el resultado por 100. Este algoritmo  da como resultado el conocido Cociente Intelectual. Más tarde, el psicólogo estadounidense Lewis Terman, de la Universidad de Stanford, revisó el test de Binet-Simon, y se modificó con el nombre por Escala de Inteligencia Stanford-Binet (1916) convirtiéndose en  la prueba más popular en los Estados Unidos durante décadas, la que aprovechó William Stern, un psicólogo alemán, en 1912, para medir el conocimiento, en base a la Escala de Inteligencia de Alfred Binet y Théodore Simon, entre un grupo de niños con la misma edad para poder compararlos entre sí. Basándose en el análisis matemático proporcionado  por la curva de Gauss y en la concepción cultural y científica del término promedio, clasificó a las personas según su inteligencia y creando un sistema de conocimiento dirigido al promedio y a lo falsamente denominado como «normal».

 

En el «desarrollo normalizado» de la escuela, los legisladores han tomado siempre decisiones sobre la organización de la escuela, la inversión que hay que realizar en ella y el modelo curricular para atender a  las necesidades de los estudiantes basándose en el error de un alumnado promedio o estándar inexistente.

Independientemente de la argumentación –más o menos exacta de este post–, y basándonos en la realidad diaria de la experiencia, los currículos y los estándares de aprendizaje, la clasificación de alumnado por programas, la distribución de aulas por edades, la balcanización de la asignaturas… son elementos de un sistema educativo que nos atenaza; elementos que han sido creados en el ideario colectivo docente desde una concepción que, humildemente, creemos que es errónea: Determinar las necesidades de aprendizaje de todo el alumnado, en base a las necesidades de aprendizaje de una «persona promedio» que no existe –es decir, del inexistente alumnado estándar–; y, de este modo, planificar la enseñanza bajo un único y erróneo parámetro: la «normalidad».

Normales somos todos…

o nadie.