Interesante nota escrita por el Lic. Jorge Fasce, docente de la diplomatura de Gestión y especialista en evaluación educativa.
"Empecemos por aclarar que las hay
con base curricular (lo que se evalúa se toma de los diseños
curriculares vigentes) y
con base en
otros criterios (por ejemplo: competencias académicas necesarias para la
vida adulta a los 15 años de edad, tal el caso de PISA). En ambos casos,
siempre estarán evaluando una pequeña parte de lo que se podría evaluar. Eso no
significa, como se verá más adelante, que no pueden dar información significativa y
estratégica.
Las hay nacionales
(En casi todos los países del mundo. En Argentina: ONE – 1993/2015 - APRENDER - desde 2016 -) y las hay internacionales (las más conocidas:
PISA, TIMSS, PIRLS, CIVIC).
Las hay con consecuencias
“duras” (la calificación de las pruebas cuenta para el promedio de los alumnos – Costa Rica -; son seleccionadoras para ingresar a la
Universidad – España, Italia, Alemania, Francia, Gran Bretaña, etc. -; también
hay algunas experiencias en las que los resultados tienen consecuencias en el
salario de los docentes – algunos estados de USA – o en las calificaciones de
las escuelas – Chile en la época de la dictadura pinochetista - ) y sin
consecuencias “duras”: a partir de los resultados y su análisis elaborar
planes institucionales de mejora de los aprendizajes, revisar los diseños
curriculares institucionales, revisar los diseños curriculares municipales,
provinciales o nacionales, diseñar planes de capacitación, reformular las
estrategias de formación docente, rendir cuentas a las autoridades estatales o
a las entidades propietarias de las escuelas, etc.
En general, están
constituidas por ejercicios de opción
múltiple para posibilitar correcciones masivas en poco tiempo. Algunas
(PISA, ONE en su momento) incluyen una cierta cantidad de ejercicios abiertos.
Suelen ir acompañadas de cuestionarios
de contexto que responden alumnos y/o docentes y/o directivos y/o familias,
que tratan de indagar condiciones edilicias de las escuelas, material didáctico
disponible, clima escolar, la situación
socioeconómica de las familias de los estudiantes, formación, capacitación, experiencia de los
docentes, estilos de gestión institucional, etc. Con el fin de indagar posibles
correlatividades de los resultados con esas condiciones ambientales,
profesionales y sociales.
Algunos “mitos” sobre
las evaluaciones estandarizadas:
1.
Sólo evalúan dominio memorístico de contenidos,
sólo evalúan dominio de información y más grave aún: no pueden evaluar
procesos.
FALSO. Actualmente,
el desarrollo de la elaboración de ejercicios de opción múltiple es tan
científicamente fundado, tan sofisticado y hay tanta experiencia acumulada al
respecto (más de 50 años de aplicaciones) que pueden evaluar “razonamiento”,
“procedimientos cognitivos”. Inclusive, permiten pesquisar formas de enseñanza.
2.
Son para estigmatizar a docentes, escuelas y
familias.
FALSO, por lo
menos para Argentina. En 22 años de aplicación del ONE jamás se sancionó o se
calificó a un docente o a una escuela, basándose en sus resultados. Y siempre
se tuvo mucho cuidado en no “armar rankings” (de hecho nunca se hizo). El único
que lo hizo fue un diario de circulación nacional en el año 2000 cuando la base
de datos del ONE estuvo a disposición de quien quisiera utilizarla.
3. No
sirven porque la evaluación debe ser
contextual y situacional. Las evaluaciones descontextualizadas, por lo tanto,
no sirven para nada.
INCORRECTO PLANTEO porque
NADIE en el mundo postula que pueden
reemplazar a las evaluaciones que realizan los docentes, periódica y
constantemente, en su aula, con sus alumnos.
Las pruebas estandarizadas y masivas tienen la potencialidad y la riqueza
de la mirada externa objetiva y no
contaminada por subjetividades inapropiadas. Por lo tanto, son complementarias de las evaluaciones hechas por los docentes con sus
alumnos, aportando información
esclarecedora para elaborar planes de mejora.
4.
No sirve evaluar resultados, hay que evaluar
procesos.
FALSO. Por cierto
que se deben evaluar los procesos de aprendizaje y de enseñanza pero si no
evaluamos los resultados ¿cómo sabemos fehacientemente si los procesos han
“funcionado” o no?
5.
Son conductistas.
FALSO. Las
pruebas aceptan procedimientos cognitivos diferentes para hallar los resultados
correctos. Ejemplo: si en una prueba de
matemática de 3er. grado, un ejercicio pide elegir el resultado correcto de una
suma de números de dos cifras con reagrupación, a la prueba no le importa si el
estudiante lo hizo haciendo “dibujitos”, “contando con los dedos”, mentalmente
o por escrito, pensando que “junta” unidades con decenas, o piensa “me llevo
uno” sin saber “lo que se lleva”.
Una implementación
masiva “saludable” de pruebas estandarizadas requiere:
1. Acuerdos
explícitos y explicitados a los destinatarios que correspondan, entre las partes intervinientes pertinentes, acerca de los objetivos que se persiguen.
2. Una selección cuidadosa de los contenidos y/o
competencias y/o desempeños a evaluar. Con la participación más completa y
pertinente de los involucrados: docentes de aula, directivos, supervisores,
especialistas en didácticas, expertos en evaluación.
3. Comunicación
oportuna, clara, exhaustiva pero sintética, a la población involucrada,
sobre los objetivos que persigue la implementación.
4. Muestras
estadísticamente “sanas” si no se tratara de aplicaciones censales
(“universales”) para una población dada.
5. Diseño
cuidadoso, riguroso, sólidamente fundado en conceptos educativos, pedagógicos y
didácticos, de los instrumentos (“pruebas”) de acuerdo con criterios
profesionales aprobados internacionalmente en cuanto a características técnicas
intrínsecas de dichos reactivos.
6. Condiciones
de aplicación absolutamente éticas.
7. Devolución
rápida de resultados en formatos y textos accesibles a las poblaciones
destinatarias. Con los grados de difusión pública y de confidencialidad
que se haya acordado entre los responsables
de la gestión de la implementación."
Lic. Jorge Fasce