La Evaluación de Aprendizajes

June 8, 2018 | Author: Alfonso Sánchez Oropeza | Category: Evaluation, Test (Assessment), Curriculum, Learning, Teachers
Report this link


Description

I LA EVALUACION DE APRENDIZAJES • Problemática en torno a la evaluación de aprendizajes • Evolución del concepto de evaluación educativa • La medida en educación. 1. Recogida de información • Pruebas objetivas ' • Pruebas verdadero/falso • Pruebas de elección múltiple • Otros tipos de pruebas objetivas • Pruebas libres • Otros tipos de pruebas libres • Pruebas diagnóstico • Características de las pruebas • Banco de pruebas • La medida en educación. 11. Clasificación • Toma de decisiones en la evaluación educativa • Clases de evaluación • El proceso de la evaluación ~ ~ ,. Alcalá, 166 ~ - I CCS EDITORIAL 28028 MADRID 'Ir 91 725 20 00 / @§ 91 726 25 70 ISBN84f42-019-9 www.editorialees.eom I e.e.: [email protected] 9 "788498"420197 Teófilo Rodríguez Neira • Luis Álvarez Pérez Paloma González-Castro • Julio A. González-Pienda José Muñiz Fernández • José C. Núñez Pérez Enrique Soler Vázquez LA EVALUACiÓN DE APRENDIZAJES Editorial ees Página web de EDITORIAL CCS: www.editorialccs.com © Autores Varios © 2006. EDITORIAL CCS, Alcalá 166/28028 MADRID Queda prohibida, saivo excepción prevista en la ley, cuaiquier forma de reproducción, distribución, comuni- cación pública y transformación de esta obra sin contar con autorización de los titulares de la propiedad inte- lectuai. La infraccIón de los derechos mencionados puede ser constitutiva de delito contra ia propiedad intelectuai (arts. 270 y ss. dei Código Penai). El Centro Españoi de Derechos Reprográficos (www.cedro orgl vela por el respeto de los citados derechos. Diagramación editorial: Concepción Hernanz ISBN-1 O: 84-9842 -019-9 ISBN-13: 978-84-9842-019-7 Depósito legal: M-38569-2006 Fotocomposición: M&A, Becerril de la Sierra (Madrid) Imprime: Gráficas Blonde S.L. (Madrid) AUTORES Álvarez Pérez, Luis. Universidad de Oviedo. Departamento de Psicología González-Castro, Paloma. Universidad de Oviedo. Departamento de Psicología González-Pienda, Julio Antonio. Universidad de Oviedo. Departamento de Psicología Muñiz Fernández, José. Universidad de Oviedo. Departamento de Psicología Núúez Pérez, José Carlos. Universidad de Oviedo. Departamento de Psicología Rodriguez Neira, Teó:ftlo. Universidad de Oviedo. Departamento de C. de la Educación Soler Vázquez, Enrique. Universidad de Columbia. Máster en Educación Respuesta abierta 136 . Emparejamiento 124 4. 1. PRUEBAS VERDADERO/FALSO 81 6. PRUEBAS DE ELECCIÓN MÚLTIPLE 95 7. RECOGIDA DE INFORMACIÓN 53 4. índice Prólogo 9 1. OTROS TIPOS DE PRUEBAS OBJETIVAS 121 1. EVOLUCIÓN DEL CONCEPTO DE EVALUACIÓN EDUCATIVA 23 3. Problemas científico-matemáticos 130 8. PROBLEMÁTICA EN TORNO A LA EVALUACIÓN DE APRENDIZAJES 11 2. Respuesta doble 127 6. Clasificación . PRUEBAS LIBRES 133 1. LA MEDIDA EN EDUCACIÓN.. 126 5. Respuesta limitada 128 7. V/F múltiples 123 2. Respuestas combinadas 124 3. PRUEBAS OBJETIVAS 73 5. CARACTERÍSTICAS DE lAS PRUEBAS 183 1. Simulación 157 10. Tiempo de aplicación 250 3. ClASES DE EVALUACIÓN 247 1. BANCO DE PRUEBAS 195 13. Observación 169 1. OTROS TIPOS DE PRUEBAS LIBRES 147 1. PRUEBAS DIAGNÓSTICO 167 1. Sistema evaluado 249 2. TOMA DE DECISIONES EN lA EVALUACIÓN EDUCATIVA 227 15. Encuesta 178 2. Propiedades psicométricas 185 2. Pruebas mixtas 149 2. Observación espontánea 169 1.1. Observación estructurada 170 2. Relación entre las características de un examen 190 4. Evaluación formativa 252 3. Cuestionario 179 11. Examen oral 150 3.2. Evaluación aumativa 256 16.1. Fines de la evaluación 252 3. CALIFICACIÓN 217 14.2. EL PROCESO DE lA EVALUACIÓN 263 Glosario 283 Referencias bibliográficas 297 . Entrevista 178 2.2.8 La evaluación de aprendizajes 9. Proyecto 156 5. Principios éticos y deontológicos de la evaluación 193 12. lA MEDIDA EN EDUCACIÓN. Prueba práctica real 155 4. 11. Otras características 189 3.1. incluyendo todo un conjunto de ejemplos. en suma. así como unas directrices deontológicas sobre su uso. primero con un pormenorizado estudio de distintos instrumentos para recoger información sobre los resultados conseguidos por los alumnos. pero sin que ello suponga olvidarse de los fundamentos sobre los que descansan las estrategias de evaluación propuestas. que ahora presentamos. completado con una serie de características psicométricas que deben tener dichas pruebas. esencial de toda evaluación de aprendizajes. de un libro con vocación aplicada y práctica. Se aclara el sentido de la medida en educación. dadas las consecuencias que de la misma pueden derivarse para el alumno. es analizar desde distintas perspectivas la problemática implicada en la evaluación del aprendizaje de los estudiantes. Se empieza con una invitación al análisis de la problemática singular que cada uno tiene sobre la evaluación. con el fin de llegar a una definición de lo que hoy se entiende por eva- luación. El texto ha sido distribuido en 16 capítulos. en segundo lugar. pues aprender y evaluar son dos caras de la misma moneda del saber. Finaliza el análisis de dicha definición. Este tercer aspecto. El libro pretende facilitar al profe- sorado estrategias y pautas prácticas para llevar a cabo una evaluación adecuada de los aprendizajes de los estudiantes. que supone una aproximación deontológica a la tarea evaluadora. analizan- do separadamente sus componentes. casos prácticos e ilustra- ciones que permitan un acercamiento a lo que realmente ocurre en el día a día del aula. a la par que comprometido para el profesor. En este punto nos detenemos para estudiar dicha definición. basado en casos reales. Nos guía la idea de que no puede haber un aprendizaje cabal si no se acompaña de una evaluación eficaz y rigurosa. Sigue un estudio diacrónico de su evolución a lo largo de la historia de la edu- cación. c00 el estudio de un tercer aspecto fundamental. trata . la toma de decisiones. Se trata. Se han tratado de combinar de forma equilibrada los fundamentos teóricos y técnicos de la evaluación con la vertien- te aplicada. y. Prólogo El objetivo fundamental de este libro. con la manera de formular juicios para valorar dichos resultados en forma de calificación. vayan conformando una equilibrada apro- ximación a su tarea evaluadora. imprescindible en dichas etapas. etc. En cuanto a los profesores de etapas de educación obligatoria. no sólo con la evaluación. el libro constituye una continuación y actualización de otro publicado anteriormente por los autores sobre La evaluación en el aula. se añade un glosario que incluye una amplia gama de términos relacionados. las estrategias de enseñanza- aprendizaje. El profesor no está solo y. les ayudará a analizar la estrecha vinculación que la eva- luación tiene con la atención a la diversidad. de forma que les ayude a desprenderse de este- reotipos. aunque con singular responsabilidad. tales como la programación. deben conocer las reglas fundamentales de la evaluación. El estudio sobre la toma de decisiones se completa con un análisis sobre las Cla- ses de evaluación. Esperamos que la lectura del libro permita que los profesores de todos los niveles. Los autores . tales como maes- tros. desde la Educación Primaria hasta la Universidad. En su conjunto. logopedas. Nuevas reflexiones podrían incorporarse al entorno de la toma de decisiones.10 La evaluación de aprendizajes también de ayudar y dar respuesta al profesorado que a menudo se siente poco ap(jyado ante su responsabilidad evaluadora. en modo alguno debe constituirse en agente úni- co de las consecuencias de la evaluación. concretada en una programación flexible y en unas estrategias metodológicas adaptadas a los alumnos. Todo ello se enriquece con una selección actualizada de referencias bibliográficas. la pretensión de identificar igualdad de «oportunidades» con igualdad de «resultados». se ofrece un resumen de los distintos pasos del proceso evaluador. modas pasajeras y prejuicios. entre otros. Para facilitar la comprensión de la terminología que se usa a lo largo del libro. pedagogos y psicólogos. por ejemplo. sino también con otras tareas docentes. En el último capítulo. así. la acción tutorial. educadores sociales. o el impacto producido por la ampliación del período de enseñanza obligatoria. dado que como futuros evaluad ores en distintos ámbitos. reflexionen sobre el sentido mismo de la evaluación y. lo que sí debe asegurar el profesor es su objetividad y las garantías de su «modus operandi». El libro también puede ser de gran ayuda para los alumnos que cursan estudios universitarios sobre educación. L N5I lDl.LVW5I1aOHd I .551ntZION5IHdV 510 NOI)Vn1VA5I I V1 V ONHO. . Monedero (1998). a menudo se convierte en una «auténtica palestra de confrontación tanto ideológica como técnica» (Zabalza. en los que. que son represivos y suponen un instrumento de poder. Gronlund (1973). su función de control y selección. como más cercanos a nuestro entorno: Barberá (1999). cali- ficación y evaluación. Como otros fenómenos educativos. en los párrafos siguientes. es más. dificultades y límites de la evaluación. Cronbach (1972). Scriven (1967). Así. sufre periódicos vaivenes en lo que se refiere a su valor y consideración. Casanova (1997). Ebel YFrisbie (1977). desfase entre la teoría y la práctica. tanto desde el punto de vista teórico como práctico. la evaluación. no suele dejar indiferente a nadie. por lo que se declaran incompatibles con una educación que pretenda ayudar a'realizarse . 1989: 235). en fin. Los interesados encontrarán esta amplia problemáti- ca en tratados ya clásicos sobre evaluación que muchos autores han ido apor- tando a lo largo de la historia de la educación. Destacan las opiniones sobre los exámenes. y antes de iniciar su estudio sistemático. Thorndike y Hagen (1969). Bloom Hasting y Madaus (1975). elimine o amplíe lo que considere oportuno en relación con este tema. Tenbrink (1981). que reflejan un estilo de enseñanza conservador y autoritario. Lafourcade (1977). que producen ansiedad y provocan secuelas muy negativas en la personalidad y desarrollo de los alumnos. Sabirón (1999) y Zabalza (1989). para algunos. Stufflbean y Shinkfield (1985). con todo lo que conlleva. se dice que los exámenes producen más efectos negativos que positivos. se recoge una miscelánea de opiniones que suelen oírse en los centros de ense- ñanza y se leen en la bibliografía especializada.La problemática relacionada con la evaluación. a veces se ven como una ame- naza que desmotiva y llega a alienar y dañar el propio autoconcepto. programación. Con el fin de que cada lector. juicios de valor sobre el rendimiento de los alumnos. En todas las publicaciones que abordan la evaluación educativa se mencio- nan problemas asociados. de acuerdo con su experiencia y sus conoci- mientos. fines de la evaluación. entre otros. Popham (1978). Tyler (1950). 1. es obligado citar a Adams (1983). subraye. se concentran todos los «diablos» de la educación. Opiniones referentes a aspectos varios y diversos: exámenes. También. tanto más si las con- secuencias de las malas notas recaen personal y directamente en el profesor. Para Gimeno (1988: 377): «la importancia de las notas y de las evaluaciones escolares desde un punto de vista social. y se llega a decir que se podría educar mejor sin exámenes formales. en la práctica parece difícil encontrar alternativas. sin una oportuna elaboración de acuerdo con algún modelo estructurado. aunque moderadas. acuden al sentido común para demostrar que la mayoría de los alumnos no sufre estos daños. Los problemas de los alumnos que fracasan suelen ser de otra índole. desde otras posiciones.14 La evaluación de aprendizajes al alumno. a simplificar los juicios de valor. Por otro lado. y los alumnos que no se esfuerzan suponen un problema mayor que los que estu- dian. En este sentido. Otros. añaden. surge en los profesores la tentación de prepa- rar a los alumnos para lo que se les va a exigir en las pruebas. sin embargo. La . se critica la tendencia en la práctica evaluadora a reducir el espectro de informaciones y. no obstante. y no se van a solucionar suprimiendo los exámenes. es decir. Si la eficacia de la instrucción se juzga desde instancias externas sólo a partir de las respuestas en los exámenes. algunos estudios señalan cómo la toma de decisiones se realiza frecuentemente urgida por exigencias administrativo-institucionales y por las necesidades del momento. trabajan y se preocupan. enseñar. 2. es una parte necesaria de la maduración. como son los exámenes. 3. Se suele considerar también que los instrumentos de evaluación se usan a menudo con fines distintos para los que fueron diseñados. y si éstas no se valoran. una mala nota dada a un alumno que se ha esforzado puede causarle un perjuicio. por tanto. por ejemplo. se insiste en la sustitución de algunos instrumentos de eva- luación. La emisión de juicios de valor sobre los alumnos y sobre la calidad de sus tareas se suele basar en una información elemental o en una percepción muy genérica sobre su personalidad. Luchar contra los exámenes fue una de las consignas estudiantiles de Mayo del 68. sino la instrucción. dicen. es decir. por lo que no hay que corregir la evaluación. Casi nadie dice que en la enseñanza reglada puede haber instrucción sin evaluación. prue- bas destinadas a identificar logros de los alumnos se utilizan como variable exclusiva para valorar centros o profesores. pero normal- mente las malas calificaciones se asignan a los alumnos que no han estudiado. Sin embargo. aprender y evaluar son partes interrelacionadas del ciclo de instrucción. incluso para algunos ésta llega a ser la «pieza clave» del sistema edu- cativo: no puede haber enseñanza y aprendizaje si no hay unas metas que alcan- zar. académico y personal para los alumnos contrasta con la simplicidad de los procesos por los que se adjudican a los alumnos. una preocupación moderada por los exámenes es siempre beneficiosa: el aprender a enfrentarse con situaciones problemáticas que la vida va a deparar. unos procesos que tienen mucho que ver con una típica conducta simplificada de toma de decisiones por parte del profesor». Efectivamente. inercia y rutina de las técnicas de evaluación tradicional. a las notas oficiales.Problemática en tomo a la evaluación de aprendizajes 15 excesiva influencia de los exámenes hace que puedan modificarse las calificacio- nes: la práctica puede ir desde capacitar a los alumnos exclusivamente en los con- tenidos de los que se van a examinar o enseñar las respuestas de lo que se va a preguntar. más que para alcanzar unos objetivos basados en unos intereses per- sonales o en unos valores o necesidades sociales. actitudes típicas de profesores y alumnos conformadas por años de experiencia escolar. es decir. incluso entre los materiales disponibles y esa misma práctica. Otras veces. Así. Esta no es una tarea fácil. porque. El uso de las calificaciones para estos propósitos se acepta sólo si revierte indirecta- mente en una mejor disposición hacia el aprendizaje (una asignatura que no se califica se convierte en una «maría»). es el mismo profesor el que decide incluir en las calificaciones factores distintos del grado de adquisición de objetivos de aprendizaje (Stig- gins. Las cau- sas son muy complejas: burocracia escolar. que puedan estimular a los alumnos a actuar cerca de los niveles óptimos de su capacidad cognitiva. Con frecuencia se señala que hay un gran desfase entre la teoría y la práctica. 5. prejuicios acien- tíficos. se estaría comuni- cando a los alumnos que se prima más el comportamiento social que el apren- dizaje de las metas del programa de la escuela. a las caras sonrientes ya privilegios especiales. hasta subir la nota. Esto no se puede corregir ni fácilmente ni muy de prisa. el aprendizaje de los alumnos. se critica que a veces se enseña para aprobar exámenes. Parece que esto ha influido en las prácticas educati- vas más de lo conveniente. Sólo si desarrollar actitudes de los alumnos hacia algo o su disposición a esforzarse figuran entre los objetivos de aprendizaje programados. como lo pone de manifiesto Juan Manuel Álvarez Méndez (1994: 316) cuando escribe: . De aquí el aforismo de que los que construyen las pruebas controlan el programa )~en último término. En general. 1989). Frisbie y Griswold. etc. a suprimir aquellos temas o materias que no se van a controlar. lo que muestra que el fin influye en la enseñanza. Se conceden notas altas como premios y bajas como castigos. presión de tiempo. de lo contrario. A este desfase contribuye no poco la confusión patente en la bibliografía y en la normativa al respecto. por lo que un reto significativo para todo profesor es encontrar formas de premio. se admite por muchos que los alumnos que hacen más esfuerzo y demuestran más deseo de aprender deben ser recompensados por ello. La presión sobre profesores y alumnos para alcanzar calificaciones altas ha llevado a diseñar currículos dirigidos por los exámenes. con lo que los exámenes se convierten en programación. y si el profe- sor ha planificado procedimientos instruccionales para ayudar a los alumnos a desarrollar estos comportamientos. 4. convirtiéndolas así en instrumentos de control en clase. se puede juzgar apropiado considerados en la asignación de las calificaciones. puesto que los alumnos responden de manera diferente a las palabras de elo- gio. distintas a las calificaciones. Las dificultades a la hora de evaluar objetivos que incluyen algunos tipos de capacidades. implicando en lo que aparentemente es una simple adjetivación. La paradoja es que el profesor que debe «resolver»la eva- luación de cada día en el aula contempla abrumado este desconcierto termino- lógico como espectador de su propio espectáculo sobre un escenario en el que él actúa. pero hay otros muchos procesos mentales o capacidades cognoscitivas importantes susceptibles de aprendizaje y que. criterial. por lo que es difícil evaluados. pero sobre ella se articulan discursos que desconciertan a quienes se aproximan o intentan comprender el estado de la cuestión. supone. de producto. interna.16 La evaluación de aprendizajes Esfácil encontrarse con t(!j. continua. democrática. . sumativa. se necesitan tiempos reales a veces muy largos.. más que una opinión. individualizada. Madrid. una preocupación generalizada. global.. formativa. y en otros la coincidencia sólo se da en la expresión pero aluden a referentes totalmente dis- tintos. Especialmente complicados son los problemas de la evaluación de habilida- des manuales o capacidades psicomotrices. la creatividad. En otros casos. cuantitativa. Educación Pri- maria. Debido al deterioro del concepto de evaluación educativa. final. por un lado. 7. se deberían evaluar. la avale. Muchos términos superponen significados. predictiva. La mayoría de las pruebas se mueven en torno a una memorización comprensi- va. personalizada. Sin embargo. externa.'tosque van matizando sucesivamente el concepto de evaluación. burocrática . pero con frecuencia son intangibles. No faltan casos donde la confusión es total. a veces resulta casi imposible explicitar sus indicadores. por tanto. funciones y formas de evaluación muy dispares.. integral e integradora. siste- mática. hayan surgido del hecho de que la práctica tradicional haya entrado en una rutina divorciada de una teoría rigurosa que. el pensamiento crítico. diagnóstica. otros los ocultan. incluso algunos de estos efectos pueden no aparecer hasta mucho tiempo después de dejar la escuela. etc. uniforme o pluriforme.por otro. cualitativa. la depure y. otros los in ter- cambian. con el fin de proponer al alumno los procesos remediales para cada uno por sep:lr:ldo. otros los confunden. normativa. a los mismos términos se les asignan funciones y fines diferentes haciéndolos irreconocibles. Más recientemente (MEC [1989] Diseño Curricular Base. Los procesos de aprendizaje que experimenta un alumno tienen efectos tre- mendamente importantes. procesual. MEC) se habla de evaluación puntual. ideográfica. participante. Es posible que las posiciones extremas. que proponen desterrar la calificación. con demasia- da frecuencia tienden a identificarse evaluación y calificación. respon- diente. Por un lado. en otros. La imposibilidad práctica de medidos con alguno de los tests disponibles en la actualidad. Últimamente y ya en la literatura especializada aparecen conceptos de nueva incorporación tales como evaluación iluminativa. por otro. Aparecen términos que aluden a la evaluación como inicial. etnográfica. sutiles e impre- decibles. por importantes que sean. las interpretaciones que se hacen de ellos los hacen dife- rentes sin modificar su forma linguística.. 6. Todo lo cual hace ver que la evaluación no es una sola cosa sino varias. resulta difícil especificar bien los comporta- mientos elementales de que se componen para poder evaluados. puede impedir la necesidad de medidos. aunque se ejerzan al amparo de un mismo rótulo. por ejemplo. tanto para profesores como para alumnos. porque se defiende que la evaluación debe ser un instrumento de investigación didáctica y de información. indispensables para realizar tal investi- gación. corremos el riesgo de producir una for- mulación tan complicada que resultará válida sólo para un grupo especializado de investigadores. sin valoración por parte del profesor. escribe que la evaluación debería tener como función básica: ". tendríamos que preguntamos si es posible evaluar. se relega todo intento de operativización previa y necesaria para una medida adecuada. Con demasiada frecuencia se califican contenidos actitudinales sin base objetiva. para tomar una postura es imprescindible llegar antes a una definición o al menos a una descripción que no caiga en extremismos.Problemática en torno a la evaluación de aprendizajes 17 Pero sobre todo faltan estrategias para evaluar las capacidades afectivas. censuran lo que la evaluación tiene de control y selección. afirmativa.. sino centrarse en el tipo de evaluación que cada situación requiere según los diferentes diseños curriculares y las exigencias administrativas. * * * Hasta aquí algunas de las opiniones más persistentes sobre la evaluación educativa. 8. De todas maneras. . se olvidan otros pasos intermedios y. A este respecto Gimeno (1981: 217). como es presumible. los que defienden como fin de la evaluación informar al alum- no de su logros y causas. quién. Si tratamos de definirla exhaustivamente. seguir preguntándonos por el qué. una información que le ayude a progresar hacia el autoaprendizaje. Por último. de cara al alumno. recogiendo el sentir de otros muchos autores. y en caso de que nuestra respuesta fuese. 1. En primer lugar. cuándo y. en todo caso. cómo. por lo que no es extraño que tales calificaciones estén tan des prestigiadas y devalua- das. necesario y útil hacerla? La cuestión no es discutir a favor o en contra de la evaluación. Para ello es necesario tener respuestas claras a una serie de cuestiones. En los párrafos siguientes trataremos estas cuestiones para ir respondiéndolas con más ampli- tud a lo largo de la presente publicación. Frente a las críticas de algunos autores referentes a las limitaciones de la evaluación. otros señalan que éstas van más allá de lo racional: porque no se pueden medir algunos logros educativos. ofreciéndole noticia del estado en que se encuentra y las razones del mismo. se concluye que no se puede medir ninguno. ¿Es posible evaluar? ¿Es conveniente. porque no se pueden operativizar todos los fines educativos. meta de toda educación». para qué evaluar. 9. ni se intentan controlar los logros de la misma.. como es la medida rigurosa y explícita de los aprendizajes. Pero un enfoque más reducido corre también el peligro de fijarse únicamente en la calificación como actividad que los profesores ejercen más frecuentemente. sobre todo. A continuación nos proponemos es tudiaria con rigor. para que coja él mismo este dato como guía de autodirección. porque la maduración de una persona transciende la educación formal. 2. La evaluación nos da una medida del nivel del que se parte. grado de perfección o nivel aceptable de la actuación esperada del alumno. por el contrario. Para asegurar la validez de esta eva- luación. Por el contrario. docentes. etc. o incluso unas estrategias de enseñanza. tiene todas las probabilidades de no condu- cir a nada. a) Se suele admitir que la evaluación marca la diferencia entre un currículo de una sola dirección. puede dar pistas para formular una adecuada definición de evaluación. Todo ello. La evaluación sirve también para relacionar los otros elementos del currícu- lo es decir. este proceso debe comenzar ya en el mis- mo momento de la programación de objetivos de aprendizaje. además. para relacionar los medios con los efectos que produce la educación. entre otros requisitos. por consiguiente. sin cam- biar el sistema de evaluación. Qué: ¿Qué intentamos evaluar? La evaluación educativa puede recaer sobre sistemas. como medio para consolidar su prestigio. pero. aun sin modificar explícitamente el programa de enseñanza. Es importante la planificación previa de un sistema de evaluación que pueda servir de base a la preparación de un programa. instituciones. fines y relación con los otros elementos curriculares. de profesor a alumno. Comprende. . Pues bien. otros centros acostumbran a dar a conocer el porcentaje de alumnos que tiene éxito en pruebas de todo tipo. para evaluar realmente lo programado. juzgando la pertinencia y eficacia de ambos. Por citar uno. En el presente trabajo nos centra- mos exclusivamente en el estudio de la evaluación de aprendizajes de los alum- nos en el marco de una instrucción formal. La evaluación de aprendizajes Para llegar a una definición equilibrada. Modificar un programa. describir rigurosamente las capacidades y los contenidos cien- tíficos especificando los indicadores pertinentes. b) Los fines explícitos de la evaluación se enumerarán al tratar del «para qué» evaluar. programación y metodología. si se modifica el siste- ma de evaluación. el nivel al que se llega y del progreso realizado. ayuda analizar su relación con los demás elementos del currículo. y un proceso interactivo simétri- co que proporciona feedback y provoca cambios tanto en profesores como en alumnos. precisan- do en la formulación de los mismos el criterio. en consecuencia asimétrico o «balística» en palabras de Bell (1981). la experiencia dice que. A esto se refie- re el aforismo ya citado de que quien controla el examen controla el pro- grama que se lleva a cabo. ya que algunos no lo han adquirido por el resultado de sus exámenes. es mayor la repercusión sobre el aprendizaje. es decir. el prestigio de la institución: no siempre tal prestigio logrado a través de la evaluación es de absoluto interés para los centros. sino por una larga tradición. una serie de fines se esconden tras el currículo oculto. es necesario. así como con los fines para los que se emplea. describiendo por separado los elementos que lo componen. un grupo normativo o un criterio absoluto. Quién: Debemos también tener respuestas sobre los sujetos que inter- vienen en la evaluación. el grado de éxito en un examen están también . 5. profesores y alumnos. la inter- pretación global de datos y la toma de decisiones? 4. continua. en muchos casos.Problemdtica en torno a la evaluación de aprendizajes 19 un análisis de objetivos.. Cuándo: Hay que decidir en qué momentos se realiza la evaluación: ini- cial. en particular. b) Motivación: Las investigaciones han demostrado que. o también otros agentes externos? ¿Se debe conti- nuar admitiendo que al profesor le corresponde la construcción de pruebas y el análisis de datos. Un estudiante está más motivado. pero es superfluo decir que la evaluación en general y. aunque siempre haya que definir fronteras. el tipo de interpre- taciones que se van a hacer de los resultados. añadimos los que más a menudo se citan explícitamente. Diferenciar y certificar el fracaso y el éxito de los logros instruccio- nales de los alumnos ha sido su papel tradicional. Conviene señalar que cuando se hace una evaluación por objetivos. cuando un estu- diante está verdaderamente motivado. Hay que considerar: el formato y el número de preguntas necesario. y a las Juntas de Evaluación. la especificación ha de ser mayor. cuando acepta los objetivos que se le proponen. Cómo: Problemática en torno a los instrumentos de evaluación. Por último. ni hacer deducciones o extrapolaciones sobre las capacidades y conte- nidos no examinados a la hora de interpretar las calificaciones. intermedia. su actuación está mucho más cer- ca del máximo de sus posibilidades. el referente que se va a utilizar. 3. capacidad y contenido. Para qué: ¿Para qué evaluamos? A los fines ya mencionados al hablar del currículo oculto. 1999). Si la interpretación va a ser normativa. para hacer una interpre- tación criterial. hay que formular de modo preciso los objetivos de aprendizaje y controlar adecuadamente cada uno de ellos mediante una nota dada a partir de varias preguntas. Si la interpretación va a ser de domi- nio. el contenido científico general de los materiales de instrucción basta para marcar los límites de la prueba. hay que contro- lar todas y cada una de las capacidades y contenidos reflejados en los objetivos. final. por ejemplo. Son muchos los factores que intervienen en la motivación (Álvarezet al. La buena disposición para aprender es un elemento indispensable para conseguido. 6. al alumno. al con- trario que cuando se hace una evaluación de dominio. ¿Deben intervenir sólo los protagonistas de la instruc- ción. la autocorrección y la autoevaluación. en las etapas que así lo exige la ordenación educativa. a) Control: La evaluación tiene como fin el control del proceso de instruc- ción. una formulación de los grados de consecución acepta- dos y un diseño de situaciones de aplicación. la descripción de lo que se va a eva- luar puede ser más general. no se puede acudir a una muestra. pero hay que subrayar también los logros positivos. d) Feedback para los alumnos: Permite al alumno informarse de sus apren- dizajes. Para algunos afortunados. Los fallos no tienen por qué ser más informati- vos que los logros. le hace saber lo que ha aprendido y lo que le falta por aprender. como las expectativas y las necesidades. para otros. lo que posibilita la corrección de su modo de enseñar. c) Feedback para los profesores: La evaluación permite al profesor detectar si los alumnos han asimilado bien lo que trataba de comunicarles y hacer un juicio sobre las técnicas de enseñanza utilizadas. La evaluación de aprendizajes directamente unidos a la motivación. Así. * * * . es decir. apliquen principios y resuelvan problemas. entonces su influencia motivadora será definitivamente más útil. el suprimir una de ellas produciría una disminución en el rendimiento de muchos alumnos. En concreto. el proceso de construir las pruebas es una ocasión para que los profesores revisen y precisen la pro- gramación. Se sabe que tenemos tendencia a realizar y repetir actividades en la medi- da en que van seguidas de cierto éxito. descubriendo sus deficiencias. A la larga. estos mismos estudiantes trabajarán de otra manera para tener éxito en este tipo de pruebas. y estudian más intensamente aquello que esperan que «caiga». Como ambas contribuyen al aprendizaje.Si los alumnos conocen de antemano que se les va a examinar. si el examen consigue medir bien los logros de los alumnos respecto a los objetivos pertinen- tes. Los alumnos tienden a estudiar más cuando preparan un examen. sobre todo. el siste- ma de evaluación utilizado determina en gran medida el tipo de actividad a la que se entregarán durante el aprendizaje. no se deben ignorar. Este fenómeno se conoce como «Leydel Efecto» de Thorndike. los estudiantes llegan a dar- se cuenta de que ciertos tipos de conducta están asociados al éxito certi- ficado por las buenas notas. la motivación intrínseca puede ser tan fuerte que por sí misma sea suficiente para provocar los esfuerzos necesarios para aprender. Por el contrario. Además. si las pruebas requieren que los estudiantes interpreten datos. Los exámenes deben considerarse como motivación extrínseca y otros factores. tendrán tendencia simplemente a memorizarlos. de la que se deriva la que tienen los profesores frente a la misma sociedad al evaluar. los requisitos del examen y. A veces se insiste excesivamen- te en lo no conseguido. dado que en algún momento la evaluación supondrá la conce- sión de títulos por parte de la Administración. la motivación provocada por los exámenes es indispensable para estudiar. como motivación intrínseca. si los alumnos son juzgados por su nivel de conocimiento a través de pruebas que exijan exclusivamente memo- ria. e) Título: La evaluación supone también una responsabilidad social. dentro de una práctica asequible a cualquier profesor que necesite perfeccionar la suya. 3. proporcionar un adecuado feedback a los estudiantes y motivades. técnicamente correctos e impar- ciales. . diseñar adaptaciones curriculares individuales y grupales. por un lado.Problemática en tomo a la evaluación de aprendizajes 21 A partir de aquí. útiles. con el fin de optar por una definición que sintetice las mejores aportaciones. Así pues. interpretar y analizar los resultados de pruebas objetivas. afectando negativamente a la toma de decisiones acerca de los estudiantes. deben asimilar y seguir principios adecuados para analizar la calidad de los métodos de evaluación y elaborados. imparciales y justi- ficadas. tales como utilizadas como castigo. 4. asegurándose de q~e sus calificaciones sean racionales. evitando formas sesgadas. lo que se puede concretar en los siguientes estándares. elaborados por una comisión de expertos designados por las tres asociaciones educativas más representativas de Estados Unidos: American Federation of Teachers. En este sentido. 1. adaptados de los Standards for Teacher Competence in Educational Assess- ment of Students. en que muchos autores han ido subra- yando y seleccionando distintas formas y funciones de la evaluación educativa para formular su propia definición-. abiertas y diagnóstico. es parte indispensable de la tarea docente. Elaboración de métodos de evaluación: Si bien los profesores emplean a veces instrumentos elaborados por otros.como ele- mento esencial de la evaluación. los profesores deben ser capaces de diseñar e implememar procedimien- tos para generar cali. National Council on Measurement in Education y Natio- nal Education Association.ficacionesa partir de puntuaciones obtenidas por los alum- nos. Aplicación de los resultados de la evaluación: No es suficiente que los profesores sean capaces de seleccionar y elaborar buenos métodos de evaluación. identificando así los puntos fuertes y débiles del aprendizaje de sus alumnos. también deben estar preparados para aplicar. A continuación estudiaremos el resto de las cuestiones aquí plan- teadas. Por este motivo. Elección de métodos de evaluación: Los profesores tienen que saber ele- gir métodos de evaluación pertinentes. cómo una evaluación válida puede ayudar a diagnosticar necesidades educativas a nivel individual y grupal. redescubrir su concepto y sus funciones auténticamente educativas dentro de una teoría coherente que refuerce las intuiciones y las rutinas cotidianas del aula y. 2. con el fin de estimular su desarrollo edu- cativo y no incrementar innecesariamente sus niveles de ansiedad. intentaremos profundizar en el significado que se le ha ido atribuyendo al concepto de evaluación a lo largo de la historia de la educación -sobre todo en las tres últimas décadas. pretendemos que los profesores mejoren su competencia en la evaluación educativa. para analizar los elementos que la constituyen con objeto de depurar sus posibles defectos. deben comprender. etc. lo más frecuente es que utilicen los que ellos mismos generan. «si es posible evaluar».j por otro lado. tam- bién deben ser conscientes de que determinados enfoques evaluativos pueden ser incompatibles con algunos objetivos. para contestar la primera pregunta. sobre todo. Con todo ello. Elaboración de procedimientos para la calificación: Calificar. Identificación de evaluaciones no éticas o ilegales: La imparcialidad.22 La evaluación de aprendizajes 5. Por esta razón. limitaciones e implicaciones. tales como violación del derecho a la privacidad o uso inade- cuado de los resultados de los exámenes de los alumnos para otros fines como valorar la labor docente de los profesores. los derechos de todos los implicados y la ética profesional deben presidir todas las actividades de la evaluación educativa. Toma de decisiones educativas: Los profesores deben ser capaces de uti- lizar de forma efectiva los resultados de las evaluaciones para tomar decisiones educativas. a los padres o a otras personas autorizadas. para hacerla con efica- cia. desde la planificación inicial y la recogida de información hasta la comunicación de las decisiones tomadas. 6. . y en la sociedad en general sobre el sistema educativo. y deben ser conscientes de que algunos procedimientos de eva- luación pueden ser incorrectamente utilizados con consecuencias perjudiciales para los alumnos. no sólo en clase sobre los estudiantes. Comunicación de los resultados de la evaluación: Los profesores tienen que informar habitualmente sobre los resultados de las evaluaciones a los estu- diantes. los profesores deben ser capaces de utilizar la terminología adecuadamente y explicar con claridad su significado. sino también en la comuni- dad local sobre aspectos escolares. los profesores deben estar bien informados sobre sus responsabilidades éticas y legales. 7. Así. dEl)NO) '510 NOI)n'OAEI I OlnlJd'i) .l") n051 NOI)"n'''AEI I 510 OJ."AI. . es decir. La función selectiva clasifi- cará a los alumnos en más o menos competentes. que no simple. que la historia de la evaluación educativa es la historia del referente. crearon un gran número de procedimientos de instrucción. en consecuencia. La función nomotética servirá para encontrar regularidades que permitan pronosticar comportamientos futuros y está rela- cionada con la valoración normativa (cap. Por el contrario. superada la época precientífica. por lo que está más relaciona- da con la valoración criterial (cap. En unos casos. defmido por Barbier (1993: 71) como «aque- llo en relación con lo cual se produce o es susceptible de producirse eljuicio de valor». en otros. una de las tareas básicas es identificar. Los sistemas de enseñanza. a los paradigmas científicos. esas finalidades han ido cambiando y. Desde otro punto de vista. está expresado a través de unos indicadores precisos y sue- le aparecer relacionado con las finalidades o metas educativas. siempre estuvo allí donde se producía una valoración de algún elemento del proceso educativo. el desarrollo de la evaluación educativa. sino que está ligada a los diversos modos de hacer ciencia. que determina el rendimiento de los alumnos a partir de las regularidades del grupo. defi- nir y precisar los factores que lo constituyen. no surge espontáneamente. 13). del eje de referencia por el que se valora un proceso de enseñan- za-aprendizaje. A lo largo de la historia de la educación. el referente de la evaluación educativa cumple una función nomotética y. selectiva.Podríamos decir de manera sencilla. unas veces es externo al proceso mismo y otras está inserto en él. que aún siguen influyendo en la actualidad. Cuando el referente es implícito. 13). para evitar subjetivismos o arbitra- riedades y reducir el campo del llamado «currículo oculto». Sin embargo. no parece que los docentes de estas . cuando es explícito. también lo han hecho los ejes de referencia. desde la Antiguedad hasta la Edad Contemporánea. LOS COMIENZOS DE LA EVALUACiÓN EDUCATIVA: LA EVALUACiÓN PRECIENTíFICA 1. Unas veces este referente es implícito y otras explícito. publicada en Baeza en el año 1575.26 La evaluación de aprendizajes escuelas hayan utilizado para la evaluación referentes explícitos. sino que se valoraban los logros a partir de referentes implícitos. En el Renacimiento. casi siempre con funciones selectivas. san Agustín. Por su parte. ya que sólo acce- dían a ellos los alumnos que obtenían el visto bueno previo de sus maestros. Dubois (1970) y Coffman (1971) citan los procedimientos que ya se emplea- ban en la China Imperial alrededor del segundo milenio a. En tor- no a ellos se centra todo el sistema universitario. En la Edad Media aparecen los exámenes con un carácter más formal. cuando Gedeón selecciona a unos luchadores empleando pruebas situacionales. Cicerón. por ejemplo. Este estado de cosas es el que llega a la época de la Ilustración. Nápoles. sin embargo. En el mundo clásico griego. Especial- mente interesantes son los criterios que se recogen en Ratio atque Institutio Studiorum (1598. Su procedimien- to selectivo supone que los hombres difieren por sus habilidades. en su obra De Oratore. indica que han de establecerse criterios que permitan distinguir entre un sano realismo y un pedante verbalismo. el pensamiento enciclopedista y la Revolución Fran- . Sund- berg (1977) considera que en la Biblia hay un pasaje que bien pudiera tomarse como una evaluación. Con el tiempo. los fracasos en estos exámenes eran poco frecuentes. es el libro de evalua- ción más importante de la Antiguedad. Platón. en la que ya se plantea la posibilidad de seleccionar a los individuos. Tarquinio Longo). con el fin de comprobar si el discípulo ha captado la esencia de las cosas no a través de vanas palabras. Por fin. como aportación significativa sobre la evaluación propia de nuestro entorno. ade- más. ya tiene en cuenta lo que en la actualidad llamaríamos evaluación formativa (cap. y que éstas se fundan en diferencias de naturaleza. McReynold (1975). son apreciables a través de exámenes físicos. 15): el futuro orador ha de desarrollar sus talentos naturales y adquirir aquellos otros de los que carece. Así se introducen los exámenes escritos que se regulan con toda minuciosidad mediante criterios de evaluación para cada nivel y grado. la prueba para llegar a «magister».era un claro examen oral público en donde el aspirante debía demostrar sus conocimientos en presencia de un tribunal. Con Juan Huarte. En la época romana. obra atribuida a Ptolomeo. las cuales. Se evalúa sin una teoría expresa de la evaluación. Así. fueran éstos sociales o económicos. las prácticas en los exámenes fueron conformando un con- junto de normas que las disposiciones de instituciones docentes fueron enri- queciendo. a su vez. mencionaremos la obra Examen de ingenios para las ciencias. publicado en edición bilingue por Gil (1992). en su libro VII de la República. la observación se convierte en instru- mento básico para llevar a cabo la evaluación. para seleccionar a los aspirantes que iban a formar parte del alto funcionariado. En el último cuarto del siglo XVIII. C. de Juan Huarte de San Juan.llamada «inceptio». ambos descubiertos mediante una tarea de discernimiento. sino de leyes válidas. nos presenta un sistema de enseñanza en el cual la promoción es consecuencia de una evaluación claramente selectiva. estima que el Tetrabiblos. en el tratado De Magistra. citado por Bar- bier. Horace Mann (1845) dirige una evaluación basada en tests de papel y lápiz.Evolución del concepto de evaluación educativa 27 cesa favorecen el derecho de todos los ciudadanos a la educación. el ejemplo más claro es el sistema educativo napo- leónico. eran el instrumento idó- neo para determinar la jerarquía en la sociedad y aumentar el poder social (Bar- bier. 1993): «un sistema de exámenes jerarquizados. las más de ellas. [1956] Wirschaft und Gesellschaft. Lo mismo ocurría en Inglaterra con las comisiones reales que evaluaban los servicios públicos de instrucción. Este modo de evaluar no responde a la aplicación de un enfoque teórico o paradigma. un sistema de exámenes que consagra una prepa- ración específica para satisfacer las necesidades de una nueva sociedad jerárqui- ca y burocratizada. que intenta poner en correspondencia individuos jerarquizados y comparables con lajerarquía de lospuestos ofrecidos». que consagra un entrena- miento específico y que permite la aparición de carreras específicas (. unas veces explícitos y. 1993). dice Max Weber (Weber. preocupado casi exclusivamente de la instrucción académica. Berlin. 735. Jn la Europa moderna. en relación con el desarrollo de las necesidades de una organización burocrática. Surge así. siguien- do el camino iniciado por Mann. En este sentido. pág. Tal es el caso de los títulos de bachillerato concedidos por el gobier- no francés a los que deseaban ser funcionarios civiles o militares. lo que capacitaba para desempeñar determinados puestos sociales y. Fisher. y también plantean la exigencia de que el acceso a la especialización se condicione a la comprobación -evaluación. T. M. contribuye a hacer las evaluaciones con referen- tes más objetivos y explícitos respecto a determinadas destrezas lectoescritoras. Tienen el doble carácter de metas que deben ser alcanzadas y de condiciones genéricas de la existencia. Kinpenhauer und Witsch. Ya en la primera mitad del siglo XIX se asiste a un cambio con la instauración de los sistemas nacionales de educación vinculados a la concesión de diplomas garantizados por el Estado. que frecuentemente usan instrumentos de medida de poca fiabilidad. en algunas ocasiones. No obstante. En este sentido. Mientras. según Weber. . que dio lugar al «examen de Estado». La evaluación se reduce más bien a un modo de hacer basado en prácticas rutinarias. empiezan a aplicarse en América las primeras técnicas evaluativas. II. En este tiempo influyen poderosamente concepciones educativas y sociales como el Positivismo de Comte (1795-1857) y el Sociologismo de Durkheim (1858-1917). de los méritos individuales.). Los fenómenos sociales adquieren la categoría de realidades obje- tivas que rigen los procesos del desarrollo humano. implícitos. que llegan a implantarse en las escuelas de Bastan.. se convierten en los únicos criterios de la evaluación que actúan como referentes. en 1864. y cuyo referente evaluador era económico y de ajuste social. La conduc- ta se mide tanto por lo que tiene que lograr como por lo que en ella interviene y la moldea de distintas maneras. Tales diplomas se lograban después de superar un programa de exáme- nes. esas pruebas evaluativas quedan perfectamente integradas en el racionalismo académico europeo.Así en 1845. de ahí. estaba aún ligado al asociacionismo inglés. Sin embargo. por tanto. El uso en la Psicología del modelo de «rasgos o factores» y. En esta misma época. Hille- gas.28 La evaluación de aprendizajes 2. las ideas reformistas de Rice (Ayers. Entre estos tests estandarizados se pueden citar: Escala para la escritura a mano de los niños de Thorndike. su aplicación a la evaluación está ligado al triunfo del evolucionismo de Darwin. autor del término «test mental» y que pasa por ser uno de los primeros defensores de la medida objetiva de los tests. hacia 1887. investigación que es considerada como la primera evaluación formal sobre un programa educativo. Precisamente. Así. la falsa creencia de pensar que los factores intelectuales se podían medir a través de aspectos psicofísicos. y a la aparición de tests estandariza- dos. a la vez que se estudian las condiciones psicométri- cas de fiabilidad y validez de los tests. Escala para el Dibujo de Thorndike. Test de Ortografía de Ayers. Buckingham. en consecuencia. frente a la lentitud de otros procedimientos de análisis basados en patrones yen tipologías físicasy psíquicas. y sobre todo con la fundación por Thurstone en Chicago en 1935 de la Psychometric Society. pri- mero fuera del ámbito docente. tal como era entendido por Cattell. y otros tests y escalas como las de Courtis. se interesa por la medida de las diferencias individuales de carácter psicológico y crea el «test»como método prácticO y rápido para medir las peculiaridades de cada individuo. Spencer. así como a la buena imagen del darwinismo social propuesto por H. influenciado por el paradigma «rasgos o factores» propio de la Psicolo- gía diferencial imperan te. ÉPOCA DE lOS TESTS PSICOlÓGICOS Se puede afirmar que el período de inicio y posterior desarrollo de los tests constituye el primer paso hacia una presentación científica de la evaluación. 1918) le llevan a compro- bar. Galton. empezaron a adquirir importancia en Europa los estudios de Binet (1857-1911) sobre tests normativos y estandarizados para evaluar las . Test de razonamiento aritmético de Stone. introduce un procedimiento de evaluación basado en la experimentación y. usando pruebas objetivas. el test mental. repetible y comparable. como la Aritmética. Test de Escritura de Thorndike y de Ayers. Siguieron experiencias seme- jantes con tests aplicados a otras materias. para más tarde ir introduciéndose de forma paulatina en las escuelas. Esta tendencia de aplicación de las prácticas psicológicas a la instrucción se ve reforzada gracias a las publicaciones de Thorndike (1904) sobre las facultades mentales y su medida. cuando empieza el desarrollo de muchas de las técnicas de evaluación psicológica.000 estudiantes. A partir de 1900. etc. el abandono de aquellos patrones psicofísicos en el campo de la Psicología favorece la elaboración y desarrollo de tests más ligados a la prácti- ca docente. Es a partir de 1869 con Galton (fecha de publicación de su Hereditarius Genius). Cattell (1861-1934). los conocimientos de ortografía de unos 30. el que se centre exclusivamente en los alumnos y apenas en los currículos. supone un primer intento de concep- . La Docimología (neologismo. propuesto por Pieron. 1974. con los que se realizan eva- luaciones a grandes colectivos de escolares. y Bonboir. En Estados Unidos hacia los años cincuenta. para designar e! estudio científico de los métodos de evaluación. a causa de las necesidades de reclutamiento y de la asigna- ción de puestos de responsabilidad. basa- dos en procedimientos de medida de la inteligencia. lo que provoca la aparición de nuevas alternativas. Al término de la guerra. el Stanford Achivement Test-1922 y las pruebas objeti- vas de McCall-1922. surge la elaboración de tests colectivos de inteligencia general: el Alfa (para los lectoescritores). en vez de confiar exclusivamente en las propuestas por especialistas externos. surge un movimiento «antitest» que critica. Aún más.JlX¿. Años más tarde. entre los que se pueden citar las baterías de test de aprovechamiento. Rusell-1930 y otros. se idean tests estandarizados. Con Binet empiezan los análisis de los procesos mentales superiores mediante procedimientos sencillos. y de cuestionarios e inventarias de personalidad. denominada período de los tests. Estas aplicaciones estandarizadas son sorprendentemente bien acogidas en e! ámbito educativo. Ruch-1929. a través de tareas que pueden realizarse fuera de los laboratorios. para medir toda clase de destrezas escolares con claros referentes objetivos externos y explícitos. de! griego DOKLI. siendo el primero el de Woodworth (Phillips. recogen en sus publicaciones las ideas principales de esta corriente evaluativa). McCall (1920) propone que los maestros construyan sus propias pruebas objetivas. que se inicia en Francia hacia 1920 y que pervive como corriente independiente hasta bien entrada la década de los cuarenta en que toma carta de ciudadanía con Tyler. 1969. que distri- buía a los niños por niveles a lo largo del sistema educativo. Pie- ron. 1974). 1968.Evolución del concepto de evaluación educativa 29 capacidades cognitivas. cuando los tests psicológicos se perfeccionan con el desarrollo del cálculo estadístico y con e! análisis factorial. los tests psicológicos se ponen al servicio de fines sociales. El desarrollo de este tipo de pruebas se vio favorecido en Francia por la promulgación de la ley sobre enseñanza obligatoria. El final de este período se puede fijar hacia los años cuarenta del siglo pasa- do. mando y manejo de instrumentos técnicos que exigía la situación de urgencia presentada por la Primera Guerra Mundial. Durante la década que va de 1920 a 1930. utilizando tests nor- mativos. entre otros aspectos. LOS INICIOS DE LA EVALUACiÓN CIENTíFICA EDUCATIVA 3. lo que permite identificar los rasgos menta- les subyacentes. el Beta (para los analfabetos).m = probar. en fin. Como solución. al divorcio entre lo que se enseña y las metas de la instrucción. c) unificación de criterios de corrección a partir del acuerdo entre los correctores de las pruebas. publica en 1950 su obra más famosa. la mera evaluación psicológi- ca. Como resultado de estos estudios.30 La evaluación de aprendizajes tualización de la evaluación educativa. es obligado citar también: Tyler. integrando su método sistemático de evaluación educativa. expedientes académicos. b) diversificación de fuentes de información: exá- menes. El intento de Tyler es presentar un currículo racional delimitado por cuatro cuestiones: 1. Critica la baja calidad de los exámenes y la imprecisión de las calificaciones. propone unas prescripciones -docimología prescriptiva- que ayuden a superar la subjetividad de la valoración: a) elaboración de taxono- mías para formular objetivos. W (1950) Basic principies of curriculum and instruction. a la heterogeneidad de los criterios empleados y. La evaluación dependía. 1942). superando. R. a saber. debido a la variabilidad de las informacio- nes. ¿Qué actividades educativas se pueden aplicar para lograr esos objetivos? 3. técnicas de repesca y tests. ¿Cómo podemos comprobar si se alcanzan los objetivos? OBJETIVOS (1) ACTIVIDADES ORGANIZACiÓN EVALUACiÓN (2) (3) (4) . plantea la necesidad de una evaluación científica que sirva para perfeccionar la calidad de la educación. Entre 1930 y 1945. ¿Qué objetivos desea conseguir la escuela? 2. d) revisión de los juicios de valoración mediante procedimientos tales como la doble corrección o la media de distintos correctores. de la preparación académica y del talante más o menos exigente del profesor. 4. ¿Cómo pueden organizarse de manera eficaz esas experiencias? 4. Chicago: University of Chicago Press (en lo que se refiere a la evaluación. en la que hace una clara exposición de lo que entiende por currículo. en últi- mo término.1967). LA REFORMA TYLERIANA Algunos consideran a Tyler como el padre de la evaluación educativa. desde el paradig- ma conductista como corriente entonces en boga. ya que fue el primero en dar una visión metódica de la misma. Tyler. en el famoso Eight-féar Study de la Universidad del Estado de Ohio (Smith y Tyler. Evolución del concepto de evaluación educativa 31 La evaluación educativa, dice Tyler (1973: 109), es «aquel proceso que tiene por objeto determinar en qué medida han sido alcanzados los objetivos pre- viamente establecidos». Como consecuencia, precisa las siguientes condiciones de una buena evaluación: a) propuesta clara de objetivos; b) determinación de las situaciones en que se estima que el alumno manifiesta la conducta esperada; c) elección de instrumentos apropiados de evaluación, normalmente tests; d) interpretación de los resultados de las pruebas; e) determinación de la fiabili- dad y objetividad de las medidas. Podría representarse este proceso con el siguiente esquema: Especificación de objetivos COMPARACiÓN Elaboración de pruebas Resultados de las pruebas Es de advertir que Tyler, aunque no lo desarrolla, alude también a que la valoración de objetivos de aprendizaje debe traer como consecuencia una toma de decisiones sobre los aciertos o fracasos de la programación y sobre la posibi- lidad de su perfeccionamiento; aspecto que retornarán, entre otros, Cronbach y Stufflebeam. Para Tyler,el eje de referencia de la evaluación son los objetivos, por lo que proporciona criterios suficientemente claros para su explicitación, aspecto eéste que en 1924 desarrolló Franklin Bobbitt, mejoró Henry Harap en la misma déca- da, y racionalizó luego Tyler. En los años cincuenta, Benjamin Bloom y David Krathwohllo ejemplificaron en los ámbitos cognoscitivo y afectivo, respectiva- mente; y fue perfeccionado por Robert Mager (1977), que introduce en la for- mulación de los objetivos, además del verbo de acción que expresaba la con- ducta, el nivel de perfección deseable de las metas previstas. Se han de tener en cuenta: las necesidades e intereses del alumno, las necesidades de la sociedad, las peculiaridades de las ciencias que se estudian y las propuestas de la Psicolo- gía del Aprendizaje. A pesar de que se han de considerar todos estos elementos, a la hora de proponer los objetivos educativos, se suele elegir como punto de partida prefe- rente alguno de ellos. Así, Tylerse plantea la siguiente disyuntiva: ¿Laescuela ha de servir para que los jóvenes se adapten a la sociedad o, por el contrario, para que el educando desarrolle su propia individualidad interaccionando con el 32 La evaluación de aprendizajes entorno? La respuesta condiciona la selección de objetivos y, por tanto, del refe- rente. Hay que señalar que Tyler,lo mismo que sus coetáneos, está influido por Dewey, quien considera que la escuela debe perseguir el desarrollo individual, teniendo en cuenta, no obstante, que el proceso educativo es un proceso socia- lizador y, por ello, sigue determinadas reglas sociales. El niño aprende por su relación con el entorno, y es allí donde recoge las herencias culturales, pero éstas no son tan fuertes como para determinar la personalidad del alumno. Las reformas tylerianas no se aplicarán de un modo inmediato (a España lle- gan con la Ley General de 1970). En la década de los cincuenta, período que Stufflebeam (Stufflebeam y Shinkfield, 1987) llama «época de la inocencia» o de la <<irresponsabilidadsocial» por el despilfarro consumista y las grandes inversio- nes militares que contrastan con la miseria de las zonas rurales, se experimenta una expansión educativa incontrolada: así se promocionan en educación nue- vos tipos de instituciones que proporcionan un amplio abanico de servicios educativos de toda índole, desde la educación para la salud mental y física hasta la técnico-comercial. Sin embargo, la aportación de la evaluación a la mejora de la calidad de la enseñanza y de los servicios educativos es escasa, debido sobre todo a la falta de referentes adecuados. Se escribe de evaluación, pero estas dis- cusiones apenas tienen influencia en el perfeccionamiento de la labor instruc- ciona!. Las propuestas «tylerianas» se desarrollarán posteriormente. En este sentido se ha de interpretar la aparición de la «Enseñanza Programada» de Skinner y Crowder (Fernández de Castro, 1973), en la que el alumno se va autoevaluando a medida que va obteniendo éxito en el desarrollo de los programas. En la mis- ma línea profundizan Hilda Taba (1974) y Popham y Baker (1970). EL PERFECCIONAMIENTO DE LA ACTIVIDAD 5. EVALUATIVA: LA TOMA DE DECISIONES A principios de los años sesenta, resultaba muy llamativo el divorcio entre las acciones del proceso instructivo y los referentes que servían para valorado. La crisis económica obligaba a cuestionar muy seriamente la rentabilidad de las inversiones educativas, lo que provocó la proyección de la eficacia de esquemas de evaluación empresariales al mundo educativo por parte de autores como Cronbach, Suchman, Scriven, etc. Esta visión crítica, junto al «síndrome Sputnik», condujeron, en 1965, a esta- blecer en Estados Unidos el Acta de la Educación Elemental y Secundaria (ESEA)ya crear el National Study Comitte on Evaluation. Tomaban definitiva- mente cuerpo nuevas conceptualizaciones al establecer una evaluación que no sólo pretende constatar el rendimiento del alumno relacionando los resultados con los objetivos, sino que introduce ya explícitamente la toma de decisiones Evolución del concepto de evaluación educativa 33 en relación no solamente con el aprendiz, también con los programas. La evalua- ción pasa de ser externa a considerarse como parte del mismo proceso educativo. Ya es patente la formulación de una teoría explícita sobre la evaluación en el ámbito propiamente educativo, con referencias al origen y finalidades instructi- vas según diversas concepciones ideológicas. Cronbach (1963, 1971) Y Cronbach y Snow (1969) hacen una crítica de las evaluaciones al uso por su carencia de relevancia y utilidad. Defienden que la eva- luación, además de basarse en objetivos explícitos, debe ser principalmente una ayuda para que los educadores tomen decisiones acerca de cómo educar, desta- cando y elaborando lo que en Tylerhabía quedado como mera sugerencia. Laeva- luación, según Cronbach (1963), es la recopilación y uso de información a fin de adoptar decisiones en cuanto a los programas educativos. Introduce, así, frente al uso tradicional de la evaluación fmal o del producto, cuya decisión única era la promoción o repetición de curso de los alumnos, el uso de la evaluación del pro- ceso, enriqueciéndola con nuevos tipos de decisiones: a) decisiones sobre la mejora de la metodología: estrategias y materiales de instrucción; b) sobre el alumno: necesidades, selección, promoción, agrupación, progresos, deficiencias, etc.; c) sobre la calidad del sistema escolar: profesores, organización, etc. Suchman (1967) profundiza en la convicción de que la evaluación debe basarse en datos objetivos que sean analizados con metodología científica, mati- zando que la investigación científica es preferentemente teórica y; en cambio, la investigación evaluativa es siempre aplicada. Su principal propósito es descubrir la efectividad, éxito o fracaso, de un programa al compararlo con los objetivos propuestos y; así, trazar las líneas de su posible redefinición. Esta investigación evaluativa, para Suchman, debe tener en cuenta: a) la naturaleza del destinatario del objetivo y la del propio objetivo; b) el tiempo necesario para que se realice el cambio deseado; c) el conocimiento de si los resultados esperados son dispersos o concentrados; d) los métodos que han de emplearse para alcanzar los objetivos. Suchman, además, aboga por defender también los evaluadores externos, dado que los profesores, al estar muy implicados en los procesos instrucciona- les, pueden tergivesar la evaluación. Metfessel y Michael (1967) se sitúan dentro del enfoque «tyleriano», pero sin olvidar la consideración de la toma de decisiones de Cronbach. Su aporta- ción se reduce a estructurar un modelo evaluativo en etapas, dirigidas por un evaluador externo pero con la participación del propio profesor. En esas etapas se articulan una serie de elementos que empiezan a considerarse consustancia- les a la evaluación: la formulación de objetivos, la selección de instrumentos de evaluación, el análisis de las informaciones recogidas y las recomendaciones sobre posibles cambios en los programas. Scriven (1967, 1974, 1975 Y 1983) adelanta los planteamientos de una eva- luación que aminora la importancia de los objetivos y la desplaza hacia las nece- 34 La evaluación de aprendizajes sidades educativas. Esta innovación aparecerá con más fuerza más tarde como uno de los enfoques de la evaluación cualitativa. Scriven pasó a la historia de la educación por haber sido el primero en formular la distinción entre evaluación «sumativa»y «formativa» (cap. 15). Los resultados obtenidos en una evaluación deben considerarse buenos o malos, no sólo de acuerdo con la consecución de los objetivos que se preten- den, lo que da lugar a la evaluación final o «sumativa», que hace un juicio de valor sobre los efectos de la enseñanza en e! alumno; también según las necesi- dades del alumno, es decir, lo que merezca la pena evaluar, lo que da lugar a la evaluación «formativ3.»,que recae, con intención de mejorarlos, sobre la metas, contenidos, procesos, procedimientos, actitudes, etc., tanto del profesor como del alumno. Owens (1971 y 1973) YWolf (1974 y 1975) desarrollan el llamado método «contrapuesto», que intenta iluminar los aspectos más importantes de un pro- grama siguiendo un proceso dialéctico en e! que dos grupos de evaluadores, con referentes distintos, investigan los pros y los contras para contraponerlos. Este enfoque pretende ser más eficaz para identificar objetivos originalmente no previstos y para perfeccionar la toma de decisiones en el campo de la educa- ción. Stufflebeam (1967) Y Shinkfield (1985) consideran que la evaluación es víc- tima de una grave enfermedad causada por el escepticismo, la ausencia de directrices, la pésima calidad de la práctica evaluativa, etc. Para superar este estado de cosas, es necesario reformar el concepto de eva- luación y todo lo que ello implica, con objeto de definir el qué, e! cómo y e! para qué se han de valorar los programas educativos. Así, Stufflebeam y Shink- field (1987: 163) consideran que «la evaluación es un proceso para identificar, obtener y proporcionar información útil y descriptiva acerca del valor y el mérito de las metas, la planificación, la realización y el impacto de un objeto determinado, con elfin de servir de guía para la toma de decisiones, solucio- nar los problemas de responsabilidad y la comprensión de los fenómenos implicados», todo ello resumido en el acrónimo CIPP: evaluación del contexto, del «input», de! proceso y del producto. Pero añaden que en una evaluación interna se corre el riesgo de realizar una falsación de! programa que se quiere evaluar. Por ello, indican que es necesario valorar también la propia evaluación, es decir, desarrollar una «metaevaluación con normas estandarizadas», de manera que se manifiesten las conclusiones objetivas no sólo de la acción evaluada, sino también de la misma evaluación. Evolución del concepto de evaluación educativa 35 LOS EVALUADO RES DE LA «NUEVA OLA» 6. En 1972, McDonald y Parlett convocan en Inglaterra una «Conferencia de Evalua- dores» que se celebra en Cambridge y a la que asisten, entre otros, Hamilton y Stake. Al término de la conferencia, se hizo pública una declaración de intencio- nes que refleja el comienzo de la corriente de la evaluación «cualitativa»y la pos- tura de los que Stenhouse (1984) llama evaluadores de la «nueva ola». Todos estos autores se hallan cerca del paradigma cognitivo. Esto supone que para evaluar hay que hacer un análisis de las estrategias cognitivas, así como del empleo de técni- cas proyectivas que pongan de manifiesto los estados mentales del alumno. Todas las teorías que surgen en este momento coinciden en señalar la fragili- dad del modelo de objetivos, ya que reduce la evaluación del proceso instructi- vo a términos maniqueos de éxito o fracaso, sin llegar a comprender toda la riqueza del mismo. Ante la excesiva parcelación de objetivos y fijación de proce- sos de enseñanza-aprendizaje, acentúan la libertad intrínseca del sujeto e inten- tan elevar esta visión a paradigma que sirva para sustentar una práctica evalua- dora, en el marco de una educación cuya finalidad no siempre es conseguir productos de uso. Hagamos, dicen, una escuela en la que se equilibren dos mundos, el de la eficacia y el de la libertad. Este posicionamiento, que evolucio- na buscando un nuevo sentido de la evaluación desde perspectivas cognitivas y sociológicas, es sólo una manifestación de una polémica mucho más amplia entre dos paradigmas, el conductista y el cognitivo. McDonald (1971 y 1973) es el autor del llamado enfoque «halística», en el que todas las informaciones relativas al currículo son igualmente importantes. No se puede evaluar teniendo sólo en cuenta determinados datos, aunque éstos sean tan importantes como los rendimientos de los alumnos. La tarea del evaluador, que es externo, consiste en obtener y comunicar esas amplias y varia- das informaciones. Serán los agentes que reciben esa información, profesores y autoridades educativas, quienes tomen las decisiones correspondientes. Parlett (1972) y Hamilton (1977) critican también el modelo de una evalua- ción por objetivos, ya que se muestra inadecuado para comprender la compleji- dad educativa y, en consecuencia, insuficiente para una toma de decisiones. Proponen la llamada evaluación «iluminativa», que también tiene en cuenta la totalidad del currículo, es decir, su fundamentación, evolución, realizaciones, dificultades y, además, sus ventajas e inconvenientes en las más diversas situa- ciones escolares. Aunque estiman que el fin de la evaluación es tomar decisio- nes, las tareas del evaluador, como ya había indicado McDonald, se deben redu- cir fundamentalmente a recoger información neutral para iluminar las dificultades del currículo. Para ello se usan la observación, las encuestas en for- ma de entrevistas y cuestionarios, el análisis de documentos, etc. La toma de decisiones se somete a la participación democrática de todos los afectados, ya que la evaluación ha de tener en cuenta los intereses de todos aquellos a quie- nes afecta el currículo. 36 La evaluación de aprendizajes Stake (1967, 1975 Y 1976), corno reacción a la noción «tyleriana»de la evalua- ción preocupada por la fiabilidad de las puntuaciones y la validez de las prediccio- nes, evaluación que llama <preordenada», y desde la declaración de intenciones de la citada conferencia de Cambridge, aspira a una evaluación orientada a la naturaleza compleja y dinámica de la educación que establezca una diferenciación entre datos relativos a antecedentes, actividades en clase y resultados o efectos. Considera corno antecedente cualquier condición previa al proceso de enseñan- za-aprendizaje que pueda estar relacionada con los resultados. Las actividades o transacciones son las diversas interacciones entre profesor y alumno, alumno y alumno, familiar y orientador, etc.; la sucesión, en suma, de compromisos que supone el proceso educativo. Los resultados, corno fuente de información, se refieren a las mediciones del influjo de la instrucción sobre profesores, asesores, etc., y, por supuesto, sobre los alumnos. El siguiente esquema simboliza este modelo, completado a partir del que presenta Stenhouse (1987): o realmente han (Las yoperaciones observadas Operaciones e(5deseados ecomo deseados :::l acontecido) planeadas oQ) verdaderamente Antecedentes observados Antecedentes Resultados Relación (Las (Los empírica condiciones se han existen) resultados obtenido) que que esea peraciones Operaciones actividades o, ro "O"O Q) que pasen) como 'uro <..> actividades Relación empírica elación egar) stir) lógica ue ógica Todo ello da lugar a la evaluación «respondente», cuya finalidad es ayudar al «cliente»,al alumno, a superar tanto sus problemas corno los defectos del currícu- lo establecido para solucionárselos; lo que exige que el evaluador responda a las demandas que se le presentan negociando, mediante una comunicación continua con el «cliente», lo que debe hacerse; Amal, del Rincón y Latorre (1992) desarrollan ampliamente el modelo de Stake. Stenhouse recoge las recomendaciones de la conferencia de Cambridge sobre la evaluación en el Humaníty Currículum Project (Stenhouse, 1981); sin confiesa que estos métodos cualitativos son sutiles y requieren «arte». profesores y alumnos. interesantes por su rentabilidad. Afirma que la pericia. c) Hay que considerar los problemas que el currículo plantea en la práctica. es el arte de la per- cepción que supone la comprensión de las características de una realidad com- pleja. e) Es necesario estimar el valor de un currículo respecto de las innovacio- nes y cambios deseados en la educación en general o en una escuela en particular (criterio de elucidación).. también en educación. Eisner (1988) que. por ejemplo. por otro lado. propone sustituir. motivación. o al menos complementar. también literarias. la compleja realidad educativa y sus consecuencias. es ser capaz de distinguir las sutilezas de las diversas denominaciones y «añadas» a partir de datos gustativos. La crítica. cada una adecuada para una determinada situación. y esto sólo puede determinarse mediante la observación empírica de lo que ocurre en el aula (criterio de significado). El mismo Eisner. también pretende revelar a otros menos iniciados lo que él ha descu- bierto. está en contra de la distinción entre evaluador externo y el que desa- rrolla el currículo. . en relación con el per- feccionamiento de capacidades. etc. critica la falta de clari- dad de sus criterios para la valoración del currículo. visuales y cenestésicos. porque los únicos que pueden evaluado son los mismos pro- tagonistas. y también. antes de ser profesor de educación. por lo que propone la con- sideración de los siguientes aspectos: a) La evaluación de un currículo consiste más en aclarar su significado que en calcular su valor.». d) El evaluador debe poner en relación el potencial y el interés del currículo con las condiciones contextuales y ambientales de la realidad práctica de la escuela o del aula. ade- más. etc. resulta compleja la verificación de sus conclusiones. aunque reconoce sentirse deudor de las aportaciones de los evaluadores de la «nueva ola». el «para qué . La crítica pericial que propone Eisner implica hacer una descripción vívida y deta- llada de la realidad educativa que se quiere evaluar por medio de representacio- nes no sólo numéricas. sin embar- go. en la medida en que sean susceptibles de repetirse en diferentes situaciones o porque adquieran especial rele- vancia (criterio de interés). ser perito en vinos. Ello permite anticipar las consecuencias de las deci- siones que se tomen en un ámbito determinado (criterio de condiciona- lidad). la evaluación basada en planteamientos «científicos» por informes educativos periciales inspirados en las prácticas de los críticos de arte. es el arte de la comunicación. visuales estáticas o dinámicas.. en nuestro caso. fue pintor. b) Es necesario estudiar su potencial.. (criterio de potencial). el crítico es un perito que no se contenta con comprender las cualidades de un objeto o suceso.Evolución del concepto de evaluación educativa 37 embargo. es uno de los enfoques que sigue influyendo en las evaluaciones docentes. cuyas fases. como la de Watson. reduciendo los matices. con los paradigmas con- ductista y cognitivo. de comprobar la presencia o ausencia de aquellas conductas o de aquel conjunto de repertorios conductuales precisados en objetivos opera- tivos que vienen exigidos por la sociedad.es decir análisis del comporta- miento [B=behavior]. por mucho que sus defensores manifiesten en teoría que este tipo de evaluación no tenga que reducirse a una clasificación de alumnos por su capaci- tación" sino que. Lo mental es cualitati- vamente similar a la conducta manifestada. es decir. han inspirado la mayoría de los modelos evaluativos. en nuestro caso de los aprendizajes del alumno. sus antecedentes [A]y sus consecuentes [C]). de la com- . c) manipulación experimental de una condición que está relacionada funcionalmente con la conducta. La evaluación conductual se realiza básicamente a partir de una valoración criterial (cap. 15). la evaluación se basa en el estudio de la conducta observable que puede ser comprobada por observadores independientes. y los criterios se toman de la fuente sociológica del currículo.1. LA PSICOLOGíA DEL APRENDIZAJE Desde Tylerhasta nuestros días ha habido múltiples aportaciones de la Psicolo- gía del aprendizaje al campo de la evaluación educativa. 7.38 La evaluación de aprendizajes LA EVALUACiÓN EDUCATIVA DESDE 7. Enfoquecondudual Prescindiendo de posturas extremas. se puede y debe llegar al análisis y a la valoración de la metodología empleada. la obtención de la información sobre esa conducta consis- te en un análisis (coincide con el modelo A-B-C. que casi nunca entra- ron en el ámbito educativo. sólo a partir de la valoración de rendimientos. por tanto. 13). d) observación y registro posterior de los cambios en el comportamiento. Como la conducta queda definida por el binomio estímulo-respuesta. por consiguiente. El enfoque conductual desemboca fundamentalmente en la evaluación cuantitativa. y los factores conduc- tuales -respuestas-. según Peterson (1968). son: a) observación sistemática de la conducta. aportaciones que se pueden relacionar también. que históricamente se redujo de hecho a la medida del éxito o fra- caso de los resultados del aprendizaje con valoraciones criteriales sumativas (cap. Se trata. como hemos visto. por la relación entre los factores ambientales -estimulos. que. b) observación sistemática de la condición- estímulo que precede al comportamiento. Considera que los comportamientos de un sujeto son fundamentalmente una consecuencia de lo que aprende. de la organización del centro.Evolución del concepto de evaluación educativa 39 petencia del profesor. del sistema tutorial y. para establecer a partir de los mismos los avances conseguidos y la posterior toma de decisiones. para valorar la modificación de las estructuras previas y la forma en que se ha integrado la nueva información. Esta forma de evaluar (Greeno. Antes. Posner (1979) también se valió de las redes semánticas para explorar lo que sabían sus alumnos antes y después de un proceso de enseñanza-aprendizaje. que consideran que la evaluación ha de tener en cuenta el modo en que los sujetos representan e! conocimiento en sus estructuras previas. que constituirán la base para la valoración de los nuevos aprendizajes. que se reduce a proponer exámenes y a dar notas repitiendo como . para quien la evaluación no sólo ha de tener en cuenta las conductas observa- bles. heredera del racionalismo academicista europeo. Estas técnicas son las redes semánticas que sirven de guía para formular las pruebas de evaluación. de todos los elementos del proceso de instrucción. y después. sino también las capacidades implícitas en los objetivos propuestos de acuerdo con las características individuales de cada aprendiz. Enfoquecognitivo 7. en la línea de Posner. Novaky Gowin (1988) utilizan para evaluar aprendi- zajes los mapas conceptuales mediante la comparación entre el mapa conceptual elaborado por e! alumno y un «modelo» establecido previamente por e! profesor. La conclusión más importante que se puede obtener a partir de este enfo- que es la necesidad de evaluar teniendo como referente los conocimientos pre- vios del alumno. Un avance de este planteamiento se produce con el enfoque neoconductual. la posibilidad de comparar los mapas con- ceptuales de! alumno antes y después del proceso de instrucción. 1980) viene determinada por la necesidad de utilizar en la evaluación las mismas técnicas de representación que los profe- sores usan para enseñar y los alumnos para aprender conceptos. en general. también por Gagné y Briggs (1976). Sin contar la práctica evaluativa acrítica. métodos y destrezas propios de su proceso de aprendizaje. También sugieren. representado sobre todo por Gagné (1970).2. En una línea muy parecida. para comprobar los conocimientos previos con respecto a los objetivos nuevos que se iban a transmitir. LA PRÁCTICA EVALUATIVA EN LA ACTUALIDAD 8. Este enfoque está representado por Ausubel (1976) y también por Ausubel y Sullivan (1980). 8. entre cuyas características se pueden señalar las siguientes: a) Se subraya la importancia de los procesos sobre los productos del apren- dizaje. los distintos inte- reses de los sectores implicados mediante un tratamiento democrático de la información. desearía más una calificación que una crítica". teniendo en cuenta el punto de vista de los nativos). sino más bien cómo lo está aprendiendo. algunos de los cuales han sido objeto de estudio en el presente capítulo. En el caso contrario. etc. Los defensores de la evaluación cualitativa ven también en la atribución de números a las realidades edu- . Lo decisivo no es lo que el alumno aprende. encuestas en forma de entrevis- tas y cuestionarios.40 La evaluación de aprendizajes profesores el modelo que han soportado como alumnos. alumnos y demás agentes educativos. es decir. b) Se recoge también como función principal de la evaluación el proporcio- nar una información holística o global. teniendo en cuenta las aportaciones de pro- fesores. condiciones. rendimientos. se pueden citar los matices que introducen tres nuevos enfoques. que recoge múltiples informaciones a través de escalas de observación y con- trol. No cabe el uso de las típicas pruebas objetivas o de ensayo. 15). Esta concepción del proceso instruccional en que el alumno es el protagonista. de una cultura. en general. Lo que late debajo de este texto es la vieja polémica entre el uso de métodos cuantitativos y cualitativos. y. sino más bien en un informe (Stenhouse. informes de observadores externos. Podríamos decir que cada una de esas aproximaciones evaluativas mantiene hoy lo que de más relevante y práctico había en ellas. nos encontramos con que actualmente aún subsisten en una extraña convivencia muchos de los enfo- ques o modos de evaluar conductuales.neoconductuales y cognitivos que han ido apareciendo a lo largo de la historia de la educación. 1987: 140): «Siyo como estudiante me fío del juicio de mi profesor. análisis de tareas. estrategias y ritmos de aprendizaje. estudio de casos. relación entre esfuerzo y resultados. deseo más bien una crítica que una califi- cación. estilos. La evaluación cualitativa no queda codificada en una calificación al estilo tradicional. justifica la predilección por el uso de la eva- luación formativa (cap. Como novedad relativa en la actualidad. c) La evaluación es básicamente personalizada y se hace de acuerdo con los intereses y aptitudes de cada alumno. Se usan los presupuestos metodo- lógicos de la investigación etnográfica (descripción de un modo de vida. y de ahí la necesidad de evaluar todos aquellos factores que afectan al proceso instructivo: presupuestos. etc.1.. La evaluacióncualitativa Unas fuertes influencias sociológicas con matices ideológicos y orientaciones cognitivistas dan lugar a la evaluación cualitativa. Se podría resumir. 1947 Y 1952. como es sabido. es decir. 1985). los elementos físicos. la teoría de la construcción de tests. Ocurre que consideran que los currículos deben ser abiertos. ya Lewin. Modelo Salvia-Hughes (1990). 1990) Ylas de Elliott (1990. sociales y personales del contexto curricular. y enseña lo que evalúas». iniciativas ambas para poner en marcha y evaluar los pro- yectos de innovación educativa.1993).Evolución del concepto de evaluación educativa 41 cativas una fuente de engaño (Santos Guerra. Empezó a emplearse en Estados Unidos por los mismos años en que en Europa aparecieron los evaluadores de la «nueva ola». «insuficiente». como los iniciadores de la «investigación en la acción»). como confiesan algunos de sus defensores (Tucker. las aportaciones de la psicología cognitiva y de la psicología social. que puede defi- nirse como el proceso por el que los prácticos -profesores. La evaluación basada en el currículo 8. con el fin de dirigir. Estas corrientes. cita a Collier. también los referentes de la evaluación. corregir y evaluar las consecuencias de sus decisiones. Como todos estos modelos. Ward y Tikunoff. . Actualmente se oye también la expresión «evaluación curriculaf». tan repetitivos en sus plantea- mientos. (1991) porque integra las aportaciones de muchos de ellos. Ambos toman el currículo como referente de la evaluación educativa. Modelo Blankenship (1985). en consecuencia. por tanto. por otro lado. han sido objeto de diversas matizaciones. deben variar de un centro a otro y. una intervención para superar esas deficiencias. sobre todo. 15). los tests de rendimiento. Neira (2002) señala como de especial interés las observaciones de Carr (1989. este enfoque en el aforismo: «Evalúa lo que enseñas. R.2. que nos vemos obligados a remitimos a las referencias bibliográficas: Modelo Gickling-Thompson (1985). aunque. 1988. En este modelo se destaca que los rendimientos del alumno deben analizarse teniendo en cuenta al propio alumno y su estilo de aprendizaje y. siguiendo las exigencias de la evaluación formativa (cap. 1946. pretenden resol- ver sus problemas de un modo científico. Esta metodología resucita en los años ochen- ta con la corriente denominada de «animación pedagógica» (Barbier. 1988. 1988). defiende una evaluación formativa (cap. La evaluación cualitativa aparece aplicada de un modo claro en el modelo de «investigación-acción» (Kemmis. a no ser su preocupación por evaluar los rendimientos insuficientes y proponer. aunque es difícil determinar el grado de influencia mutua y en qué sentido fue. 1977) y en los proyectos de «investigación cooperativa» (Cabrera. poco hay de nuevo en ella. 1982). 1945. Son tantos los modelos que han aparecido bajo la eti- queta de «evaluación curricular» y. etc. Modelo Howell-Morehead (1987). Espín y Rodríguez. etc. es de advertir que el término «números» lo refieren también a los eufemismos de «apto». 15) e intenta integrar conceptualizaciones y prácticas tan diversas como el análisis conductual. Citamos aparte el Modelo de Carrascosa el al. En los últimos 20 años ha tenido lugar un enorme desarrollo de la tecnología psicométrica. es que tanto la investigación básica como la aplicada en el campo de la medición educativa gozan en la actualidad de una excelente salud. puesto que no siempre ha sido así. si se desea comparar a dos personas en una variable. permitiendo una medición ajustada al sujeto. ¿cuáles son los problemas candentes y los focos de debate actuales que ocupan a investigadores y profesionales? Veámos- lo. pero. Esta propiedad. 1997). tales como los de la American Educational Research Association (AERA)o la National Council on Measurement in Education (NeME). mediante la adaptación de la prueba a las características de la persona evaluada. en conjunción con los potentes ordenadores personales. especialmente en nuestro país. 1997a. yendo de lo más general a lo más específico. En líneas generales.Van der Linden. que ha impulsado y potenciado la construcción y análisis de los ins- trumentos de medida en las ciencias sociales. Nótese que. se venían utilizando algunos remedios estadísticos que funcionaban razo- nablemente bien en la práctica. Valiéndose de amplios bancos. los modelos de la TRl generan mediciones invariantes respecto de las pruebas utilizadas para obte- nedas.3. No está de más subrayar este interés actual por el rigor y la objetividad en la medición educativa. con la aparición de la familiade modelos englobados bajo la denominación genéri- ca de Teoría de Respuesta a los Ítems (Hambleton. 1989). para constatado. 1991. La evaluaciónadaptativa En este apartado pretendemos apuntar las tendencias que se detectan actual- mente en la investigación y el desarrollo de la evaluación educativa. Este nuevo enfoque ha permitido dar solución a un viejo problema central que no encontraba una salida adecuada dentro del marco de la aproximación clásica. Esta importante característica liberaliza el uso de los instrumentos de eva- luación.42 Laevaluaciónde aprendizajes 8. dentro del acercamiento clásico. porque va a teñir todo lo demás. se aplica a cada persona el . Lord. Lo primero que cabría señalar. si bien es verdad que. Esto será posible debido a que los modelos de la TRl expresan en la misma métrica puntuaciones obtenidas por medio de pruebas distintas. Swaminathan y Rogers. Medir con precisión para enseñar con rigor podría ser el lema de los tiempos que corren. lo cual era imposible bajo la óptica clásica. y mediante los TAl.Muñiz. a saber: la Teoría de Respuesta a los Ítems (TRl) va a permitir evaluar a las personas en una determinada variable sin necesidad de utilizar la misma prueba para todas ellas. que recogen la elaboración continua de ítems para reponedos y actualizados. va a dar lugar a la revolución tecnológica más importante de los últimos años en el campo de la medición educativa: los TestsAdaptativos Informatizados (TAl). para sortear este escollo. Ese sería el escenario. ha de aplicárseles el mismo test. se asume que sin una medición educativa rigurosa no puede haber una educación eficiente. Expresado en pocas palabras. Basta echar una ojeada a lo que se publica en las revistas internacionales especializadas o a los congresos anua- les más representativos. la educación incluida (Linn. 1980. Muñiz. Cizek. mediante la función de información. de todo lo rela- cionado con la ética y deontología de la evaluación educativa. Narayana y Setiadi. a la vez que constituyen el para- digma dominante en la medición educativa. al convertirse éstos en la unidad de medición y análisis en detrimento del test. 2003). Osterlind. Slater. dada la relevancia que ello puede tener para la vida académica y profesional de muchas personas (Berk. por ejemplo. existen otros análisis y posiciona- mientas que pugnan por abrirse paso. amén de otros colectivos relacionados con la educación. 2000. Holland y Wai- ner. la construcción automática de ítems y tests por ordenador (Hambleton. Glaser. 1978). Otro campo clásico que ha sido muy potenciado por la irrupción de la TRl ha sido la construcción de los ítems (Haladyna. Renom. tanto en la precisión de las mediciones como en el tiempo invertido. Un campo clásico de la medición educativa como son los TestsReferidos al Criterio (Berk. y es que de poco vale una tecnología de evaluación poderosa sin las riendas ético-deontológicas. 1993. El uso de los TAl plantea todo un conjunto de problemas técnicos nuevos sobre los que trabajan intensamente los especialistas en la actualidad. Los métodos para establecer los puntos de corte de forma rigurosa siguen generando en la actualidad abundantes investigaciones. y la propia administración debe- rían ser conscientes de la necesidad de una buena preparación en la tecnología de la evaluación. Muñiz. 1994. por lo que se minimizan los aspectos frustrantes que lleva anejos toda evaluación. en vez de ofrecer un valor global como hacía el coefi- ciente de fiabilidad clásico. Si bien las líneas y temas señalados ocupan las energías de la mayoría de investigadores y profesionales en la actualidad. ha cobrado un nuevo impulso gracias a la TRl. 2003. incluso en la satisfacción de los examinados. No hay que olvidar que se evalúa a personas y sobre ellas se toman decisiones. 1997. 1990). 1998). la cual posibilita un estableci- miento más riguroso de los puntos de corte. 1984. Muñiz. Wainer. o los nuevos métodos para evaluar el sesgo de los instrumentos de medida. lo que redundaría en beneficios para el proceso educativo y . que permite calcular la precisión de las pruebas para los distintos nive- les de la variable medida. 1996. Popham. 1996. Cabría citar. que de este modo se enfrentan a pruebas acordes con su nivel. en la actualidad rebautizados como Funcionamiento Diferencial de los Ítems (Camilli y Shepard. Las ventajas que esto conlleva son enormes. 1993). 1996. Asimismo. este tipo de evaluación se está imponiendo rápidamente por las ventajas que ofrece tanto para el examina- dor como para los examinados (Olea. 1963. Van der Linden y Glass. 1986. 1996) es otra línea en la que se trabaja activamente. Los profesores. Es el caso. En algunos países. sobre todo en lo relativo a la estimación de la fiabilidad. 1994. de modo que minimicen los erro- res al clasificar a las personas según dominen o no el criterio/dominio evaluado. como queda bien patente en la propia denomi- nación de la TRl. 1996.Evolución del concepto de evaluación educativa 43 test que mejor se adapta a sus características. Fidalgo. la nueva forma de estimar la fiabilidad mediante la Función de Infor- mación. 1998. por ejemplo. de modo que toda precaución en este sentido es poca. 1999. Ponsoda y Prieto. González-Romá y Espejo. para acercar la evaluación lo más posible a la situación real que se pretende medir. 1988). pues ello sacaría la validez del ámbito técnico y científico donde se encuentra para alojada en el más resbaladiZO de los valores. Oster- lind. En realidad. 1990). se trata de eva- luar a través de ejecuciones concretas del examinado. hoy por hoy. son muy interesantes las directri- ces elaboradas por la federación de profesores americanos y otras asociaciones sobre las competencias requeridas por los profesores para evaluar a los alum- nos (American Federation of Teachers. 1998. como el uso de los ítems de elección de respuesta frente a los de respuesta construida (Hakel. pero su implementación en la práctica conlleva numerosos problemas aún no bien resueltos. En este sentido. 1993. De entrada. En la evaluación de rendimientos. en vez de utilizar pruebas estandarizadas. no hay evi- dencia empírica de que estas alternativas ofrezcan mediciones más fiables y váli- das que las aportadas por las evaluaciones convencionales estandarizadas. Al hilo de este planteamiento de la eva- luación auténtica. Mislevyy Bejar. 1998). pues la mayoría de los 21:>U- 50S se producen más por la mala práctica que por fallos en las propiedades psi- cométricas de las pruebas (Frederiksen. dos formas de evaluación en esta línea auténtica serían la evaluación de rendimientos (Performance Assessment) y el portafolio. y éstas y otras propiedades psicométricas son irrenunciables. En el caso del portafolio.44 La evaluación de aprendizajes para los alumnos evaluados. relativa a si el estudio de la validez debe o no de incluir las consecuencias del uso de los tests. esto no es nada nuevo. 1996. como si otras formas de evaluar no lo fuesen. pero el que esto sea así no parece avalar que haya que incluir las consecuencias del uso de los tests en los análisis de validez. la idea es que el alumno presente un portafolio o carpeta en la que incluya todos los trabajos que considere oportu- nos para demostrar su preparación en un determinado campo. 1999. Finalmente. Prieto y Delgado. pues técnicas como el muesfreo de conductas reales en el puesto de trabajo o la utilización de centros de evaluación en los que se simulan las condiciones reales son bien conocidos y utilizados en psicología industrial y del trabajo des- de hace mucho tiempo. como es la estimación de la fiabilidad de las evaluaciones o su eleva- do coste en tiempo y dinero. 2003). Nadie duda de que vigilar el uso adecuado de los tests es de suma importancia. 1990). o se retornan otras latentes como la surgida en torno a la validez consecuencial (Messick. Hakel. 1998. no se puede pasar por alto el «chisposo» debate surgido en tor- no a lo que ha dado en llamarse un tanto pretenciosamente evaluación autén- tica (Bravo y Fernández del Valle. Los partidarios de este enfoque argumen- tan a favor de una evaluación alejada de situaciones estandarizadas en cuanto a formato de respuesta de las pruebas y otros aspectos. 2003. El debate sigue abierto y. En el ámbito educativo. abogando por dar un mayor realismo al proceso evaluativo. la idea de introducir realismo en el proceso evaluativo parece razonable. 2000. se reabren viejas polémicas. hágase la evaluación en nombre del principio que se haga. así como las directrices para el uso adecuado de los tests en ámbitos educativos elaboradas por varias organiza- ciones educativas Goint Committee on Testing Practices. 1989). Mezclar . Powell. 2000. LA EVALUACiÓN EN EL SISTEMA EDUCATIVO ESPAÑOL 9. la evaluación deja de considerarse. introduciendo cambios radicales y novedosos en diferentes aspectos. pues. Además de estas razones. A partir de dicha Ley. . Es. lo más exacto posi- ble. la eval\lación se concibe como una actividad sistemática. sobre losfactores personales y ambienta- les que en éste inciden. como una con- tinua realización de exámenes y como un mero procedimiento selectivo. y ha de servir para establecer tanto dicha promoción como la recuperación o la repetición. ha de servir para valorar tanto su formación como su capacidad de aprendi- zaje posterior. Es más. sino de formación integral del alumno: De acuerdo con esto. orientación y pro- moción. según la Orden de 16 de noviembre de 1970. Los interesados podrán encontrar en Álvarez Méndez (1994) una interesante exploración diacrónica documentada de la evaluación escolar a lo largo de los sistemas educativos españoles. en fechas posteriores. lo que pone de manifiesto la gran actividad investigadora que está teniendo lugar en este ámbito con tan fuertes implicaciones sociales. Otros muchos podrían citarse.nalidad y una información ajustada sobre el proceso educativo. como parte de la propia actividad educativa y mediante un seguimiento continuo del alumno. Desde este momento. 2001. 2000). la utilización de aplicaciones informáticas enrique- cidas con medios audiovisuales e internet está potenciando de manera insospe- chada la utilización de bancos de pruebas objetivas de estructuras varias (Pars- hall y Balizet. hace que en el sis~ema educativo español pueda hablarse con propiedad de eva- luación. integrada en el procesp educativo. pues. Aquí es obligado citar la Ley General de Educación de 4 de agosto de 1970 ya que. del alumno en todos los aspectos de su perso. cuya finalidf1d es el mejoramiento del mismo mediante un conocimiento. Davey y pashley. Sus funciones han de ser de diagnóstico. pronóstico. Zenisky y Sireci.la educación general se considera no ya como un pro- ceso selectivo. apenas ha habido modificaciones rele- vantes en lo que se refiere a la evaluación del rendimiento educativo.Evolución del concepto de evaluación educativa 45 ambos tipos de problemas no parece que vaya a ser beneficioso ni para la vali- dez ni para la mejora del uso de los tests. como un apéndice del proceso y ajeno a él mismo. parshall. Queden ahí estos apuntes generales sobre algunos de los temas que más aten- ción están recibiendo actualmente en el campo de la medición educativa. ahora cuando la normativa empieza a conside- rar una serie de aspectos referentes a la evaluación: Consiste en una apreciación cualitativa que. por ejemplo. A modo de conclusión El desarrollo y la constitución de las prácticas evaluativas a lo largo de la historia de la educación han supuesto la pervivencia selectiva de una serie de enfoques y modelos. se le suponía una competencia incuestionable para evaluar a sus alumnos. Según la etapa educativa.De hecho. aunque. se amplía el campo a la perso- nalidad. La evaluación era espontánea e interna al aula. como hemos ido viendo en las páginas precedentes. inteligencia.46 La evaluación de aprendizajes Ha de ser hecha primordialmente por el profesor. es decir. no sólo por la intro- ducción de las pruebas objetivas en la escuela.. Fue a partir de Tylercuando la evaluación educativa se estructura y teoriza. primero fueron los exámenes orales y luego se evolucionará hacia los escritos tipo ensayo. y a la vez se introduce la evaluación externa al aula. aunque evaluar seguía siendo comprobar rendimientos. por el hecho de serio. muchos con mayor incidencia en la investigación educativa que en la práctica de la evaluación docente. la evaluación quedará formalmente expresa en los boletines de notas en tres. que ha de tener su peso en la valoración del curso. sin fundamento teórico alguno. es decir. evaluación continua. alejándose así de los aspectos formativos que contenía la Ley. para esta última. que se han ido sucediendo. En un primer período precientífico. se considera también el resultado del examen final previsto en la Ley. ya que al profe- sor. etc. la evaluación. pero se habla también de la autoevaluación del alumno como medio para que éste llegue a conocer su propio proceso de aprendizaje. La preocupación se centraba en desarrollar instrumentos adecuados. Debe llevarse a cabo de modo permanente. la evaluación se siguió asentando en los exámenes tradicionales. sino sobre todo porque. para convertirse en un proceso que tiene por fin determinar en qué medida han sido alcanzados los objetivos. actitudes. en una continua reali- zación de pruebas. y la evaluación continua se convirtió realmente en una continua evaluación. reiterando y superponiendo hasta llegar a la realidad actual. El período de los tests supuso un avance significativo. Sin embargo. a partir del paradigma conductista. en la realidad del aula este concepto de evaluación se fue desvirtuando. cuatro o cinco ocasiones a lo largo del curso. se reducía fundamentalmente a la comprobación del rendimiento esco- lar con objeto de determinar la posible promoción de los alumnos hacia come- tidos diversos. debido entre otras cosas al peso de la tradición. a la . Evolución del concepto de evaluación educativa 47 comprobación seguía una valoración que ponía de manifiesto el grado de cohe- rencia que existía entre los resultados esperados y los obtenidos. Evaluar empe- zaba a ser comprobar resultados para emitir, según unos criterios de referencia, un juicio de valor que se plasmaba en una calificación. En un período posterior de reflexión, en el que se intenta introducir en la escuela la eficacia empresarial, se añade formalmente un nuevo elemento a la evaluación, la toma de decisiones. A partir de ahora, en que la evaluación se consideraba casi definitivamente estructurada, la preocupación se centró en debatir sobre la calidad y cantidad de información necesaria para realizar una adecuada valoración y posterior toma de decisiones. El contenido de las informaciones, sobre todo en el racio- nalismo académico europeo, había re caído restrictivamente sobre los rendi- mientos. Precisamente, el movimiento docimológico se explica como un inten- to de perfeccionar ese academicismo. Durante la euforia conductista, la valoración y toma de decisiones se aplicó a los resultados reflejados en una conducta final observable formulada en forma de objetivo operativo, lo que se superó con las aportaciones neoconductistas aplicándolas también a las capacidades implícitas en los objetivos. Desde la perspectiva del paradigma cognitivo, estos modelos de la pedago- gía por objetivos empiezan pronto a ser considerados insuficientes para sumi- nistrar referencias apropiadas que nos permitan tomar buenas decisiones. Sur- ge así la dialéctica entre la exactitud y la riqueza; es decir, ¿nos interesa más que la evaluación sea exacta o que abunde en matices y consideraciones? La tensión hacia el rigor había llevado a insistir en la objetividad, en el control de las situa- ciones, en la automatización de la corrección, en la reducción de la evaluación a las conductas observables y cuantificables, en la importancia de la fiabilidad de los datos obtenidos, etc.; así surgieron las pruebas objetivas, los tests estandari- zados, la observación mediante sistemas de categorías operativizadas, etc. Otra valoración desde el cognitivismo sobre estos planteamientos la recoge Zabalza (1989) que, en primer lugar, subraya cómo la evaluación no debe ser un hecho puntual; sino un conjunto de pasos que se condicionan mutuamente, se ordenan secuencialmente, son un proceso, actúan de modo integrado y consti- tuyen un sistema. En segundo lugar, la evaluación no se ha de separar del pro- ceso de enseñanza-aprendizaje, dado que no es un apéndice independiente en dicho proceso, sino que forma parte del mismo y tiene un papel específico con respecto al conjunto de componentes que integran la enseñanza como un todo, está en un sistema. En el sistema educativo, la evaluación ha de servir también para recabar y analizar datos respecto de sus elementos relevantes: objetivos, medios que se utilizan, tareas que se llevan a cabo en el aula, relaciones de comunicación que se establecen, organización, e incluso la propia evaluación que se realiza. Y como todo el proceso de enseñanza está orientado a la consecución de deter- 48 La evaluación de aprendizajes minados aprendizajes por parte del alumno, al evaluar éstos, no sólo algún tipo de aprendizaje sino su desarrollo global, debemos valorar por añadidura su efi- cacia como sistema total. De evaluar restrictivamente conductas finales observables de los alumnos se pasa así, desde posiciones cognitivistas, a planteamientos evaluativos globales de cariz cualitativo; en donde la evaluación se entiende más como comprensión profunda e iluminación de las características de los alumnos, teniendo en cuen- ta todas sus formas de representación tanto en los procesos como en los pro- ductos del aprendizaje. Estas exigencias siguen aumentando hasta llegar a solicitar cada vez más información sobre aspectos de la personalidad del alumno, desde la perspectiva de la Psicología cognitiva y, desde la perspectiva sociológica, sobre las circuns- tancias que le rodean; y hasta reclamar una apertura conceptual que dé cabida en la evaluación a resultados no previstos y acontecimientos imprevisibles. Esto es, evaluación más allá de los objetivos y de la realización correcta de una activi- dad (exigencia que tiene sus raíces en la noción vygotskyana del ZDp,citada en el cap. 15), enfocada al tipo de ayuda que el aprendiz necesita. La dificultad de explicitar todo ello para que no quede en una arbitrariedad subjetiva y en estructurado para poder ser interpretado lleva en algunos casos al desaliento y, en definitiva, al abandono de la toma de decisiones externa al alumno. El eva- luador se tendrá que limitar a recoger información de manera neutral para que sean los interesados los que las tomen. Después de tan largo camino, evaluar se reduce a informar. Desde la perspectiva cuantitativa, sin abandonar nunca la posterior toma de decisiones externa, también se sintió la necesidad de ampliar el campo de las informaciones, que se mantuvieron, no obstante, parceladas y operativizadas. A esto responde la aparición de taxonomías que distinguen múltiples capacidades para fijar como eje de referencia aspectos de carácter cognoscitivo, psicomotriz o afectivo. * * * Aun corriendo el riesgo de simplificar excesivamente la realidad y de dibujar una caricatura, a veces más expresiva que los detalles de una fotografía, ensaya- mos una clasificación de los anteriores enfoques y modelos de evaluación en dos grandes tendencias (un amplio y matizado estudio de los diversos enfoques y modelos educativos se puede encontrar en R. Neira, 1999); bien entendido que los rasgos que se atribuyen particularmente a ambas no significan en la rea- lidad exclusión en la otra tendencia, sino énfasis propio. Tendencia cuantitativa: Entre los autores que podemos encuadrar en esta tendencia se encuentran Tyler,Thorndike, Skinner, Gagné, etc. Su enfoque edu- cativo en general, y respecto a la evaluación en particular, se enmarca dentro de los siguientes rasgos característicos: Evolución del concepto de evaluación educativa 49 a) El fin de la educación es alcanzar un repertorio de objetivos explicitados, preferentemente en los ámbitos cognoscitivo y psicomotriz; teniendo tam- bién en cuenta indirecta e implícitamente otros ámbitos de la personalidad individual y social que sirven de referente criterial externo a la evaluación. b) La organización escolar está orientada hacia una mayor eficacia, con objeto de lograr mejoras progresivas en las metas y métodos previamen- te establecidos. c) El currículo está centrado en la estructura de las disczplinas. d) El profesor es un instructor especialista de su materia. e) La función principal de la evaluación es medir, jerarquizar y seleccionar, dando prioridad al rigor sobre la riqueza evaluativa. Cada etapa educativa se concibe como una preparación para la siguiente; por lo que, a medida que se va ascendiendo en el sistema educativo, la evaluación va eliminan- do alumnos hasta quedar pocos en el vértice, en una concepción pirami- dal de la educación. La evaluación es esencial para la educación, porque: Todo proceso es analizable y se puede descomponer en procesos más elementales, con su entrada y su salida. La educación es un proceso, a veces muy complejo, y nuestro conocimiento actual del mismo es muy imperfecto; por lo que no sabemos analizado y, por tanto, somos incapa- ces de medir todos sus productos. En principio, se puede afirmar que al menos los productos importantes de la educación -los rasgos esenciales de los objetivos de aprendiza- je- son medibles. Si es un producto importante, debe producir un cambio de comportamiento observable: es decir, una persona que ha cambiado considerablemente, debe comportarse de una manera clara- mente diferente. Si es observable, es medible, es decir, existe una base para medido; porque lo fundamental de toda medida es una observa- ción verificable en relación con un referente. Hoy tenemos instrumentos para medir algunos aprendizajes, aunque nos falten aún instrumentos, uni- dad, escala, cero, etc., para otros. A las objeciones y ataques que se suelen formular contra la evaluación cuantitativa, responden con diversos argumentos. Por ejemplo: decir que lo que un «alumno sabe y puede hacer es más importante que una calificación», implica la afirmación falsa de que la calificación no tiene relación con lo que sabe y puede hacer el alumno; y decir que «los exá- -~s no tienen valor educativo» implica que las calificaciones deriva- das de los exámenes no tienen relación con las metas y objetivos pro- puestos como síntesis de la educación deseada. La realioad, concluyen, es que los exámenes, y en general los instrumentos de la evaluación, ayudan a calificar,y la calificación pretende ser un resumen de los resultados de un proceso de aprendizaje, es decir, la valoración del estado 50 La evaluación de aprendizajes interno del alumno, la «medida» de lo que es, sabe y puede hacer, indispensable para una toma de decisiones adecuada. Tendencia cualitativa: Entre los autores de esta tendencia se encuentran Dewey, parlett, Stake, Stenhouse, etc. Su enfoque educativo en general, y res- pecto a la evaluación en particular, se enmarca dentro de los siguientes rasgos característicos. Los cuatro primeros apartados recogen algunas de las ideas que ya en abril de 1952 intentó exponer Rogers en la Universidad de Harvard. La conferencia, que se hizo famosa aunque duró apenas 10 minutos, tuvo la virtud de exasperar a los presentes ya muchos de los que luego tuvieron la oportunidad de enterar- se de su contenido, y por ello se conoce como la «bomba pedagógica» de Rogers. a) El fin de la educación es el desarrollo personal y social, hasta alcanzar autoestima y seguridad, para llegar a un bienestar. El referente evaluador no está siempre explicitado de forma plena y total, acentuando la liber- tad de! sujeto y dejando un amplio margen a la subjetividad. b) La organización escolar está orientada a favorecer laflexibilidad en pro- gramas, objetivos, métodos, etc. c) El currículo está centrado en el cliente; el alumno, en sus necesidades individuales, sentimientos, intereses, estilos de aprendizaje, etc. d) El profesor es e! motivador yfacilitador de todo e! proceso de aprendi- zaje. e) La función principal de la evaluación es la de diagnosticar y servir de feedback para mejorar el rendimiento, dando prioridad a la riqueza sobre el rigor evaluativo. Se concibe la educación como permanente en un sistema cerrado del que nadie sale. En vez de seleccionar, la evalua- ción busca las condiciones que capaciten a cada individuo a alcanzar su techo de desarrollo. Por e! contrario, la evaluación educativa clásica ejerce una influencia distractora y hasta nociva sobre alumnos, profesores y el proceso de aprendizaje, porque: En todo sistema físico (partículas) o social (personas), cuando se introdu- ce un elemento extraño para medido, se perturba, y puede llegar a des- truir e! sistema. Ejemplos son e! termómetro que modifica la temperatura de un vaso de agua, e! encuestador que distorsiona con su mera presencia los comportamientos de los encuestados o e! examen para e! alumno. Además, los comportamientos mejores no se pueden describir porque apenas si son observables; sólo se miden los resultados menos nobles de la educación porque suelen ser más fácilmente observables. El individuo es capaz de dirigirse a sí mismo, y de encontrar en su pro- pia naturaleza su equilibrio (homeostasis) y sus valores, sin que nadie decida por otros. Ponen el ejemplo de la nutrición infantil. Evolución del concepto de evaluación educativa 51 La «alienación» fundamental del hombre consiste en no ser fiel a sí mis- mo. Para agradar, para conservar la atención de los demás, el hombre llega a falsificar su experiencia; queda alienado por intentar adaptarse a valores que no son los suyos. El alumno actúa en los exámenes para «agradar» a otros, sus padres y profesores. En resumen, concluyen que para educar no se deben emitir juicios de valor: no a los exámenes y a las calificaciones. Por la misma razón se deberían derogar los diplomas en tanto que títulos de competencia, indicadores del fin o conclu- sión de algo que por definición es un proceso continuo y sin fin, el aprendizaje. Profesores, alumnos y evaluadores deben sentirse libres en el grupo para expo- ner su punto de vista y sus ideas, pero sin imponerlas a los demás y sin temor a ser rechazados. Por el contrario, la enseñanza debe centrarse en los intereses de los demás, y la evaluación debe reducirse a la información y diagnóstico de la realidad escolar. * * * En un intento de buscar las claves que permitan explicar las diferencias y entender mejor estas dos tendencias que hemos polarizado para un mayor con- traste, aunque ya hemos dicho que es difícil establecer una línea divisoria tan neta, podemos hacer una reflexión sobre los aspectos más subrayados en cada una de ellas. A veces se pueden confundir medida y predicción (toda decisión lleva implícta una predicción). No es lo mismo medir la creatividad, la motivación, el interés, y por supuesto unos resultados en ámbitos más familiares como el cog- nitivo y psicomotriz, que predecir, a partir de esta medida, los efectos que se producirán en el futuro. Y la misma predicción tiene diversos alcances: en tiem- po, a corto (para la próxima evaluación) ya largo plazo (para el resto de la vida del alumno); y en profundidad, reduciéndose a comportamientos escolares más concretos o llegando a los más humanos, personales y sociales. La divergencia entre las dos tendencias extremas e incluso las matizaciones intermedias que puedan hacerse, pueden atribuirse a que la «cuantitativa» se fija preferentemente en la medida y en una predicción a corto plazo (por ejem- plo, para la próxima evaluación, para el próximo parcial, para el próximo cur- so), que ven como posible: Sí a la evaluación, porque es posible medir apren- dizajes; y la «cualitativa» en la predicción a largo plazo (por ejemplo, para su vida profesional), que ven como imposible: No a la evaluación, o más exacta- mente, no a la evaluación cuantitativa porque no podemos predecir nada y menos imponer nuestras decisiones a otros; hay que «inventar» una nueva evaluación. DejandQ aparte los planteamientos maximalistas de los que eliminan la valo- ración, los juicios de valor externos, la toma de decisiones sobre otros y redu- cen la evaluación al acopio de información neutral, creemos que la evaluación 52 La evaluación de aprendizajes educativa comprende ambos aspectos: evaluar es medir, y evaluar es predecir, aunque más bien a corto y medio plazo. Por lo que optamos por centrar la eva- luación no exclusivamente en la medición de los resultados finales, sino en la recogida de información sobre todas las variables cognitivas y afectivas que intervienen en el proceso de aprendizaje -y en concreto sobre la capacidad de atención (selectiva y sostenida), los niveles de comprensión (conocimientos previos y estrategias de representación y de estructuración de la información) y aplicación, así como sobre la expresión (oral y escrita) yel recuerdo a largo pla- 20-, como subrayan las tendencias cualitativas, pero cuantificadas en una medida, como reclaman las tendencias cuantitativas: todo ello encaminado a una toma de decisiones posterior a la medición, con objeto de lograr una «opti- mización», tanto del proceso como de los resultados finales del aprendizaje. De aquí que proponemos y adoptamos como definición de evaluación educativa la siguiente: Proceso sistemático, e integrado en la actividad educativa que mide lo más exactamente posible el estado actual del alumno, incluyendo logros, estrategias de aprendizaje, factores personales y ambientales, etc., que influyen en dicho aprendizaje, con objeto de llegar a una toma de decisiones. La evaluación educativa es la medida o comprobación del gra- do de consecución de objetivos, lo que comporta una recogida de información para emitir un juicio de valor codificado en una calificación, con vistas a una toma de decisiones. En los capítulos siguientes profundizaremos en estos tres elementos que constituyen la evaluación educativa: recogida de información, con un estudio detallado de los distintos tipos de pruebas o instrumentos para recoger dicha información, calificación y toma de decisiones. NOI)VINHO:lNI I 510 VOI~O)E1H -1 NOI)V)nOEl I NEIVOIOElIN V1 . . que entraña la medida educativa pueden y deben solucionarse satisfactoriamente. por otro. XZ=2. la longitud se concreta en segmentos de 1. Variable: En primer lugar. YZ=1. al segundo el 2. ya podemos asignar números y. la variable belleza se concreta en personas que son muy bellas. por tanto. 2. se mantiene la creencia de que en educación la medida sólo puede apli- carse a aspectos poco importantes y no a atributos sutiles y cualidades esencia- les. empezaremos recordando algunos de sus aspectos fundamentales. Para abordar el estudio de los dos primeros elementos de la evaluación. OZ=3. sin embargo. Esta asignación suele hacerse fijando. Esta actitud viene en parte justificada por cierto rechazo ante el uso de conceptos estadísti- cos que alejan a algunos profesores de su estudio y también porque. . y a la educación en particular. pues todo profesor necesita hacer medi- das para apreciar la calidad de los aprendizajes de sus alumnos (Pidgeon y Yates. medir los segmentos OY=2.Existe un relativo escepticismo sobre la medida en la educación. Las dificultades. numérico o no numérico. poco bellas. recogida de información y calificación. en muchos casos. Defmición de medida: De una manera descriptiva podemos decir que medir es asignar a cada elemento de un conjunto un valor. es conveniente hacer una transferencia clara del concepto de medida de las ciencias empíricas y de las matemáticas a las ciencias sociales en general. se fija de modo convencional el origen en el punto O. la temperatura o la lon- gitud. y sólo uno. se podrán medir propiedades tales como la raza. 4). un origen o cero y una unidad o patrón. Es decir. 1976). siempre que en un momento dado se concreten en un elemento del con- junto en que puede existir dicha propiedad. medir es asignar al primer seg- mento el 1. debe tenerse en cuenta que todo aquello que varía cualitativa o cuantitativamente es susceptible de ser medido. En el diagrama siguiente. y se llama 1 a la distancia OX. y así sucesivamente. si por un lado tenemos segmentos de distinta longi- tud y. para poder emitir un juicio comparativo entre cada segmento y dicha unidad. XY=l. que llamaremos variable. a partir de este momento. Por tanto.2 o 3 metros. 3. que en conjunto constituyen la «medi- da». una serie de números (1. Por ejem- plo. la belleza. y por comparación. previa y convencionalmente. Así. Propiedad de orden: Si una cualidad es más intensa que otra. . la medida de un segmento S) es 4. las propiedades de estas últimas deben con- servarse también en los números que representan las medidas. si podemos realizar con las variables unas ciertas operaciones. El resultado de la unión o suma de las cualidades que no tengan elementos comunes debe ser igual al resultado de la unión o suma de sus medidas. Para medir las variables. en definitiva. sin embargo. los núme- ros que representan estas cualidades deben ser también uno mayor que otro. y la de otro S2es 2. Estudiaremos. juicios en los que se afirma que dichos seg- mentos son iguales o dos/tres veces mayores que el patrón unidad. sus medidas también deben serio: meS)) = 4 m(S2) = 2 meS)) > m(S2) 4 >2 [meS) es la medida del segmento S] 2. según su naturaleza. nos interesa destacar la clasificación de las escalas de medida. En el ejemplo de los segmentos. indispensables para clarificar posteriormente el concepto de medida en educación. hay que utilizar diferentes tipos de escalas. Propiedad de unión: Es la segunda propiedad de la medida que interesa tener presente. Propiedades de la medida: En toda medida. 1. Por ejemplo. Por tanto.56 La evaluación de aprendizajes o x y z Estas medidas son. si el pri- mer segmento es mayor que el segundo. que no siempre cumplen las dos propiedades mencionadas. sólo las dos que nos interesarán cuando hagamos las aplicaciones a la medida en educación. si se unen dos de ellos no superpuestos. se obtendrá otro cuya medida es igual al resultado de sumar las medidas de los segmentos originales: meS)) + m(S2) =4 + 2 = m(S3) [mS3 es la medida del segmento unión de SI y S2] Escalas: Son escalas los distintos modos de asignar números. se Blanca -----0. pero no se cumple la propiedad de unión._ O oB utiliza la escala nominal. pero. Podemos citar como ejemplo la escala de grados m (TI) = 40 Celsius para medir temperaturas. Escala de intervalo: Coincide con la escala ordinal. Sin embargo. Por ejemplo.. 20 Y10. 1. sin que los intervalos sean iguales.de más a menos bellas. en la que se puede asig- --~. Tampoco el asignar un Osupone carencia total de belleza. Escala nominal: En la escala nominal. para medir la variable raza. Escala ordinal: Cuando se mide con la escala ordinal. m (Persona D) = O o N piedad de orden. las personas. a cada elemento de un conjunto. se cumple la propiedad de orden. Y tampoco se cumple la propiedad . Si las temperaturas de m (T2) = 30 cuatro líquidos son de 40. Como en la escala ordinal. y desde luego. entre 30 y 20 Y m (T4) = 10 entre 20 y 10 indica también igualdad de diferencia entre sus temperaturas. IoN nar a la raza blanca el valor O (o B). no se cumple la propiedad de orden y mucho menos la de unión. no tie- ne sentido el sumar la belleza de dos personas. Esta asignación significa que a elementos distintos corres- ponden medidas (números o símbolos) distintas. Recogida de información 57 1.La medida en educación. aparecen ordenadas -pro. como no lo tiene el sumar sus medidas. también se asigna a cada elemento un número (u otro símbolo no numérico). En las medidas que utilizan esta escala. Esta escala puede servir para ordenar. pero aquí un núme- ro mayor que otro indica que la cualidad que representa sea también mayor o superior. se le asigna un valor (numéri- co o no numérico). es decir. Y a la raza Negra negra el valor 1 (o N). En resumen. pero aquí la igual diferencia entre números indica igualdad de diferencia de cualidad. 30. 3. pero sigue sin cum- plirse la de unión. Por ejemplo. ade- más. el OY el 1 no pretenden significar que una sea mayor o superior a la otra. el hecho de asignar a un líquido el valor O no quiere decir que carezca de nivel térmico. la diferencia de belleza entre las personas a las que se les asig- na el1 yel 2 no tiene por qué ser igual a la diferencia entre las que miden 2 y 3. la igual diferencia entre 40 y 30. Esta escala puede servir para clasificar. para medir la variable belleza se utiliza la escala ordinal. ya la menos bella el número O(o el sím- m (Persona C) = 1 o P bolo N = Nada bella). Se asigna a la persona m (Persona A) = 3 o M más bella el número 3 (o el símbolo M = Muy m (Persona B) = 2 o R bella). aparecen ordena- m (T3) = 20 das cumpliéndose la propiedad de orden. Se cumple en esta escala la propiedad de orden. 2. a cada concreción de la cualidad variable. Los elementos del con- junto. de orden y de unión: la igualdad de diferencia entre dos medidas indica igualdad de diferencia de cualidades. cualquiera que sea. Aque!. en e! contexto escolar. se obtie- m (L4) = 1 ne un nuevo segmento cuya medida es 4+3. que no puede cambiar no es sujeto de aprendizaje. 4. La diferencia entre e! primero y m(Lz)=3 el segundo. el manejo de la información supone unos ade- cuados conocimientos previos. Esta escala. manejo e integración de la información. por último. continuo y con cierta estabilidad. lo que permite modificar y ampliar los conocimientos existentes para abordar otros aprendiza- jes. Sin embargo. e! comportamiento o respuesta del alum- no en los ámbitos cognoscitivo. según la propiedad de orden. Escala de cociente o razón: Las medidas en esta escala cumplen ambas propiedades. 3. Además. el valor O significa carencia de longitud. El momento de la recepción exige que e! aprendiz preste atención. Si se unen el primero y el segundo. el estado interno. En resumen. como en cualquier caso. o aquello. evidentemente no se obtiene un líquido de tem- peratura 40+30. de unas estructuras y esquemas cognitivos previos. sólo podemos llegar a la variable educativa. APLICACIONES A LA EDUCACiÓN A continuación estudiaremos cuáles de estos aspectos. es la misma que entre el segundo y el m (L3)=2 tercero. la inte- gración de la información en los esquemas preexistentes. es claro que e! aprendizaje tiene algo que ver con alguna variable. 1. podemos aplicar a la medida educativa para sacar las conclusiones oportunas. propiedades y escalas. 3 y 2. a través de! comportamiento externo del aprendiz. pues no tiene sentido sumar temperaturas de los líquidos. Por tan- to. 1999). que también sirve para ordenar. Al medir segmentos. se obtienen medi- m (L1) =4 das de 4. postulamos que. Sea la longitud. cumpliendo la propiedad de unión. 2 Y 1. lo que implica su modificación y ampliación para poder ser aplicados de nuevo (Álvarez y Soler.58 La evaluación de aprendizajes de unión. y el Osignifica carencia de atributo. Variables en educación: Aprender es un cambio. de mayor a menor. aunque somos conscientes de que a cada estado interno del . tiene en cuenta la proporcionalidad. psicomotriz y afectivo es el indicador o expresión externa observable de aquella variable. si mezcla- mos los dos primeros líquidos. así como estrategias adecuadas para estructurar la información y. se puede tomar e! comportamiento observable como la variable de la medida en educación. 4 y 3. Es difícil establecer si esa variable es e! estado interno de! aprendiz o alguna otra cualidad. tarea esencialmente personal de! alumno. Se enmarca dentro de una secuencia que pasa por tres momentos: recep- ción. que los ordenan. la familia~. el objetivo (03) «Dividirnúmeros reales». la relacionaríamos con un estado interno (el) del alumno. o también el indicativo de la dis- .. k"Z) lo asociaríamos con otro estado interno del aprendiz (ez). Gráficamente: el . entonces el cambio de comportamiento desde ~ a Kl' a~. k'2' k3. la familia IS. k'3' • k\.• ••.. la familia de comportamientos ~ (kl' k\. De forma gráfica puede expresarse de la siguiente manera: el .n k' n." k'\• . k'2. k3. realizando los cálcu- los por diversos procedimientos. Recogida de infonnación 59 aprendiz le puede corresponder un conjunto de comportamientos observables (no diferenciables significativamente). La medida en educación.• Por ejemplo.• • kp k2. la amplia gama de comportamientos (kl' k\. y así sucesivamente.••. y así sucesiva- mente de todos los objetivos formulados en una programación.• e3 e n . k" n Por ejemplo. el hecho de que realice multiplicaciones también de diversas maneras (k2. se fija un estado inicial a través de su correspondiente familia de comportamientos asociados: eo" • ko. Variable y objetivo: Cada familia de comportamientos también se relacio- na con un objetivo. k2. k"l) supone la consecu- ción del objetivo (al) «Sumar números reales». como origen de la medición. es la expresión observable de la consecución de los objetivos al' 0Z' etc. etc. k"o y si los comportamientos Kl son la consecución del primer objetivo al' los comportamientos ~ la consecución del segundo objetivo Oz. k\) que supone hacer sumas disponiendo los sumandos de diversas maneras. 1. k'o. k.• k"3 01 03 O2 e2 e3 . el objetivo (02) «Mul- tiplicar números reales».. k"2. Variable y aprendizaje: Si. k'2' k"2 kp k'p k'3' k"l k"3 e2 .•. etc. ni tiene sentido el asignar un 5+ 7 al que es capaz de realizar ambas operaciones. es decir. representados por sus indica- dores observables. al alumno que alcanza el objetivo 1 se le asigna un 5 o un SF. En consecuencia.k3) ••.e3) ••. no se cumple la propiedad de unión. 03 Cambio y medida: Si a cada par de estados. y si el objetivo 3. en educación nunca se cumple la de unión. ya la vez 1 saber sumar (°1). Gráficamente. si alcanza el objetivo 2. se 01 < 0z < 03 puede expresar con los esquemas siguientes: En este y pocos casos más. ya que no tiene sentido sumar estados internos. ni sus medidas. estamos formulando un juicio. (~. Por ejemplo. (~. 0z (eO. Por otro lado.e) '111( •. un 10 o SE: 5 7 10 Propiedades de la medida en educación: De las dos propiedades de la medida que citamos anteriormente.el) ••. como aparece en el siguiente esquema: (eO.60 La evaluación de aprendizajes tancia que queda por recorrer para alcanzados. (~. saber dividir (03) supone K < Kz < ~ ser capaz de multiplicar (Oz) . se le asigna un valor. En la mayoría de los casos.kz) '111( •. 01 (eo. < < ne los anteriores. ni sus comportamientos asociados. estamos realizando una medida. En el caso ya tantas I el ez e3 veces citado. Sumar no se puede unir a multiplicar.kl) ••. por tanto. y solamente a veces la de orden. Algunos ejemplos pueden ser: . la propiedad de orden sólo se cumple cuando un objetivo supo. se da una ordenación inclusiva y se cumple la propiedad de orden. un 7 o N. los objetivos no tienen relación entre sí o están sólo parcialmente solapados. no se da dicha relación. m(Ol) = 5 o SF (eo. (eO. Siguiendo con el ejemplo de las operaciones matemáticas.ez)" •. si su cambio de comportamiento va de (eolKa) a (el/Kl) y son capaces solamente de sumados (01)' se les asigna 5 o SF.••.e3) •••• (ko'~)" •. 1. Escala ordinal o de intervalo: Sólo en aquellos casos en que los objeti- vos están ordenados inclusivamente. es decir. (ko. Se puede asignar un número a cada par de estados internos. (ko.La medida en educación. en cuanto aprenden más. no se pueden medir aprendizajes como se miden longitudes o masas.ooI{ •. cuando la consecución de cada objetivo lleva implícita la de los anteriores. cuando con el cambio (e3/K) llegan a divididos (03)' se les asigna 10 o SB. cambien a (ez!Kz) y sean capaces de multiplicados (Oz)' se les asigna un 7 o N.kl) . los alumnos par- ten de la situación en que no saben operar (eN.el). no podremos utilizar la escala de cociente o razón. m(O) = 10 o SB .kz)" • m(Oz) = 7 o N (eO. Recogida de información 61 MATEMÁTICAS: «Calcular áreas de figuras planas»: 01: Círculo Oz: Cuadrado 03: Rectángulo 04: Rombo 05: Trapecio 06: Sector circular 07: Corona circular aa O LENGUA: «Realizar composiciones escritas»: . o a cada par de sus indicadores. 01: Descripción Oz: Narración VO a-zlO 03: Diálogo 04: Cartas comerciales 05: Impresos Las escalas en educación: Puesto que en la medida educativa no se cum- ple la propiedad de unión. está justificada la escala ordinal. Si el objetivo final es que sean capaces de dividir números reales. Por ahora sólo disponemos de dos escalas: 1. y por tanto se cumple la relación de orden. pues. ya que sería difícil sostener la igualdad de distancias entre (er!Ko) H (e¡!K¡) H (e/Kz) H (e31Ks). no queda otra alternativa que utilizar la escala nominal. está justificado utilizar los códigos tradicionales de O a 10 o de sus- penso a sobresaliente de una escala ordina!. como la que se usa para medir la belle- za. codificado generalmente en una calificación.No Apto (Eo. Uno de los secretos de las buenas calificaciones es que estos juicios de valor se basen en una abundante observación controlada. O') por separado independien- temente de los demás. Un resultado deducido de una buena observación controlada y sistemática. cuando se aplica una escala ordinal o nominal. dado que la carencia de una buena información. por consiguiente. (eo. Escala nominal: En educación. Una observación controlada de los resulta- dos válidos y fiables necesita. que no tiene relación con el anterior. o la que se reduce a la constatación de comportamientos aleatorios de los alumnos.En estos casos de inclusividad de los objetivos. Adquirido/NO Adquirido.62 La evaluación de aprendizajes Se está utilizando una escala ordinal. medir es recoger información para emitir un juicio de valor. a su vez.ej) =} (ko. convierte las calificaciones en meras opiniones de los profesores. en ocasiones hay que globalizar varios resultados. es decir. sin embargo. en la mayoría de los casos no se cumple la relación de orden. como la utilizada para medir temperaturas.No Apto o Media ponderada Recordemos que evaluar es medir para tomar decisiones y.k¡) =} O = 1/0 o Apto. medir cada objetivo (O. de un planteamiento sistemático de los diversos instrumentos de evaluación. si no saben calcular el área del círculo (Objetivo O') se les asigna No Apto. en un resultado único.Ej) =} (Ku. Sería más discutible el uso de una escala de intervalo. una solución para poder hacer posteriormente un juicio de valor es recurrir a la media ponderada.Kj) =} O' = 1/0 o Apto. obtenidos a partir de escalas nominales. En estos casos. O/l/suspenso 5/S/aprobado 7/N 10/S8 ¡ r O 2. Si los alumnos saben calcular el área del triángulo (Objetivo O) se les asigna Apto. no ofrece dificultades especiales de interpretación para emitir un juicio de valor. Apto/No Apto. consistente en asignar un . codificándolo con 1/0. 2 (20%) 10 °4 0. con objeto de des- mitificarlos de su aureola de precisión que con todo fundamento subrayan las críticas conocidas. conviene reiterar una vez más que la medida es un elemento de la evaluación. Por ejemplo. algunas de las cosas que hacemos con los resultados de las correcciones de los exámenes. estudiar otros temas. difieren en las escalas y. y la recogida de información es un aspecto de la medida.La medida en educación. y más aun si es de distintas asignaturas. Por último. repetir. por tanto. si un alumno en una prueba no responde a las preguntas correspondientes a los dos primeros objetivos. en la exacti- tud de las unidades.5. cuyos coefi- cientes son 20% para 03 y 40% para °4. etc. Por todo ello.3 x O) + (0. a cada objetivo que marque su peso específico rela- tivo. el resultado global [R] será: OBJETIVO (O) COEFICIENTE (P) °1 0. Recogida de información 63 coeficiente. no obstante. determinación que.4 x 10) = 6 Este «6" está ya afectado por los coeficientes. etc.4 (40%) 10 R= I p¡ N¡ = (0. porque a partir de ella debe emitirse un juicio de valor para poder tomar decisiones: volver a estudiar la lección.5 no significa exactamente lo mismo en todos los alumnos. y una de esas cosas útiles es medir los aprendizajes sin olvidar.3 (30%) O °2 °3 0. tales como calcular medias. en la situación del cero.1 x O) + (0. pero subjetivo.1 (10%) o 0. 1.2 x 10) + (0. Es importante tener presente este modo de proceder cuasiautomático. igualo distinto. como cualquier otra. Es necesario ser conscientes de las limitaciones de nuestras medidas.5 m de longitud de una viga. pero no por eso debe- mos dejar de hacer lo que nos parece útil. El rigor va quedando más dete- riorado en el caso de tener que hallar la media ponderada de resultados de par- tes muy distintas de una materia. sólo tie- nen sentido y valor si se las somete a una interpretación adecuada. Porque la realidad es que muchos profesores. puede estar teñida de subjetivi- dad y restarle rigor. Y deben tomarse no sólo a partir del juicio o calificación hecha con el resultado . Debemos también recordar que una misma medida puede representar diversas cualidades (las familias de comportamientos antes mencionadas). Las medidas en educación no son homogé- neas como las del orden físico. para obtener los datos de la evaluación educativa. desviaciones. un 4. cuyos coeficientes son 10% para el objetivo 01 y 30% para 02' pero lo hace a las de los dos últimos. las licencias que nos tomamos. coeficientes de correlación. pasar curso. se olvidan de sus ingredientes subjetivos y lo consideran como los 4. una vez que llegan a un 4. en consecuencia. c) Las preguntas no son equivalentes. Por eso no se justifica la argumentación de muchos profesores cuando afirman: «Siapruebo a este alumno con un 4. etc. son de mejor calidad o requie- ren más tiempo.5. Si se considera. se calcula el resultado global [R] por medio de alguno de los procedimientos detallados en los casos siguientes de preguntas compensables.25 x 10) + (0.25 x 10) + (0.5 representa el mismo estado en todos los alumnos.25 x 10) + (0. ten- go que aprobar a todos los que lleguen a esta calificación».25 x 10) + (0. La calificación se tratará en el capítulo 13 y la problemática de la toma de decisiones educativa en el 14. Yse da 10 a cada respuesta buena. el resultado global [R] se calcula por medio de la fórmula general: R = L (Pi X N). Ahora nos preocupa exclusivamente la recogida de información y. N es el resultado de cada prueba y L la suma de los productos (P x N). además. situación afectiva personal. Se dan varias opciones. por supuesto. en un examen de 4 preguntas: P1 = P2 = = P3 = P4 = 25%. El problema está en objetivarlos diferenciadamente. que los resultados parciales [N] son compensables. Si contesta dos regular y dos mal: (0. con otros datos contextuales: aptitud. métodos que. tienen una mayor dificultad. en donde R es el resultado global. a) En primer lugar. ni los datos contex- tuales que deben acompañar a la medida para tomar decisiones son los mismos en todos los casos. b) Las preguntas son equivalentes. insistimos. por el contrario.64 La evaluación de aprendizajes numérico. Si contesta todo bien: (0. P el coeficien- te o peso atribuido a cada prueba. por ejemplo de 5. en 1 o en 4 como máximo.25 x 5) + (0. no se tienen en cuenta los resultados parciales superiores a 5 para calcular el resultado global. sino de acuerdo. Si Ni ~ 5.5. deben ser conocidos previamente por los alumnos. Por ejemplo. en cada pregunta para calcular resultados. a cada pregunta se le asigna un coeficiente según un criterio que puede ser: . Se contemplan varias posibilidades. Si Ni < 5. y al igual que los objetivos. porque. quedándose en O. 5 a las regulares y O a las malas. Es el sistema más simple y el más fre- cuentemente usado.25x 5) + O + O = 2. se requiera un mínimo. Si contesta dos bien y dos mal: (0. ni el 4. . son varios los métodos para calcular una media ponderada a partir de los resultados de varias respuestas. En este caso.25 x x 10) = 10. Empírico: Basado en resultados tabulados de otros ítems equivalentes. en este sentido. se puede considerar que los resultados de cada prueba [N] no son compensables y. ya que algunos profesores creen que ciertos ítems deben valer más que otros porque controlan objetivos más importantes.25 x 10) + O + O = 5. contesta las dos primeras bien y las dos últimas mal: (0. Establecido: No tiene en cuenta los resultados previos reales. en un examen de ítems VerdaderolFalso y Elección Múltiple.5. 5I.976 00.05 x 10) = 2. Si. Recogida de información 65 . avalan esta afirmación de que no hay ventaja obvia cuando se usan pesos específicos distintos: Examen 21 83 41alumnos 160 50 90 34 105 N° N° 8ien: específico ítems 8(1-140) 8(1-45) 8(1-70) Peso +4 Correlación ===0.La medida en educación. O también. Por ejemplo. EES Memo n.923 En la tabla se recogen los pesos específicos diferentes que presentaron cua- tro profesores para la corrección de sus exámenes. IA: University of Iowa). Estimado: Basado en la experiencia del profesor o. en un examen de 4 preguntas: P1 = 50%. 1.5x10) + (0. sino que se determina a priori según el perfil establecido de competencia que se supone debe poseer un especialista. tomada de «Evaluation and Examination Service» (1982). aparece la correlación entre los resultados obtenidos considerando las pre- guntas equivalentes (pesos de + 1 y O) Y las corregidas usando los diversos pesos específicos propuestos en la cuarta columna. El ordenamiento de los . el profesor puede decidir que cada ítem EM debe valer el doble que cada ítem VIF.25 x 10) + ° + ° = 7. . por el contrario.5.945 +1 0. de varios profesores. Por razonable que en apariencia parezca dar este peso diferente a cada pre- gunta. P2 = 25%.983 +1 +1 . Iowa City.2 x 10) + (0. P4 = 5%: Si contesta las dos primeras mal y las dos últimas bien: °+ ° + + (0. sobre los efectos de distintos pesos espe- cíficos de ítems aplicados en cuatro exámenes. Los datos de la tabla siguiente. En la última columna. (Evidence far nat weighting abjective test items. P3 = 20%. algunos autores sostienen que tiende a tener efectos relativamente pequeños y rara vez proporciona resultados más válidos o fiables. mejor. que el otro. para concluir que dar a los ítems más difíciles un valor extra rebaja la eficacia tanto del ítem en particular como la del examen en su totalidad. no ponderarlas todas necesariamente de la misma forma. Proponen. Sabers y White (1969) afIrman que el cálculo de la media ponderada supone un esfuerzo que no merece la pena. Tal distorsión debe . ¿Quédebe hacer la madre? a) Darle un laxante. no está claro que el mismo argumento se pueda aplicar a los objetivos más complejos. Sin embargo. Así. por ejemplo el doble de ítems. Con el agravante de que. en cambio. además. se puede concluir que una buena regla para mejorar las pruebas es aumentar el número de las preguntas más importantes -lo que equivale implícitamente a una media pondera- da. 2003) eran casi idénticas. o Corrección del azar En relación con el peso de los ítems. con náusea.y. si un examen cubre dos objetivos.además. Esto dará resultados más fiables y válidos que si se escribe el mismo número de ítems para cada objetivo.66 La evaluación de aprendizajes alumnos fue prácticamente el mismo en todos los casos y las fIabilidades Kuder-Richardson (Muñiz. la b) un Oy la c) un + 1. Nota: Elegir la alternativa a) supone -1. aun especialistas. Por ejemplo: Un niño se qUf!jade dolor agudo y sensibilidad en el bajo abdomen. todo ello condicionado al tiempo disponible para realizar el examen. es preferible escribir más preguntas. aspecto éste especialmente importante en las pruebas objetivas (cap. es necesario considerar la distorsión que las respuestas acertadas por azar introducen en los resultados. c) Llamar al médico. Recogiendo las opciones anteriores. uno de los cuales se considera que es dos veces más importan- te -no precisamente más difícil. que se pueden obtener las mismas ventajas añadiendo más ítems. 4). e) La mejora de exámenes a través de la adición de buenos ítems equiva- lentes les parece a algunos una propuesta más prometedora. y pocas veces se han encontrado ganancias en fiabilidad y validez apre- ciables y consistentes (Downey. hacerlos con distractores de distinto valor parece una tarea imposible. También en este caso los resultados experimentales han sido decepcionan- tes. 1979). del más importante. tienen sufIcientes dificultades para construir buenos ítems cuyas respuestas sean simplemente buenas o malas. d) Otra propuesta para mejorar la fIabilidady validez de los resultados es fijar un peso específico diferente para cada distractor de las PO. si la mayo- ría de los profesores. los resultados equivalentes son más fáciles de interpretar. es decir. ya que corregir sin estas diferentes pon- deraciones ahorra tiempo y. pero los del más importante se valoran el doble. b) Meterlo en la cama. ) . O d el número de ítems omitidos. si el que no adivina hubiera adi- vinado. Supongamos que un alumno contesta a ciegas 100 ítems V. de! número de res- puestas correctas.O los ítems omitidos. d -1 Si se desea referir la nota a una escala de 10. Otro alumno. La lógica de esto lleva a otra fórmula general para corregir el azar: (En donde R' es el resultado global corregido de acuerdo con R1 = B. se puede esperar que e! alumno podría acertar 50 por azar. Si los ítems de EM (cap. 113 del número de respuestas incorrectas. B es el número de respuestas correctas. Sin la corrección del azar. 1. tienen tres.F se puede esperar que el alumno responda una cuestión mal por cada una que conteste bien. es decir. se intenta no dar esperanza de ventaja al alumno que adivina a ciegas sobre e! que no lo hace. Esto nos lleva a la siguiente fórmula general de corrección de! azar: (En donde R es el resultado global. Recogida de informac~ón ser corregida con objeto de eliminar o reducir en lo posible la ganancia que resulta de la adivinación ciega. es nece- sario restar de su calificación una cantidad igual a la que se espera que gane por azar. recibe un O. el resulta- do del primer alumno sería mayor que e! de! segundo. La hipótesis en este caso es que. siguiendo con e! mismo supuesto. no contesta ninguna pregunta y.) Es fácil ver que esta fórmula se convierte en R=B-M en el caso de dos alter- nativas (V. 67 La medida en educación. e! número de res- puestas incorrectas se resta de! número de las correctas. Para corregir el resultado conseguido por azar por e! primer alumno. la relación de respuestas incorrectas a correctas es de 3 a 1. por tanto. cuando los dos debieran ser iguales. en vez de restar 50 unidades de! resultado de! que adivina a ciegas. M los ítems incorrectamente con- R=B-~ testados. del número de respuestas correctas. habría que restar. En ítems EM de tres alternativas. d el número de distractores u opciones de los ítems. para hacer la corrección del azar. en este caso. d es el número de distractores. daría la respuesta correcta a 1/2 de los ítems V. en vez de dos respuestas. B es el número de ítems correctamente contestados. 5). que no sabe menos que el anterior pero que no se expone a adivinar a ciegas.F. se espera que el alumno dé dos respuestas inco- rrectas por cada una correcta.F (Cap. 6) tienen cuatro posibles alterna- tivas a cada pregunta con una correcta. Esto también eliminaría la ventaja esperada de adivinar a ciegas. una correcta y otra falsa. el que no adivina daría respuestas correctas a 1/3 de los ítems.F). y la corrección del azar exigiría restar. se podría «premiar» al alumno que no lo hace. o R=B-M/3 en el caso de ítems EM de cuatro alternativas. basta con dividir el resultado por el número total de ítems de que se compone el examen y multiplicado por 10. En otras palabras. Puesto que en un examen con ítems V. Si las preguntas. En vez de «penalizaD) al alumno que adivina. la mitad del número de respuestas incorrectas. Pues- to que hay sólo dos posibles respuestas. se podrían sumar 50 unidades al resultado de quien no lo hace. conviene señalar que. se puede recomendar a los alumnos. los resultados corregidos del azar mediante la resta de una fracción de las respuestas incorrec- tas correlacionan perfectamente con los resultados no corregidos. La corrección del azar evita o reduce la tentación de adivinar tam- bién en los alumnos mal preparados. que. se obtendrán resultados corregidos distintos. Lo cual supone que la magnitud de los efec- tos de una corrección del azar depende de la proporción de ítems omitidos. los alumnos «expertos en hacer exámenes» saben que no tienen nada que per- der. Nadie saca matrícula por casualidad. en contra de lo que a veces se cree. por parte de algún alumno. la corrección del azar no pretende penalizar al que deduce las respuestas. Por el contra- rio. Si no se corrige el azar. Como los resultados en los que no se corrige el azar dan una especial venta- ja al alumno arriesgado y «listo». b) Los alumnos mejor preparados tienden siempre a evitar la adivinación a ciegas. Sin embargo. el valor medio (los de omisión serán mayores) y su variabilidad (los de omisión serán más variables casi siempre) serán diferentes. La aplicación de cualquiera de las dos fórmulas sólo tendría un efecto relevante si.y R'=B+O/4 en el caso de ítems EM de cuatro alternativas. no responderán los ítems en los que vean pocas posibilidades de acertar. si no se omiten ítems. Si se aplican las dos formas de corrección del azar a unos mismos resulta- dos. . pero perfectamente correla- cionados: a un resultado más alto que otro obtenido por el primer método. se omitiera un considerable número de ítems. la fórmula se convierte en R'=B+O/2 en el caso de ítems VIF. d) Esta deducción racional puede proporcionar una información útil sobre el nivel general de conocimientos de los alumnos. adivinación no a ciegas. Por otra parte. si se corrige.su validez como medida de logros de aprendi- zaje disminuye. Por último. c) No hay que confundir la adivinación a ciegas con la deducción racional de la respuesta correcta. se señalan algunas consideraciones que deben tenerse en cuenta al corregir el azar en pruebas objetivas: a) La probabilidad de obtener un resultado «alto» adivinando a ciegas es muy pequeña. corresponde también uno más alto obtenido por el segundo. Sin embargo. con el número de respuestas correctas.68 La evaluación de aprendizajes De nuevo. sino simplemente anular la posible ventaja que pueda tener el alumno que adivina a ciegas sobre el que no contesta ítems por desconocer la respuesta. como tal. si intentan responder todos los ítems. y quizá algo que ganar. es decir. permitiría considerada como instru- mento de evaluación sólo desde un punto de vista analógico. 1. El recurso más tradicional o novedoso y e! indicio más pequeño que ayuden a un docente a comprender mejor a un alumno. se entiende por «instrumentos de evaluación» aquellos recursos que. la evaluación de aprendizajes necesita una amplia gama de instru- mentos -tests o exámenes compuestos por ítems. Conviene. para la institu- ción educativa y para la sociedad que. se usan instrumentos que proporcionen datos a partir de los cuales se pueda inferir si el alumno los ha alcanzado. Estas situaciones no deben limitarse a las pruebas orales y escritas. Tanto unos como. Se trata de estudiar los formatos o tipos de pruebas con los que se puede reco- ger la información sobre el rendimiento de los alumnos. De ahí la necesidad de ir integrando todas las informa- ciones que se puedan obtener a través de los diversos instrumentos de evalua- ción. aunque indicadores aislados no sirven para evaluar la complejidad del compor- tamiento de un alumno. estar en contra de los mismos. dicho de otro modo. preguntas o pruebas (térmi- nos con significados diferenciados. Aunque siempre hubo y sigue habiendo otros protocolos. Ostedind (1998) defi- ne «instrumento de evaluación» como un instrumento de medida que propone al alumno un estímulo y una forma prescriptiva de emitir una respuesta. Una situación que supusiera cualquier respuesta. facilitan identificar modos de actuación como indicadores para medir el grado de consecución de objetivos de aprendizaje. deben considerarse como válidos. como en algu- nos casos la observación y las encuestas. diferentes de las actividades de enseñanza-aprendizaje en la medida en que pretenden valorar el grado de consecución de unos objetivos. Los diversos modos de actuación de los alumnos servirán como indicadores del grado de consecución de los objetivos. Dado que a los objetivos de aprendizaje no se accede de modo inmediato. pero difie- ren en e! fin para el que se usan: en un caso son estrategias de aprendizaje y en otro. por tanto. Recogida de información 69 INSTRUMENTOS DE EVALUACiÓN 2. con el fin de que los datos obtenidos puedan valorarse y significar algo para e! propio alumno. porque todo profesor examina y califica. en última instancia. Diseñar situaciones para comprobar la consecución de objetivos de aprendi- zaje es una tarea de gran importancia en educación. por ello. en diferentes situaciones. esforzarse en obtener todos los indicios a través de todos los medios apropiados. pero que usamos indistintamente)-que respondan a ciertas cualidades. o que ayuden a un alumno a comprenderse mejor a sí mismo. a partir de la cual se puede deducir la consecución de un objetivo de aprendizaje.otras incluyen procesos mentales sobre contenidos científicos. instrumentos de evaluación que pretenden provocar una respuesta defini- da de! alumno.La medida en educación. esta tarea frecuentemente se reduce a cons- . ha establecido la estructura educativa. Y no vale apelar a refugiarse en la connotación peyorativa que la palabra examen encierra para. Por tanto. para el profesor. siempre que en alguna medida puedan estimarse. entre otras razones porque. tampoco es fácil establecer la indispensable relación entre pregunta y objetivo que reduzca las fuentes de error y aumente la validez y fiabilidad de los resultados. las preguntas adolecen de muchos defectos. que lo que se evalúa es mucho más la aptitud del alumno para descifrar las ins- trucciones que el nivel real de sus conocimientos y su capacidad para utilizados. hasta el punto de que éste juzgue las palabras y no los conoci- mientos. con frecuencia. con el riesgo añadido de no contestar a lo que se le pide. 2. 4. es la complejidad de las instrucciones: ciertas pruebas incluyen algunas tan complejas o variadas (cada pregunta lleva unas distintas). en especial los cognoscitivos. su forma. Futilidad: Se entiende por futilidad la poca importancia de las pregun- tas. 1989): 1. 3. la someta a un análisis crítico y siga una serie de instrucciones. Esto es especialmente importante en las llamadas pruebas objetivas (PO). Ambigiiedad: La ambiguedad del lenguaje empleado puede hacer que el alumno tenga que dedicar más tiempo a la comprensión de la pregunta que a respondeda. de las respuestas de los alumnos. su estilo. con la ayuda de una buena expresión escrita pero carente de contenido. Más grave. o cuando constituyen una trampa que enmascara datos necesa- rios para dar la adecuada respuesta. Esta ambiguedad resulta mayor cuando existen errores en la redacción de las preguntas. Complejidad: Por un lado. Otros alumnos. La prueba pierde utilidad cuando el número de preguntas que emplea cons- tituya una pequeña muestra de todas las posibles. tanto si se trata de una prueba libre (PL) como de una prueba obje- tiva (PO). Para evitar estos y otros posibles defectos. conclusiones válidas y fiables sobre la adquisición de objetivos referidos a capacidades de diversos ámbitos. por otra parte. Más grave es el conservadurismo que obliga al alumno a responder de acuer- do con los prejuicios o incluso las posibles ideas desfasadas del examinador. los ítems se redu- cen a una simple frase que ofrece pocas oportunidades para describir un con- texto que aclare su significado. pueden disimular la ausencia de conocimientos y acabar por influir en el corrector. a veces. Éxito en los exámenes: Sobre todo en las pruebas objetivas (PO). Es una tarea difícil. etc. Por otra parte. los alumnos desarrollan un «sexto sentido» que les lleva a predecir las preguntas que van a salir. .70 La evaluación de aprendizajes truir preguntas de manera precisa y breve para poder deducir. la formulación defectuosa delos ítems puede dar «pistas»y sugerir las respuestas a los alumnos. es esencial que quien construye una prueba. sin embargo. El análisis de los exámenes corrientemente utilizados muestra que. entre los que podemos citar (Guil- bert. la complejidad de la materia puede hacer que la búsqueda de la respuesta correcta suponga más dificultad de la prevista. Todo ello es un reto a la creatividad y experiencia del profesor. sin embargo. El criterio más frecuente de clasificación. PRUEBAS OB]ETNAS (PO) 1. CLASIFICACIÓN (CL) 1. PROBLEMAS CIENTÍFICO-MATEMÁTICOS (CM) 2.2.4. EMPAREJAMIENTO (EP) 1. V/F MÚLTIPLE (V/F múltiple) 1.2.1. orales.9. 1. VERDADERO/FALSO (VIF) 1.7. se distinguen las siguientes clases de instrumentos de eva- luación. yen el otro extremo no habría prácticamente limitación. RESPUESTAS COMBINADAS (Re) 1. PRUEBA PRÁCTICA REAL (PR) 2. según esto.2. PROYECTO (PY) 2. podría hablarse de un continuo desde las pruebas objetivas (PO) hasta las pruebas diagnóstico (PD). Cuanto más se limita la libertad. OBSERVACIÓN (OB) 3. pero en las que el alumno tiene ya que construir su respuesta) y las pruebas libres (PL). RESPUESTA LIMITADA (RL) 1. que condiciona la libertad que tiene el alumno para res- ponder. yen instrumentos indirectos o circunstan- ciales. EXAMEN ORAL (EO) 2. PRUEBAS LIBRES (PL) 2.6. a continuación los ítems de res- puesta limitada (RL) (clasificadas como PO. RESPUESTA DOBLE (RD) 1. etc. con los que se evalúa la adquisición de conocimientos sin interrumpir el proceso de enseñanza-aprendizaje (observación espontánea o estructurada.8. Si se tiene en cuenta la situación en que se encuentra el alumno en el momento de someterse al control. Los ítems podrían entonces ordenarse a lo largo de este continuo: en un extremo estarían las PO que imponen más limitaciones. en los que se interrumpe el proceso de aprendi- zaje (exámenes escritos.5. que estudiaremos con detalle: 1. RESPUESTAABIERTA (RA) 2.1. El constructor de un test puede aumentar o disminuir la libertad del alumno para contestar. PRUEBAS DIAGNÓSTICO (PD) 3. es la forma de las pre- guntas del profesor.3. SIMULACIÓN (SM) 3. Recogida de información 71 Clasificación: Los instrumentos de evaluación de aprendizajes pueden cla- sificarse según diversos criterios. etc.).1.4.5.La medida en educación.6.3. se pueden clasifi- car en instrumentos directos.). ELECCIÓN MÚLTIPLE (EM) 1. y a la inversa. PRUEBAS MIXTAS (PM) 2. como es el caso de la observación (OB) y las . ENCUESTA (EN) Según esta última clasificación. más fiabilidad podrá tener el test. Limitada P. Diagnóstico En los capítulos siguientes se hace un estudio pormenorizado de cada uno de estos instrumentos de evaluación. PD. LIMITACIONES •••. . Libres P.72 La evaluación de aprendizajes encuestas (EN) que hemos llamado. ya que en algunos casos se admite cualquier respuesta. Objetivas R. a falta de un título mejor. pruebas en sentido analógico. LIBERTAD P. SltAI~5Ir80 Slt851nHd . . 2. la fiabilidad de las calificaciones y otras limitaciones inherentes a la tareas de las PR. Selección versus construcción: La mayor parte de las buenas PO requiere que el alumno. promete premios poco duraderos. por lo que. lejos de disminuir la capacidad discriminativa de los ítems y la fiabili- dad de las calificaciones. la rea- lización de pruebas reales (PR). Son muchas las críticas a las PO. Una buena revisión puede consultarse en el libro de Phelps (2005). dichas propuestas pocas veces consideran el costo en tiempo y personal que implica llevar a cabo el proceso. Artificialidad: Todo examen al uso supone siempre cierta artificialidad. 1. Profesores con experiencia han demostrado repetida y continuamente que un experto puede transformar en PO casi todos los exámenes que se ponen en nuestras aulas. en gran parte. alcanzados sólo mediante alguna forma de aprendizaje memorístico. por otra parte. Por ello. ni específicamente. la memorización de detalles triviales: las PO pueden presentar problemas nuevos que deben resolverse mediante la comprensión y aplicación. a poco que se haga. desarro- . Además. Dentro ya de las pruebas escritas. Por todo ello. no es defendible la posición maniquea de que el aprendizaje o es memorístico o es significativo. Sin embargo. a pesar de que estos datos serían relativamente fáciles de obtener. las aumentan. lo que las hace inviables en la mayoría de los casos. previa elaboración mental acompañada a veces de una construcción material. como alternativa a las pruebas escritas. Por esta razón algunos proponen. la mayoría de alumnos y profesores tienden espontáneamente a evitado. simplificaciones y otras ayudas que las reducen a medir exclusivamente conocimientos artificiales. y que las PO. elige la respuesta entre una serie de alternativas que se le proporcionan. no es cierto que las PO favorezcan sólo. Dichas críticas raramente vienen avaladas por datos experimentales sin prejuicios. el aprendizaje memorístico no es divertido. al menos hay que poner en entredicho la crítica de que las PO facilitan al alumno acotaciones. aunque la mayoría se reducen a malentendi- dos en casos aislados que se transmiten de unos a otros y se perpetúan.Las pruebas objetivas (PO) tienen como denominador común que el alumno. carecen de senti- do muchas de las críticas atribuidas vulgarmente a las PO. mediante un pensamiento creativo y original. no la elección de la que es correcta. mientras que las PO se prestan mejor a hacer un «barrido» más amplio de la materia de examen. se pueden cuestionar en gran medida las críticas de que en las PO. al sugerir posibles respuestas. de la memoria rutinaria o de la asocia- ción verbal no significativa. para comprobar la consecución de logros. En cuanto a la segunda. o casi equivalentes.76 La evaluación de aprendizajes lle los fundamentos para elegir entre las varias alternativas que se le presentan. Adivinanza: Es preciso subrayar que el azar de que «caiga» lo que el alumno sabe -azar siempre implícito en la elección de toda muestra de pre- guntas que el profesor selecciona para todo tipo de exámenes. finalmente. hay que distinguir entre adivinanza informada y adivinanza ciega. el derivado de adivinar la respuesta. llegó a la siguiente conclusión: "En la mayoría de los casos. Respecto del azar más típico de las PO. llamados técnicamente respuestas abiertas (RA). Producir una respuesta no es necesariamente una tarea más compleja y más difícil. que esco- ger la mejor de las alternativas disponibles (Quellmalz et al.afecta más a las pruebas libres (PL). se encontró que las medidas obtenidas a través de RAy PO eran equivalentes. muchos profesores continúan ignorán- dolas y persisten en la creencia de que en sus particulares situaciones las RAy las PO producen medidas de cualidades completamente distintas. o más indicadora de los logros. pues los exámenes clásicos tienen menos preguntas. a través de una revisión de la investigación relacionada con la compara- ción entre las respuestas abiertas (RA) y las PO. La primera proporciona indicaciones válidas de logros: cuanto más sepa el alumno. de que. pues saben que. definidas por su intercorrelación. las calificaciones en el intervalo del azar no son significativamente diferentes de aquellas otras libres del azar. harán pocas adivinanzas ciegas en un examen de PO.. los alumnos muy motivados. Por ello. desde Patterson (1926) hasta nuestros días. No está claro que el proceso mental resultara diferente si no se sugirieran respuestas y si la tarea pedida fuera la producción material de una respuesta. 3. Por todo lo anterior. esto es más seguro y rentable que adivinar ciega- mente la respuesta correcta. dentro de los límites de sus respectivas fiabilidades. 1980). Sin embargo. si las PO están bien construidas. Además. Más aún. es el profesor quien hace la parte más importante de la tarea. las medidas de PO no sólo son conside- rablemente más fáciles de calificar. en una prueba de dificultad adecuada y con tiem- po suficiente. sino que casi siempre son más fiables que las de las RA». . de que el alumno realiza una actividad menos válida. a pesar de las abrumadoras pruebas empíricas de las conclusiones recogidas por Hogan. por poco que piensen. Ebel (1968) y Hills y Gladney (1968) demostraron que. Hogan (1981). al limitarse a seleccionar una información sin construida. es más probable que sus conjeturas informadas sean correctas. no permiten responder correctamente a partir sólo del mero reconocimiento. las PO sean más superficiales y menos realistas para evaluar el conocimiento que los exámenes clásicos. ) como fuente de ideas que deducidas directamente de los objetivos de aprendizaje. además de dominar la materia y la expresión. al menos. sí son un marco que facilita la construcción de ítems de calidad que pro- porcionen interpretaciones válidas. en particular. Soler. Poste- riormente. 4. Determinada requiere. que pueden tener ciertas deficiencias y que.Pruebas objetivas 77 Así pues. El proceso de construcción de cualquier formato de ítem. La relación entre el proceso de construcción de un test y su validez es com- pleja. Coste: Las PO son un instrumento «costoso» para grupos pequeños de alumnos. en la práctica suele ser más fácil usar los materiales de enseñanza (libros. etc. Un metro de un cierto tejido cuesta 3 €. la opinión de que las PO están sometidas a grandes errores por la conjetura y la adivinanza hay. en general. Admiten. y se consideran casi imprescindibles en situaciones en que no coinciden el que enseña. un gran conocimiento de los aspectos psicológicos de la capacidad medida. no es fácil. ¿'Cuántos euros cuestan 5 m? a) 8 b) 10 * c) 15 d) 35 . la variable que se quiere medir. en general. que considerada con muchas reservas. He aquí algunos ejemplos que ponen de manifiesto esta falta de rela- ción entre ítem y objetivo: al. el que construye la prueba y el que la corrige. González- Pienda. Núñez y González-Castro. Se aconsejan sobre todo cuando hay que evaluar una población numerosa de alumnos. apuntes. Pero estamos persuadidos de que no se debe abandonar su uso hasta que se encuentre un recambio con menos defectos. a la hora de formular las preguntas. y de la formula- ción de objetivos. que debe proponer- se de tal manera que un profesor preparado pueda seguido y repetido. Aunque es ésta una condición obvia. debe empezar por la explicitación de lo que se va a comprobar. es una de las más difíciles de cumplir. es decir. 2004). Como en un contexto académico se hará una valoración criterial. pero es imprescindible también explicitados antes de establecer las preguntas. por lo que es frecuente que los profesores la ignoren o afirmen que los objetivos los tienen implícitamente en su mente. rela- ción que influye directamente en la validez y fiabilidad de los resultados obteni- dos. Conseguir el máximo de relación entre el ítem y el objetivo evaluado. supuesto el objetivo. como lo hacemos nosotros. Aunque las normas para construir ítems no sean por sí mismas aval sufi- ciente. no son tan fiables ni tan significativamente discriminantes como debieran ser. esta variable es un objetivo de aprendizaje explicitado a través de unos indicado- res observables (la problemática de la programación. se puede encontrar en Álvarez. * * * Aun los mayores entusiastas de las PO no defienden que sean perfectas. Considerar el siguiente diagrama para responder la pregunta: ¿Qué clase de imagen aparece en el dibujo? a) Real * b) Virtual e) Negativa d) Fragmentada b2. sólo el b2.8 b) 1 * e) 1.5 d) 3. por lo que está relacionado con otro objetivo. Un metro de un cierto tejido cuesta 3 euros. Otras veces la falta de relación entre ítem y objetivo se debe a imprecisiones en la expresión. ¿Cuántos euros cuestan 500 cm? a) 0. Por ejemplo: el. si el objetivo evaluado es clasificar lentes. que requiere además el conoci- miento de unidades. Lee el párrafo y contesta la pregunta siguiente: . el b1 interroga sobre la imagen.5 Nota: Si se trata de evaluar el objetivo «comprender el concepto de propor- cionalidad directa». b1. pág 108 de la 3a reimpresión de 1994). valdría el al. adaptados de Osterlind (1998. que pregunta sobre las clases de lente. pero no el a2. Considerar el siguiente diagrama para responder la pregunta: ¿Qué clase de lente producirá los rayos representados? a) Convexa * b) Cóncava e) Pigmentada d) Polarizada Nota: En los ítems b1 y b2. es válido.78 La evaluación de aprendizajes a2. pero en este contexto se refiere a la idea de «inclusión». . La palabra «comprensivo» en su acepción más común hace referencia a la «tolerancia». posteriormente. ¿Quésignifica el término «comprensivo»? a) Que es tolerante b) Que incluye c) Que es sensible d) Que conoce Nota: No está claro si lo que se pretende es comprobar si se conoce el signi- ficado de una palabra o la capacidad de determinar su significado en un contex- to. de los que analizaremos con más deta- lle el verdadero/falso (y1F) y elección múltiple (EM). citaremos otros tipos de PO. Las PO presentan diversos formatos. de las grandezas y debilidades del hombre». porque trataba ampliamente e integraba muy diversos aspectos de la personali- dad humana.Pruebas objetivas 79 «Todos alabaron su estudio sobre el hombre porque era realmente comprensivo. . OS'V:l/OH5IOVOH5IA SV851nHd . . las preguntas o ítems V/F pueden parecer más fáciles de lo que realmente son. Soporte químico [F] 4. que consideran los ítems V/F un instrumento simple y directo para medir objetivos esenciales de la educación formal.Los ítems verdadero/falso (V/F) se conocen también como «respuestas de dos alternativas». Muchas veces el dominio que un alumno tiene de un área particular de conocimiento queda patente por su capacidad para juzgar la verdad o false- dad de las proposiciones relacionadas con el área en cuestión. Envoltura aérea [F] 2. Juicio no compartido por muchos especialistas. Ante cada una de las afirmaciones siguientes. Envoltura gaseosa '" [V] 3. Un ejemplo: al. ? . la atmóifera es su: 1. La razón por la que algunos tienen a los ítems V/F en baja estima es porque creen que existen métodos mejores para medir aprendizajes. A veces se altera el protocolo y se proponen. Esfera tropocoidea [F] A primera vista. alternativas a V/F tales como: a2. lo argumentan diciendo que la mayoría del conocimiento humano está expresado a través de proposiciones. como sugiere Goring (1971). ~r ~r que (1. de las que se puede decir que son verdade- ras o falsas. y O si se trata de una opinión: Republicano es el sistema de gobierno imperante en Francia [H/O] . Contestar con SÍ/NOa la pregunta siguiente: ¿Esmenor (1. contestar con H si se trata de un hecho. [SÍ/NO] a3. en ellas el alumno califica la formulación de una proposición como verdadera [V]o falsa [F]. Eifera de vapor [V] 5. Con respecto a nuestro planeta. 84 La evaluación de aprendizajes 1. ajena y hostil a la evolución del mundo». 1982: 195):' «Desde el siglo XVI el Japón está gobernado por un schogún. . una fuente podría ser el siguiente párrafo de un libro (Fernández. en una especie de exilio dorado. en el párrafo anterior. Una sociedad inmóvil. Por ejemplo. El país se cierra a toda influencia occidental.) no son suficientes para alterar una sociedad inmóvil. apuntes. los tokugawa y grandes vasallos. suele ser más fácil usar los materiales de enseñanza (libros. para luego seleccionar uno. He aquí algunos ítems formulados a partir de las proposiciones del párrafo anterior: al. ajena y hostil al mundo exterior. 4.) y la penetración de algunos elementos occidenta- les.) mientras los emperadores viven arrinconados. 3.Si no son la mera reproducción de las frases originales. Proposiciones: A partir de la información que ofrecen estos materiales instruccionales. uno verdadero y otro falso.de manera análoga a la de otros formatos. Por ejemplo. a cualquier innovación económica o cambio social. se pueden identificar las dos proposicio- nes siguientes: El schogunato supone en elJapón: . con unos señores poderosos. los ítems pueden evaluar algo más que la memorización vacía de lo estudiado.) como fuente de ideas para las preguntas. por sí mismo. El schogunato limitó la eficacia del poder imperialjaponés [V} . Algunos elementos de transformación. transformar las proposi- ciones seleccionadas en pares de posibles ítems VIF. a partir de cada proposición seleccionada puede formularse una gran variedad de ítems VIF. no limitó la eficacia del poder imperial japonés [F} a2. es decir. donde elpoder imperial no tiene eficacia. etc.. que deducidas directamente de los objetivos de aprendizaje. es decir. cargo asignado a la familia de los Tokugawa. CONSTRUCCiÓN A. (... Así. hacer un resumen en unas pocas proposiciones. Formulación de los ítems: Hay que empezar formulando dos expre- siones paralelas y opuestas de cada aspecto. el surgimiento de una economía monetaria ( . Una etapa de régimen feudal. Objetivo: Es imprescindible tener a la vista la variable u objetivo de aprendizaje que se quiere evaluar. 2. en su palacio de Kyoto. Fuentes de las preguntas o ítems: Como se dijo al hablar en general de las PO. se puede resumir en los cuatro pasos siguientes: 1. como la con- versión de los samurais o guerreros en una elite intelectual. los daimios. El schogunato. debemos seleccionar una muestra de las ideas más representi- vas. El Japón vive una larga época feudal. (. Proceso: El proceso de construcción de ítems VIF. 1. El schogunato supuso para elJapón una sociedad dispersa en intereses particulares [V] B. por el contrario. el ítem bl. el toro como símbolo poético es básico para comprender parte de la mejor obra hernandiana. bl. 1. Por otro lado. los segundos pobres: al. cada profesor.Pruebas verdadero/falso 85 bl. etc.""". Las instrucciones claras son tanto más necesarias cuanto menor sea el nivel de desarrollo del alumno. Los que no saben deben encontrar las respuestas erróneas atractivas. hasta el punto de identificarse plenamente con él en algunos poemas """"""""". Generalmente el schogunato supuso en elJapón una sociedad unida por intereses nacionales [F] b2. En todo caso. Normas: Discriminar entre los que saben y los que no saben es la nor- ma básica para lograr que los ítems cumplan lo mejor posible su cometido. se ofrece como una buena pregunta para controlar la comprensión de una importante relación."". Construir ítems que discriminen de esta manera exige una cierta especialización. dominar una materia no es almacenar una colección mis- . marca las reglas del «juego». los primeros son aceptables. Los que saben deben ser capaces de responder a las preguntas correctamente. homogeneidad de las expresio- nes y otros recursos útiles. Ideas importantes: Las proposiciones deben ser el reflejo de aspec- tos importantes de algo que merezca la pena saber. 1. Miguel Hernández trabajó en Madrid como ayudante de José María de Cossioen la enciclopedia taurina que preparaba para la editorial Espasa-Calpe """"""'''''''''''''''''''''''''' [V] Nota: La referencia biográfica de trabajar con Cossío en la enciclopedia taurina es poco relevante para la poética de Miguel Hernández. agrupadas en tres apartados: cualidades que deben tener las ideas recogidas en los ítems V/F. sin embargo. He aquí ítems V/F que ilus- tran esta cualidad. El toro es un símbolo fundamental de la poesía amorosa de Miguel Hernández. a la duración del examen."""".2. al rigor en las expresiones científicas. Comprobación de capacidades cognoscitivas: Examinar el apren- dizaje significativo es comprobar el dominio que una persona tiene de una materia. Cualidades de las ideas: Son sugerencias sobre los contenidos que se recogen en los ítems. 1. Instrucciones: Estas instrucciones pueden referirse a la presentación de las preguntas y de las respuestas de los alumnos. C."""""""""" [V] a2. al principio del pro- ceso de instrucción. no es necesario repetidas en cada examen. Algunas sustancias se pueden disolver en otras [V] Nota: Afirmaciones como la b2 son demasiado generales como para decir algo útil. Se puede disolver más azúcar en un litro de agua caliente que en un litro de agua fría """'" "'''''''''''''''''''''' [V] b2. A ello pueden ayudar las siguientes sugerencias. Si un objeto con un determinado volumen se rodea de un líquido o gas.3. Respuesta defendible: Las afirmaciones verdaderas. que presentan al alumno expresiones usuales como afir- mación verdadera o alguna alteración como afirmación falsa. los ítems siguientes usan como indicadores de la compren- sión de un principio que se reconozca en algunas paráfrasis no usuales: b1. Lafuerza de empuje sobre un cm3 de plástico es exactamente igual a la que hay sobre un cm3 de hierro. 11. Si un objeto insoluble se sumerge en variosfluidos de diferente densidad. movimiento de tipo social de la región valenciana durante los primeros años del siglo XVI [V] . sino integrados en una estructura que se pue- da usar para tomar decisiones. la fuerza de empuje sobre dicho objeto variará de manera inversamente proporcional a la densidad de losfluidos [F] Con este formato también se pueden presentar problemas difíciles que exi- jan una capacidad de aplicación compleja. lafuerza que experimenta hacia arriba es igual al peso del volumen del líquido o gas [V] b2. así como las fal- sas. Por ejemplo: Se conoce como «germanias» al: al. El término siguiente en la serie 3. 18 es 29 [V] d2. sacar conclusiones lógicas o resolver problemas. Por el contrario. 7. Si los lados de un trapecio son números enteros consecutivos. Un cuerpo sumergido en un fluido experimenta una fuerza hacia arriba igual al peso delfluido desplazado [V] a2. se puede pedir al alumno que lo identifique en una situación concreta: c1.F sólo pueden comprobar la memorización de datos como los siguientes: al. y si el lado menor es uno de los dos ladosparalelos. 4. frases vacías o aprendidas rutinariamente. no debe ser suficiente para permitir que pueda dar una respuesta correcta. Un cuerpo sumergido en un fluido experimenta unafuerza hacia arriba igual a la mitad del peso delfluido desplazado [F] Nota: Estos ítems.86 La evaluación de aprendizajes celánea de elementos separados. Que el alumno recuerde simplemente palabras sin significado. Lafuerza hacia arriba sobre un objeto rodeado por un líquido o gas es igual al área de la superficie del objeto multIPlicada por la presión del fluido que lo rodea [F] Como alternativa para comprobar la comprensión. por ejemplo: d1. por lo que son indicadores de una simple memorización vacía. Es un error bastante extendido el creer que los ítems V. deben ser hechas de tal modo que los expertos no tengan problema alguno en distinguidas. cuando ambos está sumergidos en~ M c2. entonces el área del trapecio es 18 unidades cuadradas [V] 1. se pueden apren- der de memoria. que el término «germanía» significaba «hermandad». empero. ya que las «germanías». a causa de las pertur- baciones en la atmósfera. para hacer verdadera la opción a2. y los ricos burgueses y la pequeña nobleza. Sí es cierto. sino que. no debe ser algo de sentido común. «hermanamiento» que se establecía generalmente entre los nobles valencianos durante la baja Edad Media [F] Nota: Evidentemente. por lo que no cumple de forma adecuada la función de comprobar el aprendizaje. . Esta norma aparece más claramente ilustrada en los ítems siguientes: a2. por sí mismo. además de suponer un enfrentamiento entre éstas. ítems que puedan plantear una discusión. Sin embargo. 1. Respuesta no obvia: Para responder correctamente debe necesitarse un conocimiento especializado. la luz de las estrellas parece que parpadea. formadas por artesanos. que no permite discriminar logros de aprendizaje altos o bajos. una disolución saturada sepuede convertir en sobresaturada [F] a3.4. una respuesta falsa de un ítem bien construido debe parecerle tan plausible como una verdadera. en todo caso. He aquí un ítem de sentido común: al. La respuesta correcta debe parecer obvia sólo a aquellos que dominan la materia del examen. tanto en Valencia como en Mallorca. Por ejemplo: a3. se puede conseguir una sobresaturada (a2). Hay que evitar. no hay posible discusión sobre la veracidad o falsedad de estos ítems. el mismo sentido común induce al alumno mal preparado a contestar correctamente el ítem a3. suena a frase introductoria de capítulo de libro que se va a desarrollar posteriormente. Las estrellas emiten luz que parpadea [?] Nota: Una persona bien informada puede juzgarlo como falso porque no es la luz enviada por las estrellas la que parpadea. A un alum- no sin conocimiento adecuado. cuyo carácter era más bien político-. Los alimentos congelados de alta calidad pueden estropearse al cocinarlos [V] Nota: ¿Quién puede dudar de la posibilidad de cocinar mal cualquier tipo de alimento? El ítem es tan obviamente verdadero. se puede conseguir que una disolución saturada pase a sobresaturada. Una disolución sobresaturada contiene más soluto por unidad de volumen que una disolución saturada [V] Nota: Parece razonable creer que. añadiendo más soluto a una disolución satu- rada. El que ha estudiado el tema sabe que el solmo que se añade a una disolución saturada no se disuelve. Añadiendo soluto. tuvieron un carácter eminentemente social. pero esto no es suficiente. -no así las «comunidades» de Casti- lla. El alumno que contesta únicamente por sentido común lo hará de manera errónea. sólo evaporando el disolvente o enfriando.Pruebas verdaderoljalso 87 a2. respuestas incorrectas de los alumnos mal preparados. de 100 g de masa. no del contexto externo. tener un significado completo. Resultan. que en este formato no suele exis- tir. la sumerge hasta la mitad. La verdad es que si su peso. se recomienda usar estos términos al revés. La sal se disuelve en agua caliente y sepuede recuperar evaporando el disolvente [V] a3. indu- cen respuestas incorrectas en los alumnos mal preparados. y por tanto más fácil de entender y más eficaz para evaluado. para confundir a los «expertos en hacer exámenes».1. expresiones tales como «todo» o «nunca» en afirmaciones verdaderas pueden inducir. cada palabra del ítem es importante. sean falsas. además. expresiones que ayudan a los «expertos en hacer exámenes» a contestar bien aun desconociendo la materia. se necesitarán otros 100 g para sumergida toda. tanto externa como interna. Un ítem que se centra en un solo objetivo es generalmente más conciso. concisas y claras como lo permitan las recomendaciones anterio- res. Teniendo todo esto en cuenta. 2. también. es decir. La sal disuelta en agua sepuede recuperar evaporando el disolvente . debe reducirse a una sola proposición con oraciones cortas y tan simples. provocado por los 100 g.2. formular afirmacio- nes que. [V] a2. Homogeneidad: Se recogen las sugerencias sobre la necesaria homoge- neidad. A esto se debe que el primero de los siguientes sea más fácilmente inteligible que los otros dos: al. así. sean verdaderas y otras que. pero. Por el contrario. Para sumergirla completa- mente se necesita unafuerza adicional hacia abajo de 50 g [F] Nota: La pelota. acompañadas de «generalmente» o «con frecuencia». o incluso sugerir la incorrecta. de las expresiones. está sumergida hasta la mitad. que el que se basa en varios. 2. Concisión: La idea debe expresarse sin ambigiledades ni imprecisio- nes de lenguaje. en las falsas. La sal se disuelve en agua caliente.88 La evaluación de aprendizajes Desde el punto de vista opuesto. el azúcar en aguafría [V] 2. Debe. Determinantes específicos: Los profesores sin experiencia suelen usar palabras extremas como «siempre» o «nunca» en las afirmaciones falsas. dependiendo totalmente del contenido interno. «con frecuencia» o <<general- mente» en las afirmaciones verdaderas. Así: . acompañadas de «siempre» o «nunca». Laverdad es que términos tales como «alguno» y «generalmente» proporcio- nan datos irrelevantes en las proposiciones verdaderas. Por todo lo cual. lo que da a la mitad de 100 una verosimilitud superficial considerable. Unapelota de goma de lOOg flota sobre la superficie de una piscina de agua de manera que exactamente la mitad está sumergida. se puede usar una lógica superficial para enmascarar la respuesta correcta. mientras que usan atenuantes tales como <<algunos». Por ejemplo: a4. 3.. ya que las respuestas contestadas como verdaderas por todos los alumnos manifiestan el elemento común.... Todosintagma. En este sentido. no el discriminatorio. entre ellos.. por su connotación absoluta... más que impide.. las expresiones «por sí mis- mo»... en la región valenciana y durante el siglo XVI... a ejecutarlos con su capacidad máxima.... Las afirmaciones verdaderas.. Por ejemplo. con frecuencia. La falsedad de las siguientes proposiciones se basa precisamente en este recurso: al. La ansiedad de los alumnos en los exámenes disminuye la eficacia de un test como instrumento para medir logros [F] Nota: Muchos alumnos sienten ansiedad en los exámenes... El soneto estáformado por dos cuartetos y dos tercetos [V] a2. lo arrinconó en una especie de exilio dorado... el añadido «siempre».. generalmente. 3....Pruebas verdaderoljalso 89 al.. Las afirmaciones esencialmente verdaderas no deben convertirse en falsas añadien- do simplemente una negación. la negación añadida al ítem aZ lo hace innecesaria- mente más confuso que el al: al. los ítems anteriores. «muy poco» o «nada» dan un tono de sinceridad y corrección a la afirma- ción que oculta su falsedad al que no sabe. En cambio.2....... 3.. Por otra parte.... les hará dudar de su veracidad. el shogunato. alentó elpoder imperialjaponés [F] a3. lejos de alentar el poder imperial japonés....... discriminan más que las falsas [F] a2. Preconceptos: Hacer que la respuesta falsa recoja algún preconcepto o creencia popular incorrecta sobre el tema de la pregunta.. El término «germanía»... lo que discrimina en un examen son las respuestas fal- sas....1.. como hemos visto anteriormente en el texto de Fernández (198Z).. les dan cierto aire de veracidad que ayuda a atraer hacia ellas a los «expertos en ítems»... formulados con las expresio- nes «generalmente» (al) y «con frecuencia» (aZ). Evitarnegaciones: El ítem no debe incluir una negación artificial.... es una unidad de comunicación con sentido completo [F] 3. Frases familiares: En las afirmaciones falsas es conveniente usar fra- ses familiares que suenen a verdad. en el último (a3). Los versos de arte menor son los usados por poetas «menores» o de segundo orden [F] a2. por sí mismo.. Por otro lado.. las frases negativas suelen crear más confusión que las afirmativas. siempre significó «hermandad •. Recursos: Se recogen otros recursos para formular ítems V/F. pero a la mayoría esto les ayuda. En cambio.. El schogunato.. Un «no» añadido artificialmente puede pasar inadvertido...... 3. El soneto no estáformado por dos cuartetos y dos tercetos [F] .. [V] Nota: Evidentemente.. como los EM CEbel. se citan ítems típicos del formato V/F como los siguientes: . Por consiguiente. la influencia de la adivinanza ciega disminuye confor- me el examen tiene más ítems. una hora de examen con bue- nos ítems V/F suele ser tan efectiva como con otros formatos. Sin embargo.95. se deben aplicar cuando se dispone de poco tiempo para preparar un examen.000. 1981). APLICACiÓN Consideradas las ventajas e inconvenientes que ofrecen estas pruebas V/F. Más aftrmaciones falsas que verdaderas: Conviene saber que. Los exámenes académicos de 100 ítems V/F han mostrado unos coeficientes de fiabilidad de 0. Aunque ítem por ítem los V/F tienden a no discriminar entre alumnos de alto y bajo rendimiento académico. Por consiguiente.90 La evaluación de aprendizajes 3. 2. ya que en este caso los alumnos se concentran en recordar datos aislados con un aprendizaje memorístico rutinario. debemos recordar que un profesor no hace exámenes para que los alumnos contesten mal. en un examen de 100 ítems V/F por adi- vinación sólo ciega es menor de 1/1. Como consideración final a estas sugerencias. 1980). ya que los V/F son relativamente fáciles de escribir. lo que se pre- tende es conseguir una correcta discriminación entre los que dominan y no dominan una determinada materia. más que las afirmaciones verdaderas. en caso de duda. digamos de 70. por lo que las afirmaciones falsas. parece que debe incluirse una mayor proporción de afirmaciones falsas.85 y 0. No obstante. La única razón por la que un profesor utiliza estos recursos. la técnica produce sus frutos. en conjunto. con- viene recordar las circunstancias que potencian su aplicación. Aunque los alumnos conozcan esta regla. más que en un aprendizaje significativo para comprender y desarrollar un pensamiento crítico. suelen discriminar a los alumnos que saben de los que no saben CBarkery Ebel. Esto avala la conclusión de que buenos tests V/F no tienen por qué verse viciados por el azar CEbely Frisbie. En favor de esta censura.4. estas pruebas V/F deben evitarse en las siguientes circunstancias: a) Cuando no se puedan controlar razonablemente las consecuencias de la adivinanza. la probabilidad de conseguir una calificación moderadamente buena. al reducirse a referencias sencillas que se suelen comunicar sobre la materia en una clase oralmente o por escrito. es que las respuestas correctas indiquen verdaderamente el logro que intentan evaluar. que hacen las respuestas incorrectas atractivas a los que no saben. quizá hasta un 60 o 70%. los alumnos tienden a aceptar más que a rechazar las afirmacio- nes. 1977). b) Cuando se limiten a comprobar la memorización de datos triviales. pero en las formulaciones utiliza- das en los ítems V/F debe ser reducida al máximo. sino que puede ser útil. La ambiguedad intrínseca. Sin embargo. es posible hacer preguntas que controlen la capacidad de los alumnos para memorizar datos significativamente. e incluso aplicados. debemos distinguir entre ambigue- dad intrínseca y ambiguedad aparente. y. compren- der conceptos y principios. El autor del Quijote es Cervantes [V] a2. Este tipo de ambiguedad es no sólo inevitable. de los «estándares» de la verdad en este tipo de ítem. La ambiguedad no es un defecto inherente a los ítems V/F. Lafórmula química del agua es HP [V] a3. con algún tipo de carencia. No obstante. y los ítems V/F en particular. Una causa puede ser que los profesores a veces extractan frases de los libros de texto para usarlas como ítems. e) Cuando no se pueda evitar la ambigiiedad. por parte tanto del alumno como del profesor.Pruebas verdaderoljalso 91 al. lo que ayuda a discriminar entre los dos. aun en un libro de texto bien escrito. es posible que no siempre pueda ser eliminada. La ambiguedad aparente puede deberse a errores en el conocimiento de los alumnos. haciendo que la tarea de responder sea más difícil para el mal estudiante que para el bien preparado. Por supuesto que es verdad la acusación de que hay ítems V/F ambiguos y carentes de significación. El sujeto concuerda en número y persona con el verbo [V] . Otra es caer en la imprecisión por querer llevar hasta el límite la norma de la concisión y ser excesivamente breves: la brevedad imprecisa lleva a peores consecuencias que la verbosidad clara. ya que muchas de ellas se limitan a reco- ger la estructura y la organización del discurso. no tiene por qué considerarse falso. Más aún. Un ítem con una idea no completa. ciertamente serían de poco valor. En el Sistema Solar hay seisplanetas [F] Nota: Si fueran estas las únicas preguntas que se pudieran hacer con ítems V/F. hay que evitar afirmaciones que caigan en una zona indefinida entre la verdad y la falsedad. la tarea del examinador será más fácil y habrá más posibilidades de enriquecer las pruebas de evaluación en general. Si el profesor consigue comu- nicar este extremo. Por ejemplo: al. Hay que prevenirse contra una gran fuente de ambiguedad: la incertidum- bre. Escribir buenos ítems V/F es más una tarea de construcción creativa que de mera copia. puesto que a veces el lenguaje conlleva cierto grado de imprecisión. por ejemplo en las instrucciones generales de los procedi- mientos que va a usar en la evaluación. como quedó claro al hablar de las normas de construcción. sin embargo. con afirmaciones verdaderas que no son completas. y el alumno lo comprende y acepta como una regla más del «juego». que causa dificultades tanto al experto como al aprendiz. pocas de sus frases tomadas literalmente se podrían convertir en buenos ítems. Las tareas que se hacen en casa son de mayor calidad que las hechas m~ M d) Cuando se estime que perjudican el aprendizaje. éste puede concordar con el atributo. Sin embargo. y los alum- nos tienen que buscar puntos de referencia alternativos en su estructura men- tal. sin ser falsa (Le atraían la belleza o la dote de la joven). al establecer dicotomías artificiales para su valoración. expresando en uno y otro caso un matiz de estilo. según se sienta la disyunción. El monte Aneto es una montaña alta [?] a2. Ross (1947: 349) concluyó que los efectos de sugestión negativa en los ítems V/F son mucho menores de lo que a veces se presume y que quedan ampliamente compensados con los efec- . Las tareas que se hacen en casa son de mayor calidad [?] b2. de manera que la altura del monte Aneto se pueda juzgar en relación con las alturas de otras montañas. yen muchos otros si se cree conveniente. Incluso. El ítem V/F que dice: «ElAneto es una montaña alta» lleva al alumno a buscar picos altos. dicen que la manera categórica con que se presentan y cali- fican las respuestas puede proporcionar al alumno la falsa noción de la simplici- dad del conocimiento. Otra fuente de ambiguedad es el hecho de que en los ítems V/F las afirma- ciones generalmente son absolutas sin un contexto que las matice. en una oración copulativa con el verbo «ser». a2. no con el sujeto: Eso son habladurías. con lo que el verbo ha de concordar en singular (El protagonista o personaje principal de la película hace una gran interpretación). sino aclarativo o explicativo. la conjunción «o» no tiene un valor pro- piamente disyuntivo. pues. El verbo referido a dos o más sujetos singulares unidos por la conjunción disyuntiva «o»concierta en plural con todos ellos [?] Nota: Esta afirmación sería inaceptable. Así. Los críticos de los ítems V/F afirman que su uso tiene efectos nocivos para el aprendizaje. no siendo completamente cierta. facilitando así que los recuerden. pues queda indefinida entre verda- dero y falso. a veces. por varias razones. El monte Aneto es una montaña más alta que el Naranjo de Bulnes [V) O también: bl. el verbo también puede concordar en singular (Le atraía la belleza o la dote de la joven). por ejemplo: al. En primer lugar. La presentación de afirmaciones falsas como si fueran verdaderas puede tener el peligro de exponer al alumno a los errores.92 La evaluación de aprendizajes Nota: Esta afirmación se considera por generalización como verdadera o aceptablemente verdadera. es sencillo liberar los ítems de toda ambiguedad introducien- do explícitamente una comparación dentro de la pregunta. acusan a las preguntas V/F de exponer al alumno al apren- dizaje de conocimientos erróneos. En segundo lugar. por ejem- plo. dado que. En este caso. a evaluar logros educativos. la actitud de los alumnos es de reto activo y crítico". pueden contribuir. cuando afirma: «Que lasfalsas afirmaciones sean peligrosas o no depende en gran manera del contexto en que se presentan. Una afirmación falsa en un libro de texto. pues. A ello se añade elfeedback de la corrección. Resumiendo. puede ser muy seria. podríamos decir que los ítems V/F. como las otras PO. bien construidos. .Pruebasverdaderoifa~o 93 tos positivos. Pero la situación es diferente con los ítems V/E En éstos. hacia el que la actitud típica de cualquier alumno es de aceptación pasiva y acrítica. . nW .L.i'dl.1 iO SY8inHd .1 NOI))i'i . I j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j J . Un ejemplo. se anotó el nivel que había alcanzado el agua dentro del cuentagotas. BASE: ¿Qué van'able se modificó en el expen'mento? DISTRACTORES: a) Laforma del cuentagotas. una base o enunciado. Las alternativas pueden ser frases completas. un dibujo. 35 de la Y reimpresión de 1994). es decir. gráfico o texto con la información necesaria.. Al cabo de una hora. RESPUESTA: d) La temperatura del aire y del agua en elfrasco. que presenta un problema.·. con una frase incompleta o preferentemente una pregunta. por lo que el ítem se pre- senta en forma abreviada. aunque es mejor reservar este término para las respuestas incorrectas). b) El nivel de agua en elfrasco. adaptado de Osterlind (1998. DIBUJO: r~JJI~lllJ. . A continuación se calentó el frasco durante 30 segundos. con la base o enunciado y las alternativas (a veces también se les llama distractores. Con frecuencia no son necesarios tantos detalles.·_· TEXTO: Se hizo un experimento que consistió en hacer flotar un cuentagotas en un frasco lleno de agua. de las distintas partes de unítem EM: INSTRUCCIONES: Usar el dibujo explicado en el texto para contestar la pre- gunta. y la res- puesta correcta. c) El intervalo de tiempo entre la toma de temperatura. distractores o respuestas plausibles incorrectas. En su forma más completa constan de unas instrucciones. una serie de alternativas.Los ítems de elección múltiple (EM) son pruebas en las que el alumno debe sólo seleccionar una de entre un conjunto de posibilidades limitadas. pág. fragmentos de oraciones o incluso palabras aisladas o números. las alternativas pueden contener alguna corrección o relevancia. b) Su poesía utiliza sabiamente las aliteraciones y otros recursos sonoros. b) Defecto de electrones.98 La evaluación de aprendizajes BASE: De las actividades que realiza el profesor. ¿Qué es la neviza? a) Polvo de nieve caído en el mismo día. * c) Nieve comprimida que se hace hielo. Existe una serie de variedades. profunda y mística. RESPUESTA: d) Recoger datos del proceso educativo. entre las que citamos las siguientes: Escoger la única respuesta correcta: Es la variedad más popular y acon- sejable. por ejemplo: a2. dentro de los límites razonables de un ítem EM. d) La abrasión del hielo cristalizado. este extremo es mejor explicitarlo. a4. * c) Es una poesía amorosa. b) Formular objetivos. b) Una variante del hielo cristalizado. c) Un determinado potencial. c) Elegir metodología. para uso común de sus habitantes. en un formato V¡F-. En muchas de las más importantes preguntas que se pueden hacer. en rela- ción con las otras alternativas en un formato EMse tratan como incorrectas. * d) Igual número de protones que de electrones. * b) Campo cercano a un pueblo. d) Campo comunal situado a la vera del río. d) Su poesía es un diálogo incontaminado con este mundo. a3 ¿Cuál es la meior definición del término «ejido»? a) Campo de proPiedad comunal en el monte de pasto. la más correcta o la más completa en la gradación de respuestas válidas que se presenta. Se dice que un cuerpo NO está cargado cuando tiene: a) Exceso de electrones. ¿Qué afinnación caracteriza meior la poesía de san Juan de la Cruz? a) Es una poesía escrita en liras. Eliminar la opción incorrecta: Más adelante se harán precisiones sobre esta variedad. ¿cuál pertenece a la evaluación? DISTRACFORES: a) Seleccionar contenidos. es preferi- ble formular no una única respuesta correcta (dado que a veces es difícil. Las menos correctas o menos completas. sino la mejor respuesta. formular esa única respuesta absoluta- mente válida). Así pues. c) Campo de proPiedad comunal para explotación ganadera. que aisladamente se podrían considerar como verdad -por ejemplo. . aunque una debe ser más completa o más relevante. Aun- que en un ítem EMde única respuesta correcta se sobren tiende que es la «mejor» entre las propuestas. al. es necesario: a) Formular una pregunta o una afirmación incompleta que encierre clara- mente un problema sobre la proposición. Debe indicárseles que la probabilidad en tanto por ciento de que sus siguientes hijospadezcan la enfermedad es aproximadamente de: a) 100 b) 50 c) 33 * d) 25 CONSTRUCCiÓN 1. Formulación de ítems: Para desarrollar ítems EM a partir de proposi- ciones como las anteriores. Proposiciones: Como se dijo al hablar en general de las PO y en particu- lar de los ítems V/F. Lospadres de la niña desean saber si otros hijos que pudieran tener nacerían con fibrosis quística. expresada con pocas y bien eSCDgidas palabras. sería de esperar que los resultados de la prueba del sudor manifestaran concentraciones: a) Baja de Na+y elevada de Gr. b) Normales de Na+y Gr. es indispensable fijar claramente y tener a la vista el objetivo que se va a valorar. cada vez. A. a5.Pruebas de elección múltiple 99 Base común: Se aprovecha una misma información para hacer varias pre- guntas sobre ella. los EM se construyen mejor y más adecuadamente a partir de ideas recogidas en los materiales de instrucción. es la base o enunciado del ítem. Por ejemplo: al. c) Elevada de Na+y normal de el-. Objetivo: Como en cualquier situación de evaluación. tal como hoy la entendemos. a pesar de su apetito voraz. El embrión del parlamentarismo actual hay que buscarlo en el mayor poder que. 3. los barones y terratenientes fueron acumulando. 1. y que forzó a los monarcas a formar asambleas. Una niña de 8 meses de edad ingresa en el hosPitalpor el escaso aumento de peso. Si este diagnóstico es correcto. El universo en que nos movemos se trata de un espacio hostil a la vida. análogo al citado en los V/F. a2. * d) Elevadas de Na+y Gr. . 2. 2. se puede resumir en los siguientes pasos: 1. La presencia de esteatorrea y neumonía del lóbulo superior derecho sugierefibrosis quística. b) Proporcionar una respuesta aceptable a la pregunta. Proceso: El proceso de construcción de ítems EM. y en algunas se añaden justificaciones racionales. c) generalmente cargado de materia continua. es un espacio: a) azul. 2006). por ejemplo. Es especialmente importante que las instrucciones generales. la opción correcta debe estar repartida entre las distintas ubicaciones posibles. elemento puramente europeo en la confor- mación cultural del siglo XliI. puede tenderse a dejada como la primera opción. tal como hoy la entendemos. d) que. Presentación: En un conjunto de ítems. que permitieron a los europeos conectar con las culturas orientales. ¿Cuál es el embrión del parlamentarismo actual? a) Las Cruzadas. de donde incorporarían el hecho de parlamentar. A veces y sobre todo si la correcta es la primera en ser construida. que exigió resolver sus diferencias y conseguir sus acuerdos en parlamentos asamblearios. Instrucciones: Hay que distinguir las instrucciones generales de las de cada ítem. * c) El cada vez mayor poder que los barones y terratenientes fueron acumu- lando y que forzó a los monarcas aformar asambleas. Normas: Nos centramos. El universo. D. a la a) debe correspondede una cuarta parte de los ítems. Los alumnos se adaptan y acostumbran con rapidez. en que nos movemos. Sin embargo. que facilita la vida del planeta Tierra. Martínez y Muñiz. Siguiendo esta secuencia. proporciona vida por transmisión asintótica. Vale aquí también lo dicho acerca de las pruebas V/F. son los distractores. en el conjunto de la prueba. de tal modo que. una no aparezca más a menudo que otra. 2004. sencillamente. otras veces se extrema la precaución haciendo que no aparezcan nunca o casi nunca en esta ubicación. se pueden desarrollar ítems como los que siguen: al. Evítese cualquiera de esas tendencias u otras que distorsionen un reparto equitativo. No suelen ser grandes . a2. que en ciertos aspectos son comunes a todas las PO. evitando toda tendencia que pueda ser descubierta por el «experto» en exámenes. que tendría así una pista indebida (Moreno. d) El creciente poder de la burguesía. con cuatro distractores. haciendo que cada posición de la res- puesta correcta tenga una misma proporción. en aquellas sugerencias especí- ficas para formular y presentar buenos ítems EM. * b) hostil a la vida. e. sólo unas pocas han sido contrastadas en investigacio- nes rigurosas. La mayoría de ellas reflejan conclusiones prácticas a las que han llegado expertos en construidos. b) La influencia de la Iglesia. dónde y cómo responder. criterios de calificación. generalmente. Se pueden hacer varias versiones de las mismas pruebas con sólo colocar los distractores en distinto orden. Cada profesor tiene una ten- dencia a colocada en un lugar determinado.100 La evaluación de aprendizajes c) Proporcionar varias respuestas plausibles pero incorrectas a la pregunta. que transmite la vida. siempre difíciles de hacer en esta materia. etc. sean claras. que se refieren de manera uniforme a toda la prueba. B. por ejemplo: tiempo disponible. A continuación. En cualquier caso. Consideremos este ejemplo: f Al usar la ecuación e = 1/2 g para calcular el tiempo que tarda un cuerpo en caer desde una altura «h» a la tierra.las características de la información con que se explicitan y otras caracterís- ticas complementarias. Pocos textos escritos se leen tan atentamente para comprender su sig- nificado. incluso imposibles. Ideas: Se resumen las características que deben tener los datos y con- ceptos que se vierten en los ítems EM. las estrategias instruccionales y las técnicas complejas de producción de PO. no se pueden reducir a comprobar una lista de normas. trataremos de las respuestas. explícito o implícito. c) «g»para grandes alturas y la resistencia del aire para alturas menores. o incluso imposibles. se miran con «lupa». ¿qué factor introducirá mayor error? a) Variación de «g». posteriormente. por lo que el propósito de su sintaxis es comunicar significados explícitos tan eficazmente como sea posible. como las PO. Por el contrario. agrupadas en tres aparta- dos: las características que deben tener las ideas que se recogen en los ítems EM. Novedades: Es deseable evitar en los exámenes el uso de las mismas preguntas y problemas que se usaron durante la explicación. suponen una comprensión profunda de la capacidad de los alumnos para interpretar y responder los distintos ítems y una gran originalidad para crear situaciones de evaluación adecuadas. d) La resistencia del aire para grandes alturas y «g»para alturas menores. refuerza al alumno que intenta comprender lo que se le enseñó y penaliza al alumno superficial. sin embargo. los profesores llegan a formular mejores preguntas si conocen y siguen estas sugerencias que si las desconocen o las desprecian. aportamos algunas de ellas para elaborar la base del ítem.1. además del dominio de la materia. 1. Pedir que los alumnos predigan lo que pasa- ría en circunstancias poco usuales. Sin embargo. Es difícil exponer los criterios para construir buenos ítems EM. es una buena manera . Nota: La variación de la resistencia del aire puede hacer que el movimiento sea uniforme y llegar a invalidar totalmente la ecuación que se refiere al movi- miento uniformemente acelerado. una por una. Estos criterios se pueden reducir a que las preguntas sean claras ypertinen- tes. introducir preguntas y situaciones problemáticas nuevas. * b) Variación de la resistencia del aire.Pruebas de elección múltiple 101 los efectos de obviar alguna de estas sugerencias. 1. el rigor en el uso del vocabulario y de la expresión escrita. Popham (1984) afirma que llega a ser un arte. nos aventuramos a detallar algunas sugerencias que ayuden a construir ítems precisamente con dichas cualidades. La competencia para construidos. Construcción de la base: La función de la base o enunciado del ítem es fami- liarizar al alumno con el problema que se le propone. 102 La evaluación de aprendizajes de medir su comprensión de los principios pertinentes. Este tipo de tarea con- sigue identificar al alumno que puede responder a partir de una total compren- sión de los principios sin tener que recurrir a cálculos tediosos. 1.2. Pregunta directa: Con frecuencia es preferible una pregunta directa, expresada en forma interrogativa, ya que no sólo ayuda a presentar al alumno un problema más específico, sino que también puede centrar la intención del examinador para evitar distractores irrelevantes que no vengan a cuento. Hay, pues, que expresar la base del ítem tan directa, exacta y simplemente como sea posible, evitando lo innecesariamente complejo. Por ejemplo: aJ. Desde el punto de vista económico, ¿cuál de estas propuestas para mantener la paz mundial supone el menor respaldo hacia la capacidad militar de la energía atómica? a) Debe construirse una fuerza policial internacional. b) Deben adaptarse programas permanentes de entrenamiento militar uni- versal. * c) Deben aumentarse los efectivos de lasfuerzas militares vigentes. d) Las naciones democráticas deben constituir una alianza militar. Nota: El significado de la base de este ítem, aun después de leerla cuidado- samente, no está claro. La confusión se produce porque tiene un enfoque nega- tivo y parece combinar dos premisas diferentes para emitir un juicio: la econo- mía y la energía atómica. Se recomienda también utilizar la forma impersonal y evitar dirigirse al alum- no en segunda persona. Es mejor la formulación impersonal del ejemplo b2 que la del b1: bJ. De acuerdo con las normas sanitarias, ¿cuáles son losprimeros auxilios que debesprestar a un epiléptico? b2. ¿Cuálesson losprimeros auxilios que se deben prestar a un epiléptico? a) Mantenerlo tendido de espaldas. b) Colocarlo de lado. c) Darle de beber. * d) Introducir algo entre sus dientes. 1.3. Respuesta definida: En su forma ideal, la respuesta a un ítem EMdebe ser lo suficientemente correcta, de manera que no admita diferencias de opinión, ni se fundamente en afIrmaciones cuya validez puedan contradecir expertos com- petentes en la materia. Sin embargo, no hay que evitar preguntas importantes por el hecho de que no haya una respuesta completamente correcta; se trata de la variedad de escoger la mejor respuesta antes mencionada. Aunque los examinadores puedan deducir sus ítems de proposiciones que no son absolutamente verdad, sino sólo muy probables, las preguntas de la base deben tener respuestas definidas. Las preguntas indefinidas pueden proporcio- nar temas de discusión, pero no son buenos ítems para evaluar logros; por ejemplo: Pruebas de elección múltiple 103 al. ¿'Quésuceso ha sido de mayor importancia en la historia de España? a) El descubrimiento de América. b) La unificación, con Granada y Navarra, de los reinos peninsulares. c) La expulsión de losjudíos. d) La romanización hasta el Norte peninsular. Nota: No es fácil que los expertos se pongan de acuerdo en cuál de estos sucesos es el de mayor importancia en la historia de España. La importancia de un suceso depende del punto de vista de la persona que hace el juicio y del contexto en el que lo juzga. La base de un ítem puede pedir opiniones de los expertos; sin embargo, no es aconsejable pedir opiniones de los alumnos. Éstos, obviamente, dan siempre su opinión sobre lo que consideran correcto e importante, pero sus respuestas están también siempre expuestas a crítica y corrección si difieren de lo que piensan los expertos. Cuando es relevante examinar los puntos de vista, del profesor o de algún autor singular, distintos de los libros de texto que usan los alumnos, hay que definido especificando en la base del ítem la fuente de autoridad. Expresiones tales como ,<Deacuerdo con la explicación del profesor» o «De acuerdo con Fulano de Tal»,por ejemplo, pueden ser necesarias para establecer el marco de referencia en el que los alumnos deben responder. a2. Con respecto a la invasión musulmana de Hispania, Carmen Codoñer dice que se trató de: * a) Ocupación por capitulación. b) Conquista militar. c) Alianza de cooperación. d) Invasión pacífica. Nota: No se pregunta una teoría generalizada, sino la opinión de una autora. Tales situaciones, sin embargo, no deben ser frecuentes, ya que las buenas preguntas EM deben tratar de ideas generalmente admitidas como importantes y significativas. 2. Información completa: El segundo grupo de sugerencias se refiere a la necesidad de dar al alumno claramente toda la información que necesita para responder la pregunta. 2.1. Base autosuficiente: Es lo más determinante y característico de los buenos ítems EM. El enunciado de la base debe incluir una idea completa, es decir, lo principal del contenido, ya que al desplazado a las diferentes opciones obligaría a leer una excesiva cantidad de texto a veces redundante, lo que pue- de dificultar una adecuada comprensión del ítem. Si se eliminan los distractores de un ítem EM, automáticamente debe transformarse en una respuesta abierta (RA).A continuación transcribimos tres ejemplos: al. África del Sur: a) Está cubierta en su mayor parte de bosques tropicales. 104 La evaluación de aprendizajes b) Una de sus industrias es la extracción de diamantes. c) Está rodeada de países políticamente hostiles. d) Lafalta de transportes entorpece el desarrollo de su economía. Nota: La base, «Áfricadel Sur», sin los distractores no tiene sentido. Hasta que el alumno lea todas las respuestas, no sabrá a qué se refiere la pregunta. La formulación de la base es ambigua, lo que produce frustración en los alumnos proporcionando medidas no fiables. a2. Señalar la afirmación correcta: a) La anáfora consiste en repetir una palabra al comienzo de un mismo verso. b) Versosde arte menor son los escritos según la regla del «ars minore». c) La estructura métrica de la lira es 7a ] ]B 7b 7a ] ]B. * d) La sinéresis consiste en formar un falso diPtongo en una palabra dentro de un verso. Nota: Es éste un protocolo que se usa con frecuencia. En realidad es un ítem V(F presentado como EM, por lo que, en la medida de lo posible, se debe evitar porque contradice la norma que estamos comentando: la base no proporciona toda la información, por lo que, eliminando los distractores, el ítem no tiene sentido. Moreno et al. (2004) lo ilustran proponiendo dos versiones del mismo ítem; a saber, una primera (a3) des aconsejable y una segunda versión (a4) corregida conforme a esta directriz. a3. En Física, sublimación: a) Supone un cambio de materia sólida a maten'a gaseosa. b) Se refiere a un cambio de materia líquida a materia sólida. c) Consiste en un cambio de materia gaseosa a materia líquida. d) Es un cambio de materia líquida a materia gaseosa. a4. En Física, se denomina sublimación a un cambio de materia: * a) Sólida a gaseosa. b) Líquida a sólida. c) Gaseosa a líquida. d) Líquida a gaseosa. 2.2. Condiciones: Es necesario introducir todas las condiciones para hacer que la respuesta sea correcta, por ejemplo: ¿Qué cambio ocurre en la composición del aire en una habitación cerrada e ilu- minada, en la que los únicos seres vivos son plantas verdes creciendo? a) Aumenta el C02y disminuye el 02" * b) Disminuye el C02y aumenta el 02" c) Aumentan ambos, el C02y el 02" d) Disminuyen ambos, el C02y el 02" Nota: Este ítem en su formulación original decía: ¿Qué cambio ocurre en la composición del aire en la que crecen plantas verdes? Sólo es posible contes- Pruebas de elección múltiple 105 tar la pregunta si se añade que la habitación está iluminada de manera que ten- ga lugar la fotosíntesis, que está cerrada de forma que la composición del aire no va a ser neutralizada por la ventilación, y que no hay otros seres vivos que puedan consumir el oxígeno más de prisa de lo que se produce. Pero, a veces, para asegurarse de que el ítem tenga una respuesta correcta, los examinadores reducen sus dimensiones hasta tal punto que el problema se diluye. Por ejemplo, es difícil dar una respuesta coherente a: ¿Qué razones lle- varon a la República Democrática Alemana a levantar en 1961 el muro de Berlín? Sin embargo, si se limita la pregunta con la siguiente condición: ¿Qué explicación de la acción de levantar el muro de Berlín por la DDR dio el periódico Frankfurter Allgemeine el 25 de agosto de 1961?, es relativamente fácil contestada, pero deja de tener valor. 2.3. Introducciones: Abunda en la norma anterior. A veces son necesarias frases de introducción para describir la escena o el contexto. Tales frases difie- ren de los preámbulos instruccionales y escaparates retóricos que se mencio- nan al hablar de «suprimir lo irrelevante». Si son necesarias muchas ideas descriptivas y cualificadoras, combinar las descripciones con las preguntas en una misma oración probablemente hace la base del ítem más compleja. Se puede conseguir una expresión más clara pre- sentando estas descripciones e informaciones previas en frases de introducción separadas; en otra se hace la pregunta. Por ejemplo: al. Hace unos 200 millones de años la superficie seca de la Tierra no se presenta- ba separada en los actuales continentes, sino que se presentaba unida en un solo continente denominado: a) Mundo Antiguo. b) Eurasia. * c) Pangea. d) Atlántida. Nota: La base se podría hacer de forma más sencilla, diciendo: Hace unos 200 millones de años la superficie seca de la Tierra no se presentaba separa- da en los actuales Continentes, sino unida en un solo continente. ¿Cómo se llama esta superficie seca de la Tierra? a2. «Cuando miramos al mundo como un todo, está claro que el problema del progreso económico realmente es el más importante». Esta afirmación se cla- sifica como: * a) juicio de valor. b) Conclusión científica. c) Hecho establecido. d) Analogía. Es especialmente importante el modo de presentación de ítems que inclu- yen textos o gráficos. El ejemplo bl incluye un texto yel b2 un gráfico: bl. Leer el texto siguiente para contestar la pregunta: 106 La evaluación de aprendizajes 1. Estaba sentado al borde de la carretera. 2. El campo ardía bajo el sol y una neblina velaba las montañas. 3. La sombra de las moreras flanqueaba la calzada y las viñas confor- maban un paisaje requemado y sediento. 4. Me rendía la fatiga y pensaba en los compañeros de trabajo y en los problemas que habíamos discutido no hacía mucho. 5. Hoy le dije a todos que pensaba de que deberíamos de hablar con Juan. 6. Solo él tiene la solución: Conoce nuestros problemas y siempre estuvo a nuestro favor. 7. Es lo mejor que podemos hacer. ¿Qué expresión es la adecuada para corregir la 5? a) Hoy les dije a todos que pensaba de que deberíamos hablar con Juan. * b) Hoy les he dicho a todos que pensaba que deberíamos hablar con Juan. c) Hoy le dije a todos que pensaba que deberíamos de hablar con Juan. d) Hoy le he dicho a todos que pensaba que deberíamos hablar con Juan. b2. Usar el diagrama siguiente para responder la pregunta: E e En el diagrama se ve un círculo con centro Ay cuatro puntos B, C, D, E en su cir- cunferencia, tales que los arcos BE = DE = 2BD. ¿Cuál es el valor del ángulo agudo BAD en grados? a) 64 b) 70 * c) 72 d) 75 2.4. Suprimir lo irrelevante: Aunque se puede aprender mucho durante un examen, la inclusión deliberada de materiales de enseñanza en las situaciones de evaluación puede reducir su eficacia,sin que aumente su valor instructivo. Con mayor razón, deben evitarse los detalles y preámbulos retóricas que sólo sirven de escaparate o escenario y no ayudan al alumno a comprender la pregunta que se le hace. Por ejemplo: Mientras planchaba su traje, Anselmo se quemó en la mano accidentalmente con la plancha caliente. Esto se debió a un proceso de transferencia de calor por: * a) Conducción. Pruebas de elección múltiple 107 b) Radiación. c) Convección. d) Absorción. Nota: La introducción sugiere que el ítem trata de un problema práctico; pero, realmente, la pregunta se refiere sólo a una terminología científica. 3. Otras características: Se añaden por último otras sugerencias para lograr que el ítem sea claro y pertinente. 3.1. Pistas inintencionadas: Este aspecto se recoge de nuevo al hablar de la homogeneidad de los distractores. Hay que evitar indicios que puedan contribuir a sugerir la respuesta correcta. Es fácil eliminar estas pistas si el pro- fesor está sobre aviso. Sin el conocimiento adecuado, se puede adivinar la res- puesta asociando elementos de la base con una de las respuestas, o identifican- do algún elemento común en las alternativas para elegir la que no lo tenga. En algunos casos, palabras clave de la base, o sus sinónimos, se repiten o están relacionadas con términos de la respuesta correcta. Por ejemplo: al. ¿Qué obra pertenece a la literatura místico-religiosa del siglo XVI español? * a) Noche Oscura del Alma. b) La Ilustre Fregona. e) El Caballero de Olmedo. d) Fuenteovejuna. Nota: El término «alma»de la respuesta correcta está relacionado con la «lite- ratura místico-religiosa» de la pregunta. Las preguntas deben ser también independientes, de manera que el enun- ciado de una pregunta no tiene que dar pistas para responder otra: bl. ¿Cuálde estos insectos es un himenóptero? a) Saltamontes. b) Abeja. e) Escarabajo. d) Mosquito. b2. La abeja es un himenóptero porque: a) recogepolen de lasflores. b) tiene dospares de patas. e) tiene metamorfosis completa. d) carece de patas en el abdomen. Nota: La segunda pregunta da pistas para contestar la primera. 3.2. Negaciones: Las negaciones resultan especialmente atractivas a los examinadores porque son fáciles de formular añadiendo un «no» a los materia- les de instrucción. Sin embargo, las preguntas formuladas negativamente son confusas, ya que requieren que el alumno elija una respuesta que no es verdad o no es característica, complicando, así, la comprensión de un ítem, como apa- ¿Encuál de los siguientes ejemplos se produce un cambio químico? a) Relámpago.108 La evaluación de aprendizajes rece en el siguiente enunciado: «En situaciones difíciles. El par de ítems siguientes ilustra cómo la gene- ralización o la concreción de una pregunta puede usarse para controlar su difi- cultad: bl. FALSA). c) Nieve derritiéndose.3. o más difícil haciéndola más específica. El origen de una Era Glacial debe buscarse en la concomitancia de varias cau- sas. Por tanto. d) donaciones. ya que sus conocimientos adicionales interfieren con la respuesta que se puede dar a par- tir de la mera información que proporciona el ítem. se debe subrayar la expresión negativa para atraer la atención del alumno (NO. sino sólo de estado físico. Por ejemplo: al. 3. 1988). se aconseja evitar las negaciones en la medida de lo posible. Por todo ello. * d) Lafusión atmoiférica del C02y los rayos ultra violeta. aporta conocimientos más allá de la intención del profesor (Lefrancois.. ¿qué no debe dejarse de no hacer?» (Moreno et al. c) La variación de inclinación del eje terrestre. Los distractores simplistas perjudican a los mejores alumnos. Este factor supone una discriminación negativa en contra de los mejores alumnos. Se llama «inhibición pro activa» a la situación en que el alumno. únicamente en el caso e) no hay cambio químico. que se debe tener en cuenta a la hora de construir ítems. Dificultad dosificada: Cualquier pregunta que sea excesivamente fácil o excesivamente difícil para un grupo de alumnos no discrimina sus niveles relativos de logro. b) Árbol quemándose. un alumno con mayores conocimientos reconocerá que los casos a) y d) son ejemplos de cambios eléctricos y químicos. salvo que se pretenda evaluar el dominio de las negaciones. Nota: El alumno que conozca superficialmente las propiedades del cambio físi- co y químico señalará la b). b) El efecto albedo. El alumno sólo puede adivi- nar aproximadamente el grado de conocimiento adicional que se le presupone. Un arancel es un impuesto sobre: a) bienes raíces. entre las que NO está: a) La variación de la órbita terrestre. Sin embargo. la base se puede hacer más fácil haciéndola más general. ¿qué debería evitarse?». d) Arcoiris. debería ser sustituido por otro más entendible como el siguiente: «En situaciones difíciles. En general. . 2004). Si es preciso incluidas. c) herencias. * b) bienes importados. para solucionar un ítem. se pueden citar las siguientes: 1. Definir la clase de cosas a la que deben pertenecer todas las respuestas alternativas. Un arancel altamente proteccionista sobre coches japoneses en la UE benefi- cia más directamente a: a) los fabricantes japoneses de coches. deben estar relacionadas con ella. hay que vigi- lar que los distractores y la respuesta correcta sean homogéneos internamente. b) los ciudadanos europeos que compran cochesjaponeses. Construcción de respuestas: Una vez terminada la base del ítem. El alumno inteligente descartará por ridículos los distractores demasiado alejados de la pregunta. expansión de un gas. sin proporcionar pistas que ayuden al alumno no preparado a contestar correctamente. 2. sin embargo. hay que escribir la respuesta correcta así como un conjunto de distractores o respuestas incorrectas. 1948). 3. Se pueden emplear varias técnicas para preparar distractores plausibles. aire en movi- miento. 1.1. con ello se reduce el número de distractores reales. Contenido: Una falta de paralelismo en las alternativas puede llevar a los malos alumnos a la respuesta correcta. He aquí algunas sugerencias para generar buenos distractores en ítems EM. los distractores deben ser . 4. agrupadas por su homogeneidad interna y externa. Para ello. Homogeneidad interna: Puesto que las opciones intentan ser respues- tas a la misma pregunta. * d) los fabricantes de coches de la UE. Por tanto. c) la administración de los países de la UE. 1. Por ejemplo. El propósito de los distractores es discriminar entre los alumnos que dominan y no dominan una materia. etc. Utilizar los errores cometidos por los alumnos en exámenes clásicos (RA) y de respuesta limitada (RL). si se pregunta lo que enfría un refrigerador eléctrico.Pruebas de elección múltiple 109 Nota: Basta una noción difusa sobre aranceles para responder correctamente a esta pregunta general. la clase de posibles respuestas se define como «cosas que pue- den causar el enfriamiento» y los distractores serían: hielo. Usar afirmaciones verdaderas que no contestan directamente a la pre- gunta. el distractor debe ser una alternativa lógica y plausible que parezca tener relación con la pregunta.aunque a veces no compensa por el trabajo que esto supone (Loree. y completadas con otros recursos que suelen utilizar los expertos. entre otras. Emplear expresiones familiares estereotipadas que tengan alguna asocia- ción con los términos usados en la pregunta y que parezcan atractivas a los alumnos simplemente por un recuerdo vago de haber oído aquellas palabras alguna vez. por tanto. es necesario un mayor conocimiento sobre los aranceles para responder correctamente el siguiente ítem más concreto: b2. 110 La evaluación de aprendizajes relativamente semejantes por su contenido. La llamada «Reconquista de España» comenzó en: * a) Covadonga. La principal diferencia entre la poesía de Carcilaso y la de san Juan. d) Fernández Flórez y Cabriel Miró. la cuarta a una ideología. Nota: Sólo la respuesta correcta realmente presenta una diferencia relevan- te. * d) sobre el amor humano y otro sobre el amor divino. ¿Quéautores son conocidos por sus descripciones de Castilla? * a) Azorín y A Machado. b) las bacterias no pueden resistir la acción osmótica de la salmuera. por fin. no es difícil encontrar ejemplos en los que varias respuestas sean correctas. la segunda y tercera res- puesta se refieren a un hecho y. Las alternativas deben ser además exclusivas e independientemente correc- tas. b) égoglasy epístolasy otro no. c) la sal altera la composición química de los alimentos. por ejemplo. Matizarlos datos: Cuanto más homogéneas sean las respuestas. dado que el valor poético no es cuestión de cantidad ni de en qué género poético o estrofa se escriba. . La carne puede conservarse en salmuera debido a que: a) la sal es un veneno para las bacterias. Desafortunadamente. utilizar el nombre de dos per- sonas que respondan a las condiciones de la pregunta (basta saber uno de ellos para responder correctamente). a2. b) la rebelión de los godos sometidos. Nota: La primera respuesta se refiere a un lugar. 1. d) la doctrina cristiana de liberación.2. Sin embargo. En las cuestio- nes de este tipo. más discriminante será el ítem. d) la salmuera protege a la carne del contacto con el aire. c) Miguel Hernández y Salinas. Por el contrario. este no es siempre el caso. el diferente tema amo- roso es muy significativo. una manera de transformar un ítem difícil para hacerla más fácil es proporcio- nar varios datos en las alternativas. b) Carda Larca y Cernuda. de la Cruz es que uno escribió: a) más obras que otro. c) estancias y sonetos y otro no. No se puede aceptar: a3. consecuentemente. c) la coronación de pelayo como rey de Asturias. por ejemplo: al. Nota: La b) es una explicación de la a). en este caso. más difícil y. por lo que se pueden señalar ambas como correctas. Distractores plausibles: Es obligado evitar alternativas jocosas. parece razona- ble concluir que responder por eliminación no se debe considerar como un problema serio. escogiendo la respuesta mejor a través de un proceso racional. Por estas razones. aunque no hay que sacrificar la impor- tancia y significado de las preguntas para ganar brevedad en las respuestas. mientras que la geografía regional se refiere esencialmente al campo de la geografía humana. Por ejemplo: «En economía} ahorro es meter dinero en un calcetín». debería elogiarse más que criticarse. b) La geografía sistemática estudia una región sistemáticamente. aunque sea necesario cuando se desea una evaluación formativa. Hay dos razones por las que el proceso de eliminación no está generalmente desechado por los especialistas en evaluación. la función de los tests es principalmente contribuir a medir los logros globales en un área de estudio.Pruebas de elección múltiple 111 1. El uso de distractores que son claramente más fáciles que la respuesta correcta se critica a veces porque permite al alumno responder con éxito por eliminación de los incorrectos. El que un alumno responda de una manera reflexiva. . los alumnos tienen dificultad en comprender y mantener en la memoria las diferencias esenciales entre las alternativas. Sin embargo. En la práctica. Identificar exactamente qué cosas sabe o ignora un alumno es de importancia secundaria en una evaluación suma- tiva. principalmente. Las respuestas breves tien- den también a centrar la atención en las diferencias esenciales entre las alterna- tivas. por tanto. 1. En segundo lugar. No es probable que un alumno que ignora totalmente la respuesta correcta tenga el conocimiento suficiente para eliminar con certeza las alternativas incorrectas.4. de la geografia física. En igualdad de condiciones. la capacidad de discriminación de un ítem no queda invalidada por esta circunstancia.3. Concisión: La brevedad de las respuestas simplifica la tarea del alum- no eliminando una fuente irrelevante de dificultades. Por supuesto. el conocimiento y la capacidad que se necesitan para eli- minar alternativas incorrectas pueden estar íntimamente relacionados al conoci- miento o capacidad que se necesitarían para seleccionar la alternativa correcta. fre- cuentes entre los exámenes que los profesores proponen a sus propios alum- nos. mientras que la regional se refiere a la descripción de una región. Cuando las respuestas son largas y complejas. En primer lugar. Un ejemplo de lo dicho sería: al. La geografia sistemática difiere de la regional principalmente en que: a) La geografia sistemática trata. ya que suelen ser alternativas desperdiciadas por absurdas. los alumnos que pueden respon- der bien de esta manera generalmente saben más que los que no pueden hacer- la. un distractor que es absurdo o muy poco plausible contribuirá escasamente o nada a la eficacia del ítem. el ítem EM con respuestas más breves son preferibles a las demasiado complicadas. pocos ítems EM se pueden responder correctamente por mera eliminación de las alternativas incorrectas. b) El matrimonio entre una mujer y varios hombres. Homogeneidad externa: Los distractores deben ser también homogé- neos externamente. Hay una tendencia a escribir las res- puestas correctas de forma más cuidadosa e inclusiva que los distractores. Elaboración gramatical: Es necesario cuidar la corrección gramatical (género y número). b) Muestran más variedad. lo que se cumple en la respuesta b). Conviene que todas las alternativas tengan la misma complejidad y que su extensión sea aproximadamente la misma. ¿Enqué difieren las prendas de ropa de la moda de las mujeres de 1990 de la de 1900? a) Muestran más belleza. b) Endogamia. Nota: El plural «diferencias» de la base sugiere que la respuesta correcta esta- rá también en plural. ayuda a no introducir incoherencias gramaticales. d) La geografía sistemática es la manera moderna científica de estudiar la diferenciación de la superficie de la tierra. La forma interrogativa en la base.112 La evaluación de aprendizajes * c) La geografía sistemática estudia un solo fenómeno en su distribución sobre la tierra para llegar a generalizaciones de la geografía regional. 2. Así: a2. ¿Qué es monogamia? a) Negarse a contraer matrimonio. si el propósito de un ítem es controlar la comprensión de la palabra «monogamia». que estudia la distribución defenómenos en un área dada. 2. c) Exogamia. más conciso. será mejor que el bl: b1. el simple descuido ortográfico o gramatical puede dismi- nuir la eficacia de la pregunta. al. c) El matrimonio entre un hombre y varias mujeres. d) Selección natural. ¿Cómose llama la forma de matrimonio en el que una mujer se casa con un hombre? a) Maridanza. preferible a las frases incompletas. * b) Variaciones. mientras que la geografía regional es la manera tradicional y descriptiva de estudiar la distribu- ción defenómenos en el espacio. * d) El matrimonio entre un hombre y una mujer. b2. el ítem b2.1. Las diferencias pequeñas entre organismos de la misma clase se conocen como: a) Herencia. Nota: Esta pregunta se puede expresar mejor: ¿"Quécaracterística de la geo- grafía sistemática la distingue esencialmente de la geografía regional? Otro ejemplo. * d) Monogamia. c) Adaptación. . pero mal preparados en la materia. Sin embar- go. incluyendo la frase incompleta: Una vena es un vaso sanguíneo que lleva sangre . por ejemplo: al.2. ¿Qué órgano del cuerpo se puede extirpar sin peligro de la vida? a) El hígado. Por ejemplo: a3. se puede uno mover más fácilmente y. la repeti- ción parece excesiva e innecesaria. 2. b) porque comieron como alimento plantas no deseablespara su dieta. que fácilmente se liga al mismo tiempo de la pregunta. * d) por la colisión de un asteroide con la Tierra. * d) Un riñón. no es censurable incluir deliberadamente pistas en los distractores para equivocar a los alumnos «expertos» en contestar PO. Dar todas las pistas relevantes. es decir. como en otros casos. señalar la que hoy se tiene como verdadera. Nota: Este ítem se puede mejorar. d) Un vaso sanguíneo que lleva sangre desde el corazón. Los dinosaurios se extinguieron: a) porque llegaron a alcanzar un tamaño demasiado grande con respecto a su cerebro. y evitar las irrelevantes es una importante destreza necesaria para construir ítems EM. b) y c) se usa el pretérito perfecto simple o pretéri- to indefmido. c) Un vaso sanguinea que lleva sangre oxigenada.Pruebas de elección múltiple 113 c) Son másfáciles de limpiar. b) El corazón. en la que no se usa tiempo verbal alguno. en la base. Cuando todas las respuestas empiecen por las mismas palabras. . ¿'Cuáles la definición de vena? * a) Un vaso sanguíneo que lleva la sangre al corazón. * d) Son más cómodas. c) porque los mamíferos comieron sus huevos. Sin embargo. El ejemplo bl es mejor simplificado como el b2: bl. Esto coincide con la norma de formular una idea completa en la base. c) Elpáncreas. Nota: La profusión de detalles de la respuesta correcta la hacen indeseable- mente obvia. pero en éste. ya que pueden dar pistas no deseables. hay que considerar la posibilidad de incluidas en la base. se trabaja mejor con ellas. A veces la repetición de palabras ayuda a clarificar el ítem. sin repetir palabras en los distractores.. De las teorías sobre la desaparición de los dinosaurios. Elementos comunes: Hay que evitar reiteraciones de palabras inne- cesarias e introducir los elementos comunes en la base. Conviene también eliminar los artículos en las alternativas que no sean fra- ses completas. Nota: En las respuestas a).. son menos restrictivas. las útiles para los alumnos prepara- dos. b) Un vaso sanguíneo que lleva sangre roja. la respuesta correcta es la d). en general. eficiencia y validez. c) 6 d) 8. Por ejemplo. b) Corazón.114 La evaluación de aprendizajes b2. la desorganización del contenido de las opciones en el siguiente ítem. Sería más adecuado evitar esa tarea previa organizando el ítem como en el siguiente ejemplo: a2. fiabilidad y control. ¿Cuál es la superficie en m2 de un cuadrado de 2m de lado? a) 2. c) Objetividad. d) Objetividad. Estructuración: El conjunto de opciones de cada ítem debe estar organizado y ordenado de modo coherente. que no es otro que identificar la respuesta correcta si la conoce. fiabilidad y eficiencia. Son propiedades deseables de los tests: a) Control. o el conocimiento del orden de la magnitud a nivel general. es nece- sario organizar adecuadamente las opciones escribiendo respuestas que repre- senten intervalos a lo largo de una misma escala. control y objetividad. * b) 4. hay que incluir las unidades de las respuestas en la base. bl. en comparación con ro la cantidad extraída de los pozos en los mismos años? . ¿En cuánto se estimó (X) la cantidad de petróleo descubierto en nuevos cam- pos al final de los años setenta. validez y fiabilidad. a) Hígado. Calcular la superficie de un cuadrado de 2m de lado: a) 2m2 * b) 4m2 c) 6m2 d) 8m2 c2. fiabilidad y eficiencia. control y eficiencia. c) Páncreas.3. Hay cuestiones en que es más importante la relación. obliga al sujeto a hacer un trabajo previo que le distrae del cometido al que debería dedicarse. d) Eficiencia. * b) Validez. que el valor preciso cuantitativo. (2004). Son propiedades deseables de los tests: a) Validez. 2. c) Eficiencia. adaptado de Moreno el al. b) Fiabilidad. objetividad y control. es preferible la formulación de c2 a la de cl: cl. Por la misma razón. En este sentido. Cuando sean homogéneas. si la pregunta exige una respuesta cuantitativa. * d) Riñón. al. c) 60. d) 16. 2. fechas. se puede intuir como respuesta correcta si el alumno conoce la mayoría de los distractores. b) 11. ya que conociendo que una sola de las anteriores es incorrecta. ¿Cuántas sflabas tiene un verso alejandrino? a) 8.1.Pruebas de elección múltiple 115 a) Xfue prácticamente O. Recursos: Finalmente se señalan otros recursos y estrategias para lograr buenos distractores. Yal contrario. La respuesta «ninguna de las anteriores» es particularmente útil en ítems aritméticos o de ortografía en donde lo correcto y erróneo son inequívocos. por ejemplo: Sumar 54 + 14: a) 40. b) 48. El uso de «todas las anteriores» como respuesta correcta es adecuada sólo si todas las alternativas precedentes son respuestas enteramente correctas. y el resto se engloba en «ninguna de las anterio- res». las cifras (números. debe evitarse que siempre o nunca sean correctas. que sabe que «todos y ninguno de los anteriores» casi nunca es la respuesta correcta. su uso se convierte en una pis- ta al mal alumno «experto» en exámenes. Y en todo caso. con una explicación añadida.4. además de con «sí»o «no». queda descartada. En esto se basa el formato de las respuestas combinadas (Re). etc. Esto ayuda a eliminar confusión y errores en los alumnos.) es conveniente disponedas en orden de mayor a menor o viceversa.xplicacionesañadidas: Enriquecer las preguntas de manera que se deban contestar. 3. E. * c) 14. un recurso común para completados es aña- dir como alternativa final «todas las anteriores» o «ninguna de las anteriores». * b) Xfue la mitad de y c) Xfue prácticamente igual a Y d) X fue mayor que Y Por último. aunque de ordinario las alternativas deben presentarse al azar. Distractores no específicos: Cuando al profesor no se le ocurren distractores en número suficiente. b2. 3. En resumen. por ejemplo. conviene restringir el uso de estas formas a los ítems en los que se dé una razón positiva que lo justifique. * d) Ninguno de los anteriores. . de lo contrario.. También se pueden usar cuando haya muchas alternativas de las que se explicitan tres. Dos respuestas pueden ocasionalmente convertirse en cuatro de la siguien- te forma: a) SóloX. Por ejemplo: ¿Qué es un abadejo?: * a) pez. 3. base y alternativas. Distractores en líneas diferentes: Las diferentes partes del ítem. interese que sean per- cibidas como una graduación de posibilidades. b) Esporas. d) plano inclinado. X e Y d) NiXni y Así: En la reproducción de las plantas gimnospermas intervienen: a) Yemas. Las respuestas en tándem ahorran espacio. instrucciones. b) Sólo y c) Ambos. Como acabamos de decir. deben presentarse en la misma página. como ocurre en el siguiente ítem adaptado de Moreno et al.3. es el fundamento del formato Re. c) Baja rápidamente. en los casos en los que. De todas maneras.) para los que tener que ahorrar. La distribución horizontal de las opciones puede ser adecuado. y no uno a continuación de otro. ni esporas ni yemas. pero son mucho más difíciles de comparar que las presentadas en columna. c) No. subir/bajar y rápido. etc. Combinar elementos: Usar combinaciones de elementos para obte- ner varias alternativas. b) Sí. 3. b) Sube lentamente. es más conveniente escribir las opciones en líneas diferentes. porque los jubilados no prevén gastos futuros considerables (vivienda. sin embargo. más que diferenciar las opciones. (2004): . si cada uno de los dos elementos tiene diferentes valores.1ento. porque los jubilados tienen unos intereses de ahorro mayores para gastar. * d) Ninguno. por definición. mayor en la casa de un jubilado que en la de un recién casado? ¿Por qué? a) Sí. se pueden combinar para obtener cuatro alternativas: a) Sube rápidamente. b) abad mal encarado. porque los ingresos disponibles son siempre mayores. c) Ambos medios: yemas y esporas. generalmente.116 La evaluación de aprendizajes ¿Es la proporción entre los ingresos discrecionales y disponibles. d) Baja lentamente. por ejemplo. porque las pensiones no llegan para cubrir los gastos fijos de losjubi- lados. * d) No. c) mala califi- cación. colegios. También.2. En resumen.2. Añadir explicaciones. algunos autores (Moreno el al. Información completa: 2. Reunir los elementos comunes en la base.3. 3.) 2004) admiten como suficientes tres opciones.3. Otros recursos: 3. 1. Redactar bases autosuficientes. 3. pero los buenos distractores no se nos ocurren fácil e inmediatamen- te. Aunque no hay un número mágico de alternativas.2. Ebel y Frisbie (1977) recomiendan más ítems con menos distractores. Añadir frases de introducción.3. a la hora de escribir la Base de un ítem EM se deben tener en cuenta las siguientes directrices: 1. 1.1. Formular distractores plausibles.1. otros en cambio aconsejan. Suprimir lo irrelevante.3.4. Homogeneidad interna: 1.1. Introducir ideas nuevas.4. 1. Enriquecer la base con condiciones.2.4.3. una respues- ta y tres distractores para cada ítem.1. Evitar pistas. que menos con más distractores. Otras características: 3. 2. Desarrollar contenido semejante. 2. Número de distractores: Cuantos más distractores.2. Restringir los distractores no específicos. Ordenar las opciones. lo que es lo mismo. escribir cuatro opciones o.1. Matizar datos. Dosificar la dificultad. 3. . Para construir las alternativas: 1. siempre que sea posible y cumpliendo las directri- ces aquí analizadas. Homogeneidad externa: 2. 1. Cuidar la elaboración gramatical. 2. Hacer preguntas directas.2. 2. Evitar negaciones. 2. 1. Redactar expresiones concisas. Hacer preguntas con respuestas definidas.1. Cualidades de las preguntas: 1. más discrimina- rá el ítem. 2.Pruebas de elección múltiple 117 Indique su grado de acuerdo con utilizar dinero público para proyectos de explo- ración espacial: a) Nada b) Poco c) Bastante d) Mucho 3. 2. 3.4. 2. por su parte. 3. ambiguos y susceptibles de ser contestados por azar. este inconveniente se puede reducir siguiendo las suge- rencias dadas sobre su construcción. El formato de ítems EM ha resistido la prueba del tiempo: ha superado críticas y vencido alegaciones de ser superficiales. M = número de ítems mal contestados.2. Se prestan también a análisis estadísticos útiles. el más popular y más utilizado de las PO. B = número de ítems bien contestados.3.. todos los objetivos del ámbito cognoscitivo.4. 2. d) La muestra de objetivos que se pueden evaluar con ítems EM es más amplia que con otros formatas. Escribir los distractores en líneas diferentes. Aunque para ello hay que recurrir a indicadores indirectos. Seleccionar número de distractores. menos susceptibles de errores provocados por la adivinanza que otros forma- tos.118 La evaluación de aprendizajes 3.F o Rl. pero no tan evaluada realmente en nuestras aulas como se pretende. tanto a alumnos como a profesores. encuentran más fácil poder defender sus respues- tas correctas. la estadística permite corregir el azar al calcular la calificación por medio de fórmulas tales como: M N=B--- d -1 En donde: N = calificación. No intervienen necesariamente los constructores de la prueba en su corrección. limitación que es común a la mayoría de los instrumentos de evaluación. Combinar elementos. e) Su preparación colegial. análisis. Pueden facilitar el azar. Y se pueden detectar por separado niveles de . por lo que sigue siendo el mejor considerado. por lo que su calificación es fácil y rápida. 3. Además. APLICACiÓN Estas pruebas EM ofrecen ventajas e inconvenientes que deben ser tenidos en cuenta. permite una crítica constructiva de las preguntas. Todo ello contribuye a una interpretación precisa que asegura su objetividad y aumenta su fiabilidad y validez. De todas maneras. es decir. d = número de distractores. como ya se apuntó en el capítulo 3. pero parecen. etc. en equipo. síntesis. Los profesores. b) Los alumnos creen que los EM son menos ambiguos que los V. selección. Su aplicación resulta útil por varias razones: a) Permiten medir con precisión y sin ambiguedades procesos intelectuales superiores: orden. a excepción de la capacidad de expresión. tan impor- tante en muchas materias. es preferible el formato EM. con el peligro de vulgarizarlo al sugerir que a cada problema le corresponde una y sólo una respuesta. 1973). Pero. hay circunstancias en que ambos formato s no son equivalen- tes. Sin embargo. En los ítems EM hay implícitamente una afirmación verdadera y varias falsas. en definitiva. por razones obvias es prefe- rible el formato V/F. por lo que controlan los objetivos de manera semejante. se aconseja uno de ellos. B. una especialización a veces inasequible a la mayoría de los profesores. corno ilustran los ejem- plos de la tabla siguiente: A. que juzgar por comparación cuál de varias alternativas es la mejor respuesta en los EM. Para los ítems que se basan en proposiciones. deben tenerse en cuenta algunos inconvenientes para evitarlos. basta con examinar la evidencia de las interpreta- ciones válidas de los resultados obtenidos por cientos de ítems bien construi- dos para llegar a la conclusión de lo infundado de estas críticas (Osterlind. al mismo tiempo. Cuando hay sólo dos alternativas plausibles. reduciendo el conocimiento a lo que se puede encerrar en afirmaciones simples. tanto al alumno corno al docente. y viceversa. Cuando los ítems no se basan en proposiciones. por el contrario. f) Se critica que no facilitan la valoración de datos y conceptos. y cuando los ítems EM se transforman en V/F. debemos decir que casi todas las críticas que se hacen a las PO son extensivas a las EM. Por otro lado. es indiferente el formato. pero precisamente esta diferente concreción y definición de la tarea presen- tada suele hacer más difícil juzgar si una afirmación aislada es verdadera o falsa en los ítems V/F. las calificaciones obtenidas por grupos semejantes de alumnos se correlacionan tanto corno lo permiten sus índices de fiabilidad (Frisbie. una competencia y práctica no comunes. propio de una evaluación formativa. La preferencia por el formato EM ha llevado muchas veces a presentar corno EM lo que es una colección de ítems V/F.Pruebas de elección múltiple 119 competencia en cada objetivo para ofrecer unfeedback. sino que. Hay semejanzas sustanciales entre los dos tipos de ítems. e. . COMPARACiÓN íTEMS V/F y EM 3. Una diferencia obvia es el número de alternativas que se le ofrecen al alum- no. e) La construcción de buenos ítems EM requiere una preparación laboriosa. Sin embargo. 1998). de cónica atos 3...... 120 La evaluación de aprendizajes c) b) a) Obedece Se Cambiar VERSIÓNEM unacompone lalasimagen elipse.carac- es ítems afirmaciones función que se deacomodan una mejor al formato VlF EM ..4b. lente que ... 3b....... B....... cónica el que .... de utilidadse¿Cuál es la NOprincipal representa C.. M M (F)(F) ... en que luz 4a.. leyes....... animales correctora 2a..... x2/9+ las2..... La es principal células llega mejor es acambiar puedede trabajo compone función de las en un función plantas cambiar la es impuestosla leyes grandes gráfica de la ciudadanodevivir es retina de ola buen retina cónica una la queunamás lacantidad de células el una solamente imagen parábola elipse lente .................. de células que se M vivas (F)muy forma 2b.... ....... La3a.. La x2/9Un tener sevirus principal virusque Es+se gráfica obedece paga vivas El .. ................ (F) buen e dad o de ciudadano? en de la células retina.. característica forma un y2/4=1 sus muy VERSIÓNVlF 1a.................... de Un 1b. una ...siguientes igual y2/4=1 de¿Cuál 4........ luz que c) Se puedenlas obedecer ciudadano reproducir leyes que el hecho solos. L:lraO SVa5lnHd :la SOdl.SVAI.L SOH.LO . . Aplicación: Al aplicados. podría ser calificada como: a) Una teoría mecanicista [F} b) Una teoría panteísta [F} c) Una teoría dinamicista [V} d) Una teoría pluralista [V} a2. La «monadología» refleja una concepción de la sustancia que. pero no existe un motivo por el que tenga que mantenerse constante a lo largo de una prueba. o también como un ítem EM con varias alternativas correctas. La «monadología» refleja una concepción de la sustancia que. por lo que el proceso mental que debe hacer el alumno es el mismo en ambos casos. según Leib- nitz. Los alumnos perciben generalmente los V/F múltiples más fáciles que los EM. según Leib- nitz. En los ítems V/F múltiples. Se pueden considerar como varios ítems V/F con una base común. podría ser calificada como una teoría: a) Mecanicista. * d) Pluralista. El a2 es el mismo ítem con formato EM en el que existen dos alternativas correctas la c) y d). los alumnos responden decidiendo la corrección o incorrección de cada afirmación por separado. porque los alumnos pueden responder a tres ítems V/F múltiples en el tiempo que necesitan para responder uno EM de respuesta única.Además. b) Panteísta. Por ejemplo: al. lo que cambia es la forma de presentación. el profesor debe evitar protocolos que repitan el mismo número de respuestas verdaderas. Nota: El al es un ítem con formato V/F múltiple. Puede ser ver- dad cualquier número de alternativas asociadas. . V/F MÚLTIPLES 1. * c) Dinamicista. presentan la ventaja de poder controlar un tema con más extensión. Resistencia eléctrica .. El tratado de Vervins.. Diferencia de potencial . cantidades y fórmulas. B.. se pueden citar: A La candidatura de Eugenia de Montijo al trono francés. Potencial . queriendo uniformar todos los ítems de un examen a formato EM... no encuentra distractores adecuados. Elegir la combinación correcta: a)AyB b)ByC * c) ByD d)DyE Aplicación: La investigación que compara los ítems EM. E... Carga eléctrica . Intensidad de corriente . e instrucciones claras para emparejar ambas listas. escritores y obras. RESPUESTASCOMBINADAS Las respuestas combinadas (RC) son una variante que sintetiza los formato V/F y EM... son menos eficaces y dan calificaciones menos fiables. (º) Ohmio . (V) Voltio 4. Lapresencia de Margarita de Parma en los Estados Generales de Francia. (W] Watio 5. En general. Se proponen varias alternativas como en los ítems V/F múltiples. (C) Culombio 3. 3.. Las RC pueden justificarse cuando el profesor... V/F múltiple y RC llega a la conclusión de que estos últimos requieren más tiempo de preparación y respuesta. pero lue- go se agrupan para pedir.. etc. una de premisas y otra de respuestas. D. prefieren los ítems EM y V/F múltiples. Por ejemplo: Entre los hechos de intervención de Felipe 11en la política interior de Francia. en este tipo de ítems. por lo que no conviene.. (A)Amperio 2.. se componen de dos listas. en Bayona. en formato EM. los alumnos los perciben más difíciles. Escribir la unidad alIado de la magnitud que corresponda: l.. Se puede usar una gran variedad de combinaciones premisas-respuestas: fechas y sucesos.... introducir una complejidad inne- cesaria. magnitudes y uni- dades.. términos y zonas numeradas de un dibujo. conceptos y definiciones. e El tratado de la Isla de los Faisanes. o pruebas por pares. EMPAREJAMIENTO Las preguntas de emparejamiento (EP). El tratado de Chateau-Chambrésis. la combinación correcta. al.124 La evaluación de aprendizajes 2. 2D. La Hégira. Edades: A Prehistoria B. Pinturas rupestres y Edad de los Metales. Edad Antigua C. 6D Construcción: He aquí algunas sugerencias para construidas: a) Homogeneidad: Conviene elegir premisas y respuestas de forma que su contenido sea homogéneo. Trabajo eléctrico . 5B. crisis mundiales. la sociedad esclavista. ZA. Edad Moderna E Edad Contemporánea Elegir el apartado en que estén correctamente relacionadas las Edades con los Hechos: a) lA. B4. el Alto Imperio y el Cristianismo primitivo. como en el ítem al. guerras. 2. En las instrucciones se puede pedir que se escriba la respuesta alIado de la premisa. Micénico Antiguo. colonialismos y nacionalismo. 4V. Falange 3. 5B. D5. 6E c) lA. También se puede reducir a formato EMcomo en el ítem siguiente: a2. . 4G. cuando no se observa esta norma. 2E.) para facilitar la corrección. 5. que traten de una sola categoría. 3D.3C. Hígado 4. 3. Edad Media D. es decir. 6E * d) lA. 4. 4G. 5A. Potencia eléctrica . 7. 3E. 5G. 4B. 3E. Carlomagno y las Cruzadas junto con el precapitalismo comer- cial. 3G. Dedo D. 2E.Otros tipos de pruebas objetivas 125 6. Cuello C. Cabeza B. Tibia 5. 2E. o en lugar aparte (In. 6 El Barroco. C6. Brazo A Bíceps 2. Relacionar algunos Hechos histón'cos o periodos representativos (números) con las Edades o grandes divisiones de la Historia (letras mayúsculas): Hechos: l. 6D b) lB. Procesos socialmente conflictivos como la Revolución Francesa y la Revolu- ción Americana. Por ejemplo: Situar los siguientes elementos en sus correspondientes partes del cuerpo huma- no: Partesdel cuerDohumano: Elementos: l. 4E.etc. Pierna 6 Tronco Solución: Al. aparecerán fácilmente pistas de solución. Nacimiento de organizaciones internacionales. la Ilustración. la Reforma protestante y el precapitalismo comercial. pero pocas veces debe todo un examen consistir en ítems EM. etiquetas. para eliminar el peligro del emparejamiento perfecto en el que el último se puede deducir de los anteriores. CLASIFICACiÓN El formato de clasificación (CL) consiste. pero difieren de ellos en que. la relación que se pide. fechas. Espronceda e Romanticismo 4. Galdós D.en una lista de respuestas que hay que clasificar entre las premisas que se propor- cionan. además. Tienen la ventaja de reducir el número de preguntas en un examen. el uso de las frases más largas como premisas y las más cortas como respuestas facilita al alumno la tarea de encontrar la pareja correcta. y proporcionar muchas respuestas calificables independientes por página o por unidad de tiem- po de examen. mientras en los típicos ítems EP cada res- puesta se empareja con una sola premisa. o viceversa. Por ejemplo: Relacionar. Se recomienda. de manera semejante a los ítems EP. d) Orden alfabético o numérico: Ordenar tanto las premisas como las respuestas en orden alfabético o numérico evita dar pistas no pretendidas. Aplicación: Aunque a veces pueden medir comprensión de conocimientos. La práctica recomienda proponer 6 o 7 premisas para emparejar con 4 o 5 respuestas. 4B. ya que la diferencia en las probabilidades de dar una respuesta correcta por azar entre ítems de 5 y de 6 respuestas es sólo de un 0. en los ítems CL la misma premisa se empareja con más de una respuesta.03 (Ebel Y Frisbie. etc. la última se puede acertar por exclusión. Por ejemplo: . 1977). casi por sentido común. 3G. huesos. Realismo 3. Fray Luis de León A Barroco 2. Góngora B. b) Brevedad: Aunque en muchos casos ambas listas se pueden intercam- biar sin dificultad. concen- trando la atención en aspectos concretos de temas particulares. 4. Nota: Sabiendo 3. Aumentar el número de respuestas más allá de 4 o 5 reduce el azar muy poco. generalmente miden memorización de información factual específica: nombres.126 La evaluación de aprendizajes Nota: Laheterogeneidad de los elementos que se presentan. c) Longitud de las listas: Se recomienda no usar el mismo número de respuestas y premisas. que no sea excesivo el número de premisas y res- puestas. múscu- los y vísceras. 2A. facilita el establecer. emparejando autores y períodos literarios: 1. Renacimiento Solución: ID. La expulsión de los moriscos "" . Condición: si la carga negativa de la partícula es mayor. Condición: si se aproximan suficientemente. La afirmación es falsa. La batalla de Las Navas de Tolosa k 2. Afirmación: Dospartículas cargadas se repelen.donde se comprueba la memorización. pero antes de la Revolución Fran- cesa (1789) E.F. y emparejamiento posterior CEP). 2. si se da la condición. D. E. Las preguntas de doble respuesta CRD)son una combinación de V. 12 5. sino una gran comprensión del tema. La Escuela de Traductores de Toledo """'"'''''''''''''''''''''''''''''''''''''''''''''''''''' k 4. 1. 4. Condición: si ambos atraen de manera semejante objetos cargados. Después de la declaración de la Revolución Francesa (1789) 1. Afirmación: La dirección del flujo de electrones a través de un conductor es irreversible. 3.3E.) C Después de la invasión islámica. independientemente de la condición. C. Afirmación: Una partícula cargada negativamente repele a otra partícula cargada positivamente. 4D. 5A Nota: Es claro que no es suficiente memorizar conceptos. Instrucciones: Calificar cada una de las afirmaciones siguientes con: A La afirmación es verdadera. La afirmación es verdadera. si se da la condición.Otros tipos de pruebas objetivas 127 al. C) B. Instrucciones: Localizar cada suceso (respuestas ordenadas con números) con el período en que sucedieron (premisas ordenadas con letras): A Antes de Cristo (a. El asentamiento agrícola en el Levante español A 3. Afirmación: Dos objetos cargados se repelen mutuamente. Después de Cristopero antes de la invasión islámica (711 d. 2G. pero antes de que Colón llegase a América (1492) D. A(i'rmación: La fuerza de atracción o repulsión entre cargas es inversa- mente proporcional al cuadrado de sus distancias. 5. La afirmación es falsa. independientemente de la condición. No es posible determinarlo sin más datos. Después de que Colón llegase a América. RESPUESTADOBLE 5. Solución: Correctas lB. B. El nacimiento de Francisco de Quevedo 12 6 La instauración de la I República española !i a2. Por ejemplo: . Condición: si las cargas son cuantitativa mente iguales. para responder este ítem de eL.con lo que se comprueba la comprensión. Condición: aunque se permuten las cargas en los terminales. C. NH] Amoníaco Construcción: Deben tenerse en cuenta los siguientes consejos prácticos: a) Respuesta única: Hay que expresar la pregunta de manera que obligue a una única respuesta... El efecto albedo [V] E El efecto invernadero [F] Ahora escoger. 2.. 7. 5. Escribir el nombre común de los siguientes compuestos químicos: A CaCO] Caliza B.. Aunque son preguntas abiertas. La reflexión de los rayos solares durante el verano por la nieve acumulada durante el invierno. debe ser corta y específica. Los ítems que exigen respuestas más lar- gas se clasifican más bien como respuesta abierta (RA)... Lafiltración espacial de variantes térmicas estelares... 1... 6 La desviación del movimiento rotacional. que suponen diversas radia- ciones incidentes en la meteorología fría. El movimiento de campos magnéticos polares.. por ser éstas muy limitadas... cualquiera que sea la forma en que aparezca.. señalar si son verdaderas [V} ofalsas [F}: El origen de una era glacial debe buscarse en: A Laglaciartosis producida por lospolos [F] B. C6. ya que se exige un dato predeterminado y preciso.. Solución: B1. La eclíptica terrestre..de entre las siguientes.128 La evaluación de aprendizajes En las afirmaciones siguientes.••• [F] E... modo.!que impide la nor- mal refrigeración ambiental del planeta. RESPUESTALIMITADA En las preguntas de respuesta limitada (RL)se pide una respuesta abierta y cor- ta. La diferencia de potencial calorífico de polos y ecuador. las causas que expliquen cada una de las afirmaciones señaladas como verdaderas...... Si preguntan una frase.. consideremos la cuestión: "Colón descubrió América en »..... 6. Las variaciones de inclinación del eje terrestre [V] D.. ... Lafusión de los rayos ultra violeta y el CO2 ... C1fl22011 Azúcar D... El enfriamiento progresivo producido por la capa de CO. ¿Cuálesson los moifemas del verbo?Tiempo... suelen considerarse como PO. Por ejem- plo.... NaCI Sal C..... Dersona número v asDecto. que supone la incidencia solar en zonas más o menos amplias de lospolos. E4.. 4... He aquí algunos ejem- plos: Elpseudónimo de José Martínez Ruiz es:(lzorín.. Las variaciones de la órbita terrestre [V] C. 3.. debe revisarse su redacción y reformularse.pero se pueden obtener respuestas como «en Carabela». Por ejemplo: Los dos elementos constitutivos de la oración son ~ se puede transformar fácilmente en forma interrogativa más clara: ¿Cuáles son los dos elementos constitutivos de la oración? d) Evitarpistas: La expresión «másfrías» en la pregunta anterior sobre las «tormentas» sugiere la pista de que el aire. por lo que deben trazarse con la misma longitud. Eliminar algunas palabras de frases de libros de texto para convertidas en ítems de RLtiene el peligro de producir ambigliedades. escribir la pregunta apropiada para dicha respuesta. En consecuencia. Los espacios en blanco son otra pista común no deseada. al prescindir del contexto en que están escritas. de la que se espera «carbono con impurezas». Un ejemplo de ello puede ser el siguiente: Los títulos de las dos novelas de Clarín son y ~ Nota: El primer espacio pequeño. y de reducir a una las posibles respuestas hasta que desaparezca la ambiguedad. y el grande. por lo que se debe pensar primero en ella y.Otros tipos de pruebas objetivas 129 se hace para que el alumno responda «en el año 1492». «más bajo» y «húmedo». debe haber sido más caliente. la frase mutilada: Las tormentas se forman cuando columnas de aire suben a alturas más frías es una pregunta ambigua porque tiene como posibles respuestas correctas «más caliente». a continuación. ¿Cuál es el elemento químico fundamental del carbón? b) La respuesta antes que la pregunta: El centro de una RL es la res- puesta. puede sugerir respuestas tales como «mate- ria vegetal petrificada» o «una fuente de energía». pues ayudan al alumno a determinar la extensión de las respuestas. reservado a La Regenta. sin perder la claridad de la pregunta. Si parece que pueden darse respuestas conceptualmente distintas para una misma pregunta. para Su único hijo. con objeto de prevenir la indefinición de lo que se examina y la consecuente dificultad en calificar. ¿En qué año descubrió Colón América? a2. las pregun- tas anteriores se pueden reformular: al. facilitan el ítem sobre todo a los alumnos que no están seguros de los títulos. c) Preguntas directas: Las formulaciones interrogativas facilitan contestar de una manera más concisa y clara que las frases incompletas. e) Concisión: Conviene expresar el ítem tan concisamente como sea posi- ble. Por ejemplo. El exceso de palabras malgasta el tiem- po del alumno y puede crear confusión. . O la pregunta: «¿Quées carbón?». antes de elevarse. a no ser en aquellos casos en que el alumno tiene que crear un proceso inédito para resolvedos.130 La evaluación de aprendizajes f) Evitar expresiones convencionales o usuales: Esto favorece el estu- diar memorísticamente. lugares. entre otros. No obstante. son un formato de prueba frecuente en materias en las que se estu- dian relaciones cuantitativas. ya que la respuesta que el alumno debe construir suele estar previamente acotada. 7. Es el formato que debe elegirse cuando los alumnos tienen problemas de lectura o escritura. Por ejemplo: al. Si se trazan dos rectas perpendiculares a la misma recta en una hoja de papel. Por lo tanto. y en aquellas partes de la ciencia donde hay que aprender nombres de estructuras y símbolos. se ven mucho menos afectados por el azar facilitado por la elección aleatoria de las respuestas. frases cortas y números. geografía y aritmética. ya que. sólo unos pocos ítems V/F o EM se pue- den convertir en RL. es frecuente considerada como variante del formato de respuesta limitada (RL). Pero el conoci- miento abarca más. a veces mal llamados problemas numéricos. más que comprender las ideas. Por ello se usan frecuentemente en materias y niveles de enseñanza donde hay que aprender vocabularios básicos en temas tales como ortografía. mucho más que los datos que se pueden reducir a una sola palabra. Dos rectas perpendiculares a la misma recta contenidas en el mismo plano son entre sí _ Una versión mejor de esta pregunta sería: a2. si el grupo de alumnos es razonablemente peque- ño. palabras en idiomas extranjeros o símbo- los matemáticos. que constituyen un substrato importante de todo conocimiento. el trabajo de corrección no es excesivamente pesado. químicos. como consecuencia. y. mientras que cualquier ítem RLpuede transformarse en V/F o EM. músicos o lógicos. Es una prueba peculiar que no se suele clasificar entre las PO. Los ítems RLson eficaces para comprobar el recuerdo de datos. sino registrar materialmente tanto el proce- so para solucionado como el resultado. números. . los ítems RL controlan mucho menos que otros formatos y. por lo común debe no sólo hacer una elaboración mental. aun- que excepcionalmente se puede presentar en formato EM para que el alumno elija entre varias alternativas de procesos o resultados. Es esta la razón por la que tampoco se le clasifica como respuesta abierta (RA). las dos rectas son _ Aplicación: Los ítems RL tienen un lugar en la evaluación educativa: son fáciles de construir. procesos. personas. PROBLEMAS CIENTíFICO-MATEMÁTICOS Los problemas científico-matemáticos (CM). aunque más por el azar que supone la selec- ción limitada de la muestra. La dificultad está en precisar los dos aspectos que se suelen considerar en los problemas CM. hay que tener en cuehta que en algunos casos la interpre- tación de la complejidad de un enunciado es parte de lo que se quiere evaluar. por ejemplo: al. conviene introducir números tan complejos como sea necesario.Otros tipos de pruebas objetivas 131 Los problemas CM proporcionan la base de una gran variedad de ítems y son una buena manera de comprobar la comprensión y la aplicación. se debe especificar también el grado de precisión de las respuestas. Las conclusiones de esta investigación demostraban que la inclusión de los datos irrelevantes no mejoraba los ítems. a la hora de construirlos se debe tener en cuenta que el problema represente todo y sólo lo que se quiere comprobar. el peso de cálculo en el segundo hace que suponga otras capacidades. a) Enunciado claro: Hace unos años se hizo un estudio para comprobar si la inclusión de datos irrelevantes en los problemas de Física mejoraba la eva- luación. el proceso seguido y el resultado obtenido.lrr cm y su altura 2. ya que. . sin embargo. ¿Cuál es el área de un rectángulo cuya base es 3 cm y su altura 4 cm? a2. sólo el orden de la magnitud o la cantidad exacta. «compren- der la fórmula del área del rectángulo». 1977). Esto. No se pueden dar normas defi- nitivas para formularIos. para controlar el cálculo. junto al hecho de que las respuestas sean concisas y fácilmente calificables.23. y que no se introduzcan simplificaciones ni complejidades inintencionadas. esta hipótesis se basaba en la premisa de que los problemas de la vida real incluyen datos relevantes y no relevantes: si sólo se proporciona la informa- ción que se necesita. hay que expresar el enunciado del problema de la manera más clara (afirmaciones simples y directas) y concisa (eliminación de palabras innecesarias. Con la ventaja añadida de que se pueden construir diferentes versiones de los mismos problemas sólo con modi- ficar los datos y su forma de presentación. Construcción: En general. por ejemplo. si el fin del ítem es controlar sólo la com- prensión.82. que generalmente eran ya lo suficien- temente complicados sin ellos (Ebel y Frisbie. si los alumnos no están seguros de lo que se les pide. la medida de lo que son capaces de hacer será menos válida. no la capacidad de cálculo. es decir. ~h05cm? Nota: Si ambos ítems pretenden comprobar el mismo objetivo. Por consiguiente. facilita su posible solución a los alumnos menos capaces. en con- traste con la mera memorización de conocimientos. ¿Cuál es el área de un rectángulo cuya base es l. las siguientes pautas pueden ayudar. Así. hay que simplificar el enunciado usando números lo más simples posible. Por el contrario. no obstante. supone que los problemas CM sean un formato muy popular de examen. Cuando sea necesario. pero no sea más relevante como medida de dicho objetivo. comentarios y datos irrelevantes) que permita lo que se quiere evaluar. 132 La evaluación de aprendizajes b) Dividir problemas: Se puede reestructurar el enunciado para dividir un problema complejo en varios. son problemas distintos. a) ¿Cuántos coches espera vender este año? b) ¿Cuánto ganó con las ventas del año pasado? c) ¿Cuánto espera ganar con las ventas de este año? Nota: Aunque aparentemente iguales. lo que mejorará la fiabilidad de las calificaciones. Fernando gana una comisión del 10% en cada venta. ¿cuánto más ganará este año si alcanza sus objetivos? a2. El año pasado Fernando vendió 60 coches a un precio medio de 9. Pre- tende vender este año el 50% más de coches. Pre- tende vender este año el 50% más de coches. cada uno con un apartado. . Consideremos los siguientes dos ítems: al. Ten- dremos así indicadores de logros parciales. 000 €. El año pasado Fernando vendió 60 coches a un precio medio de 9. habrá que proponer uno u otro según el objetivo que se pretenda comprobar.000 €. cuando sea técni- camente posible hacerla sin dirigir sensiblemente el proceso de solución. Si Fernando gana una comisión del 10% en cada venta. SElHBI1 SYBElnHd . . obviamente. al igual que éstas.Lo específico de las pruebas libres (PL) o abiertas es la libertad de expresión del alumno. Sin embargo. integrando en un todo armónico los elementos de su respuesta. En este extremo están de acuerdo la mayoría de los autores. 4). en definitiva. En el capítulo 9 presentaremos otros tipos de PL. el consenso en lo que se refiere a la pre- tensión de que existen objetivos exclusivamente evaluables a través de las PL: algunos los extienden a todos los que tienen que ver con el análisis. No hay que elegir. como en las PO. quienes prefieren las PLa las PO señalan a menudo que tales aspectos proporcionan información sobre la naturaleza y calidad de los proce- sos mentales de los alumnos. los alumnos deben dominar un amplio bagaje de conocimientos que les permita exponer datos. relacionados y expresar todo ello de forma adecuada. así como una mejor indicación de los logros de aprendizaje. en consecuencia. como formato más representativo de las características de este tipo de pruebas. No es tan unánime. Por ello. organizar- los de manera lógica y coherente. síntesis y valoración crítica. los reducen a los relacionados con la capa- cidad de expresión. Trataremos en primer lugar de las pruebas o preguntas de respuesta abierta. que a veces no se materializa. una respuesta «determinada» previamente. . suponen también objetividad y elaboración. Son muchos los formatos que responden al esquema de las PL. y no en las PO. métodos y conceptos. seleccionar lo más importante y manifestar su creatividad y originalidad. en la falsa creencia de que sólo se construye en las PL. Esta apreciación se resume. en cambio. sin embargo. en que construir es más que seleccionar (cap. otros. porque defienden que el pensar y razonar no es exclusivo de este tipo de prueba. el alumno también sigue un proceso mental de construcción -siempre necesario para la selección de la respuesta entre una serie de alternativas-. requisitos impres- cindibles de toda prueba. Al enfrentarse a las PL. cuando en estas últimas. que ha de organizar sus propios conocimientos. 136 La evaluación de aprendizajes 1. los siguientes: la ignorancia de las normas de construcción y corrección. Sin embargo. más fácilmente que con PO. y constituyen la única prueba de formato escrito que se usó casi sin interrupción hasta principios de nuestro siglo. Sin duda. Entre otros. Otra circunstancia negativa es la aparente seguridad en la que se puede escudar el profesor cuando no tiene que mostrar su propia versión de las res- puestas: en estos casos. Se puede así matizar. siempre patentes. es preciso. en la mayoría de los casos las calificaciones otorgadas se pueden justificar y defender ante los alumnos. RESPUESTAABIERTA Las preguntas de respuesta abierta (RA). son el formato de PLmás popular y aún el más utilizado. de ensayo. que nos proponemos detallar en las páginas siguientes. Construcción: A la hora de construir preguntas de RA. las críticas al examen clásico deben atribuirse más bien a estas preguntas mal elaboradas. la valoración criterial con la normativa. las ventajas de las RApresuponen la aplicación de una técnica muy minuciosa en su elaboración y corrección. en la China Imperial (Coff- man. la idea general de que son más «económicas». siempre decisión personal del docente. aun cuando se expliciten y hagan públicas previamente. 1971). C. se adaptan a todo objetivo de aprendizaje. quedan ocultas y no están disponibles para ser observadas y criticadas. al ajustar con posterioridad los resultados para que aprueben y suspen- dan un número determinado de alumnos. independientemente de la dificultad de las preguntas. y en buena lógica. con el consiguiente desprestigio. destacar algunos aspec- tos negativos de su aplicación que hacen que. es decir. Esto permite controlar el nivel general de las notas y su distri- bución. las bases de califi- cación. desde el primer momento. imposibilitan responder por azar. las posibles deficiencias de una RA. algunos no las expresan al pro- poner las RA y. el abuso de la comodidad que represen- ta su aparente facilidad de redacción y su menor tiempo de preparación. En todo caso.conocidas también con los nombres de pruebas de respuesta libre.al contrario de las de una PO. Sus orí- genes pueden rastrearse ya hacia el año 1115 a. tienen que encerrar grandes ventajas para obtener la sanción de la tradición. Por todo ello. Hay muchas razones que justifican su popularidad. se improvisen malas preguntas. con excesiva frecuencia. Contribuye también a su mal uso el hecho de que la dificultad intrínseca de las preguntas se pueda reconsiderar con posterioridad. la necesidad de hacer menos preguntas más generales. sin que esto quiera decir que estas pruebas constituyan siempre el mejor instrumento de evaluación. tradicionales o examen clásico. entre otras. es más difícil «copiaf».se deben tener en cuenta los siguientes aspectos: . cada corrector tiene su estilo propio de calificación: lo que para unos es importante. 1977) puso de manifiesto que hay una relación directa entre la extensión de la muestra de tareas en un examen y la precisión con que pueden diferenciarse los niveles de logros.en parte por la dificultad de obtener en ellas calificaciones suficientemente objetivas. Recordemos que baja fiabili- dad significa que hay inconsistencia entre las calificaciones obtenidas de prue- bas propuestas sucesivamente. a veces. al rigor en las expresiones científicas.tales como la originalidad. Estas instrucciones. que pueden referirse a la presentación de las preguntas y de las respuestas de los alumnos. ya que sin objetivos explíci- tos es casi imposible construir PO. Las limitaciones más serias de las RAcomo medidas de logros se refieren a la fiabilidad de las calificaciones obtenidas con ellas. por ejemplo. Ruch (citado por Ebel y Frisbie. la tarea indicadora del logro y la base para juzgado no están especificadas de manera fácil de entender. Instrucciones: Las instrucciones claras son tanto más necesarias cuanto menor sea el nivel de desarrollo del alumno. En todo caso. En compara- ción con las PO. cada profesor marca al principio las reglas del «juego». Cuanto más detalladas y explícitas sean. cuantos menos ítems tenga el examen. En muchas RA. aunque sea difícil concretar los rasgos que pueden permi- tir su «medición» (Fernández Garrido.. a menudo condicionan la misma dificultad de la prueba.Pruebas libres 137 1. a la duración del examen. 1993). 3. Muchos de los rasgos que se dicen medir con las RA. resulta más fácil for- mular preguntas de RAsin hacer una detenida y previa consideración de lo que se pretende evaluar. Subrayamos aquí esta condición. un fáctor que influye más en la calificación que recibe. como ya dijimos al hablar de las PO. Las conclusiones de una serie de investigaciones (Stalnaker. Incluso el mismo corrector asigna puntuaciones distintas a la misma prueba cuando ha mediado un determinado período de tiempo. tan- . Normas: Buscamos la fuente de inspiración de las normas de construc- ción precisamente en las deficiencias que se deben evitar. se llega a valorar la creatividad o el pensamiento crítico. no se suelen definir claramente por la especial dificultad de explicitar sus indicadores. Objetivo: Es necesario tener a la vista. las variables que se quieren medir. a) La muestra limitada de contenido cubierto por el examen. puede seda menos para otros. se han hecho pocos estudios experimentales de la fiabili- dad de las muestras de RA. 1974. 1980. Son tres las principales causas de esta baja fiabilidad que pueden ayudar a identificar mejor las normas de construcción. o calificaciones independientes del mismo exa- men. 1966) ponen de manifiesto que distintos correctores competentes e independientes asignan a menudo puntuaciones diversas a la misma RA. como en las PO. Forteza. Olea. etc. 2. b) La indefinición de las tareas propuestas en las preguntas. no se deben repetir en cada examen. sin embargo. Es obvio que la suerte del alumno en ser preguntado sobre lo que sabe supone. sino mirar hacia delante y preguntar aplicaciones importantes de lo aprendido. Surge. Otras sugerencias. c) La subjetividad.138 La evaluación de aprendizajes to para el alumno como para el profesor. aunque muchos dirían que esto no es poco. dicen. no tan obvias.sugieren precisamente una serie de normas para evi- tadas. sin embargo. b) Tareas deftnidas: Algunos profesores ocasionalmente proponen pre- guntas de contestación indeterminada. El problema surge cuando la intención es incidir en esos elementos aislados. Es cierto. el hecho de que las preguntas se refieran a un conoci- miento esencial. con la consiguiente pérdida de las ventajas de selección y síntesis que las RAconllevan. Algunas normas de construcción son tan obvias que no merece la pena ni citadas. mejorando su construcción. en consecuencia. las RAse acercarían más a las PO. el dilema: ¿Pocas preguntas de amplio recorrido. categorizar. ya que. dar preferencia a más preguntas y más específicas. De las normas de construcción hablaremos a renglón segui- do y más adelante de los aspectos de la corrección. que a veces la respuesta a una sola pregunta compleja entraña ya una integración coherente de elementos variados de aprendizaje. mientras que la subjetividad orienta más bien la corrección. se resiente la fiabilidad. no obstante. y tanto alumno como profesor tratan la respuesta como un todo más o menos inte- grado. En el segundo. La limitación de la muestra y la indefinición de tareas. para hacer las pregun- tas. la perspectiva analítica inicial de la prueba. es decir. Se recomienda. como causas de la fal- ta de fiabilidad de las RA. En el caso de estimar necesario hacer preguntas de amplio recorrido. más objetivas y fiables serán las • calificaciones que se obtienen de las RA. el profesor ha de sopesar la justificación de su valor intrínseco y la probable pérdida de fiabilidad de las calificaciones. No es fácil. hay que hacer preguntas o proponer tareas que requieran que el alumno demuestre no sólo la reproducción de cualquier contenido presentado en los libros de texto o durante la explicación. sería conveniente no sólo mirar hacia atrás e inspirarse en lo que se dijo en clase. con objeto de conseguir una mayor fiabilidad mediante una muestra más representativa y una menor ambiguedad. Aunque las RAse pueden calificar fiablemente cuando se corrigen con cuidado. Por ejemplo. que suponen relación de múltiples logros. pues. o muchas y más delimitadas? En el primer caso. los logros de aprendizaje en un campo o materia específicos se pueden apreciar mejor cuanto mayor sea el número de preguntas o tareas propuestas en el examen. Con otras palabras. las conclusiones que . se admite casi sin discusión que la subjetividad influye en mayor medida en las calificaciones de este tipo de pruebas. y se corre el peligro de no construir una muestra lo suficientemente representativa. desvirtuando. entonces. son las siguientes: a) Respuestas breves: En general. se restringe la amplia base de la materia a pocas parcelas determinadas. la altura del edificio. el pro- . definir/o. A este propósito. la ausencia de una buena respuesta puede hacer que la pregunta quede invalidada para juzgar logros. ya que las diferentes opiniones y prejuicios personales pueden influir considerablemente en la evaluación de las respuestas de los alumnos. a nuestro juicio erróneamente. «Decir todo lo que sepas». Goring (1971) y Gronlund (1974) distinguen y califican. se ofrece a ayudarle en su decisión. deduciríamos el espacio recorrido. resumir. analizar. Para ello. explicar. porque tiene tantas respuestas que le es difícil decidirse por una. por lo que el profesor le invita a fIr- mar y entregar el examen para no perder más tiempo. los triángulos semejantes nos llevarían a poder calcular también la altura del edificio. es pre- ferible «Definir los distintos tipos de metáfora ilustrándolos con ejemplos». se me ocurre que puedo colgar el barómetro de una cuerda e ir soltándolo lentamente desde arriba. Si además disponemos de un cronóme- tro. tendríamos así la altura del edificio en "uni- dades de barómetro". debe expresarse la pregunta sin ambiguedades. en caso de que el objetivo se refiera a capacidades más complejas. entre incrédulo y molesto. para lo que le pide sus hipotéticas respuestas. comparar y definir. la evidencia en la que basan sus conclusiones y la lógica de sus argumentos.Pruebas libres 139 sacan los alumnos no es lo importante. El alumno le sorprende dicien- do que se lo está pensando. Por ejemplo. debe definirse lo que se le pide al alumno tan completa y específicamente como sea posible. Si hoy no estuviera nublado. valorar. Puedo también ir subiendo por las escaleras del edificio y con el baró' metro ir haciendo señales en la pared. qué. si se trata de objetivos de comprensión: «enumerar algo. se cuenta que un alumno aseguraba que se le había suspendido en Física injustamente. El profesor. escueta y directa pregunta: «Cómo se puede calcular la altu- ra de un edificio por medio de un barómetro». y luego medir la longitud de la cuerda usada. Empieza entonces el alumno a enu- meradas: «En primer lugar. o sea. que de situa- ciones para evaluar aprendizajes. cuánto». lo importante es. No hay que limi- tarse a preguntar sólo un contenido. ni tampoco una capacidad. «Las Leyes de Newton». Por el contrario. por ejemplo. dar las razones. Incluso más. o darle más libertad que la necesaria para medir los logros pretendidos. pero sin interferir con la medida de los objetivos. Se le da una nueva oportunidad. Las preguntas de contestación indeterminada y controvertida son más propias de actividades y ejercicios durante la instrucción. para ayudade a organizar sus conocimientos y capacidades. diseñar un plan. tirando el barómetro desde lo más alto y midiendo el tiempo que tarda en lle- gar al suelo. cómo. Sin embargo.Puede ayudar el aña- dir una explicación inspirada en los criterios con que se va a evaluar la respues- ta. criticar una realidad». en vez de preguntar escuetamente «Definir metáfora».y las de síntesis y valoración como «Libres». podríamos medir la sombra del edificio y la del barómetro en la acera. Había transcurrido casi una hora sin que el alumno hubiera escrito una sola línea. las preguntas de memorización y comprensión como «Restringidas». no es aconsejable hacer preguntas en cuya respuesta los expertos puedan no estar de acuerdo. sino simultáneamente ambos aspectos del objetivo seleccionado. más bien. el profesor le formula la aparentemente clara. de manera que los alumnos comprendan totalmente lo que se espera que hagan. y «resolver. inmediatamente en el examen y mediatamente en su estudio personal. y menos facilitada. cuando a alumnos universitarios se les dio la oportunidad de omitir 1 de 5 RA. perdiendo tiempo en elegir las opciones en vez de abordar directamente las respuestas. el abanico de las calificaciones tiende a cerrarse y. Portero. sino de ir más allá.140 La evaluación de aprendizajes blema es que sólo vale para una vez. ya citados en el capítulo 2 al hablar del enfoque cognitivo de la evaluación. pero no la que pretendía el profesor. Algunos insisten en justificar las preguntas opcionales diciendo que hacen el examen más justo. El alumno dio seis respuestas. La siguiente es de nivel superior. d) Pilotar la respuesta: Se trata de no limitarse a confeccionar una guía de corrección. no es injusto pedir que los alumnos respondan a todas ellas. llegaríamos. Por otro lado. me dirigiría a él y le diría: Sr. Si la respuesta permite variación en extensión y detalle. Estas conclusiones quedan justi- ficadas por la investigación. así. desde que Meyer (1939) encontró que. lo que . otros autores. Pero incluso en tales situaciones. a la altura del edificio. relacio- nada con la presión atmosférica. la oportunidad de ele- gidas puede ayudar a los alumnos menos preparados y perjudicar a los mejor preparados distrayéndolos. indispensable si tiene que corregir un profesor distinto del que construyó la prueba. el profesor debe adelantarse y especificadas. Las preguntas opcionales pueden justificarse cuando los alumnos han tenido diversas oportunidades de instrucción en distintos temas. es decir. y Belmonte (1996). se va imponiendo el exigir que el alumno exprese su respuesta en forma de hypertexto. ya que. como Novak y Gowin (1988).sorpren- dentemente sólo el 58% de ellos omitieron la pregunta que responderían peor. redactar la respuesta ideal o recopilar las respuestas que suelen y pueden dar los buenos alumnos. si el formato de las respuestas es sig- nificativo. Pero si todas las cuestiones son importantes. e) Preguntas opcionales: Se recomienda no formular preguntas opciona- les. Más aún. se lo regalo». es decir. La venta- ja es tener un punto de referencia complementario para lograr uniformidad en la calificación. La pregunta no era tan clara. si cada alumno elige preguntas diferentes. la base para comparar resultados se debilita. El hecho de pilotar la prueba es también una ocasión para que el profesor reflexione sobre la calidad de lo que pregunta y la forma de preguntado. debe explicitarse en las instrucciones. sugieren el formato más ambiguo de mapa conceptual. tengo un barómetro fenomenal. hasta elaborar por anticipado un esbo- zo de las posibles respuestas esperadas. Pero reservo para el final la que más me gusta: supongo que el edificio será importante y tendrá portero. como consecuencia. En Álvarez y Soler (1999) se estudia con detalle esta forma de estructurar la información. pero la decisión sobre ellas por parte del alumno no es una variable relevante. a través del valor de "g". varios exámenes calificados por separado pueden seguir siendo preferibles a un examen común con preguntas optativas para dar una sola califi- cación. será menor su discriminación y fiabilidad. si me dice la altura del edificio. pero quizás se me admita: colgando el barómetro de una pequeña cuerdecita para formar un péndulo y midiendo el período en la cima y en la base. prisa. se asigna una puntuación teniendo en cuenta la calidad global de la res- puesta. se puede calificar. véase. conclusiones aceptables. haciéndola más o menos fácil y más discriminante.Pruebas libres 141 puede sugerir matices adicionales para mejorarla. basada principalmente en la consistencia del contenido. etc. refuerzan dichas sugerencias. además de las sugerencias de construcción ya mencionadas. Se presta más para hacer una valoración normativa relativa que criterial absoluta. desgaste de la sensibilidad (un error juzgado como grande en el primer examen puede parecemos insignificante después de haberlo leído muchas veces en los exámenes siguientes). y la matiza con datos tales como kilómetros de rodaje. El corregir con objetividad es uno de los problemas de las RA. Shermis y Burstein (2003). por ejemplo. Junto a la subjetividad. en tres grupos [Alto-Medio- . y coloca los exámenes. que hace la valoración globalmente a partir de un indicador fun- damental. El método holístico se puede perfeccionar haciendo una corrección por grupos: El profesor. que es la más frecuente en la evaluación académica. se están desarrollando técnicas informáticas para la corrección automatizadas. se proponen dos procedimientos para corregir RA:el holístico y el analítico.es la que se refiere a la sub- jetividad de su corrección. se añade el inconveniente del mucho tiempo y el gra- do de atención que requieren del corrector. en definitiva. el año de matriculación. humor. por ejemplo. un comentario de texto por la impre- sión de conjunto. con una primera lectura superficial de cada respuesta. y por tanto una de las críticas más frecuentes a las RA. vamos a estudiar unos métodos y normas de corrección que. por ejemplo. En la actualidad. ciudad de matriculación y la demanda del mercado. Para entenderlo.porque su eficacia como medida de aprendizajes depende primaria- mente del proceso de corrección. La competencia del profesor es crucial para la calidad de este proceso. estructura y graduación de las partes. etc. y matizada por aspectos como enfoque del tema. En general. primeras impre- siones. a veces llamado «impresión global». De la misma manera. e) Criterios de calificación: Al formular la pregunta. a) Método holístico: En el método holístico. se debe ya clarificar su valor y asignarle al menos una calificación global. puede valer la analogía del tasador de coches de segunda mano. Para citar algunos: fatiga. lo que se completa con una serie de normas para «minimizar» la subjetividad de la corrección. pero incluso profesores competentes pueden hacer cosas sin darse cuenta de que numerosos factores influyen en que los resulta- dos sean menos fiables. Para paliar estas deficiencias. «efecto halo». hace una clasificación provisional. Corrección: Hemos dicho que una de las causas de la falta de fiabilidad. mediante la comparación con las otras que va corrigiendo. aspectos originales: nove- dad en los enfoques. Este tipo de análisis se aplica a una comunicación verbal o escrita en la que pue- dan distinguirse: aspectos formales como claridad de pensamiento. ortografía. describir claramente esas catego- rías para captar su presencia o ausencia en la comunicación. Berelson (1952) y. que deben ser identificados y calificados separadamente. que consiste en la descripción analítica. b) Se omiten ideas importantes necesarias. en la estructuración. Esto supone realizar previamente lo que se conoce como análisis de conte- nido». corrección del lenguaje. más recientemente. Los puntos que se van restando de la calificación máxima se pueden atribuir. c) Se incluyen afirmaciones correctas. cualitativa y cuantitativa del contenido que se manifiesta en una comunicación. asignar una pun- tuación a cada elemento o categoría. Después de terminar esta primera lectura rápida. etc. .142 La evaluación de aprendizajes Bajo] o [Buenos-Dudosos-Malos]. Por consiguiente. irrelevante o que falta. ordenación o sistematización de las ideas. Kripendorff (1980) han aportado sucesivas definiciones de esta técnica. es necesario: distinguir las categorías que se van a observar. estruc- tura de las frases. a alguna combinación de las siguientes deficiencias: a) Hay afirmaciones incorrectas. d) Se llega a conclusiones no válidas. encerrando cada parte una serie de elementos cruciales o categorí- as. como aparece en la siguiente figura: b) Método analítico: Se llama analítico porque descompone cada pregun- ta en partes. ya sea por errores en el razonamiento o por una errónea aplicación de principios. al corregir. es decir. se vuelven a leer más detenidamente los exámenes de cada montón para colocados en grupos subdivididos como [Muy buenos-Buenos-Satisfacto- rios-Malos-Muy malos] o [A-B-C-D-E]. aspectos gramaticales como vocabulario. por ejemplo. La presencia o ausencia de estos elementos en cada parte de las respuestas dadas por el alum- no determina la puntuación. el profesor. pero con poca o ninguna relación con la pregunta. añade o suma puntos por cada elemento que aparece.correspondientes a las notas definitivas literales o numéricas. o resta puntos por cada elemento ine- xacto. en el método hoHstico. así. d) Identidad del alumno: Si es posible. c) Corrección horizontal: Supone corregir por preguntas en vez de por alumnos. y es más fácil interrumpir la corrección sin consecuencias. obviamente. La cualidad de las calificaciones obtenidas con métodos analíticos depende de la capacidad del docente para formular la clave de calificación y de la capaci- dad y cuidado para aplicarla del que corrige. hay que tener una personalidad detallista y minuciosa. pues se obtienen los mismos resultados y las calificaciones son tan fiables con el método holístico. Talprocedi~ miento es indispensable. antes de pasar a la pregunta siguiente. E) Hay errores flagrantes en la ortografía y en las reglas de la expresión escrita. También tiene ventajas en la corrección analítica. 1975). se deben dar instrucciones para que las res- puestas a diferentes preguntas se escriban en hojas aparte. activar capacida- des y promover juicios especiales distintos al ir cambiando de pregunta (Hales y Tokar. una vez que se haya terminado de corregir una pregunta en todos los alumnos. a primera vista el método analítico parece mejor. Estas hojas se clasifican en grupos por preguntas para la correc- ción y se reúnen por alumnos para la calificación final. puesto que concentrarse en una cuestión cada vez ayuda a no tener que hacer transposiciones mentales. Por estas razones. integración y relaciones entre los elementos cruciales que aparecen en la res- puesta. Pero cuando estas relaciones son complejas o sutiles. Este procedimiento pue- . identificadas sólo por un código.Pruebas libres 143 e) Una mala expresión escrita oscurece el desarrollo y la exposición de las ideas. sobre todo. Idealmente. la corrección ana- lítica puede volverse demasiado incómoda y tediosa para ser eficaz. humor. Esto significa que el profesor corrige primero las respuestas de todos los alumnos a la pregunta 1. estableciendo comparaciones interindividua- les. hay que ocultar a quien corrige la identidad del alumno. afec- ten a todos los alumnos por igual. además.. Con todo ello se pueden analizar las respuestas para dar a los alumnos indi- caciones detalladas de sus fallos. prestar atención a la organización. Hay también más probabilidad de que los efectos de fatiga. ya que en algunos casos es tan laborioso y las ven- tajas son tan poco significativas que no merece la pena ponerlo en práctica. dentro de un enfoque de la evaluación más formativo que sumativo. Por supuesto. La clave o guía usada en la corrección analítica defme criterios absolutos y. más simple y más rápido. para realizar este tipo de corrección. etc. bas- tante experiencia y. estas calificaciones absolutas se pueden matizar con valoraciones normativas relativas. sin embargo. La corrección analítica permite. no siempre es así. proporciona calificaciones preparadas preferentemente para una valoración criterial. En todo caso. tiempo para hacerla. mediante frases bien construidas. el pro- fesor no se dará cuenta de la sustitución. 1983). invención. Mientras que ambas usan la escritura como medio de expresión. transforman sutil- mente la pregunta para que les sea más fácil contestada. el nombre. 1979. pues. En la composición escrita. La expre- sión escrita es una capacidad importante que las RAfavorecen. apresura- da. en las pruebas o trabajos de composición. de la calificación en este tipo de pruebas. Esto conlleva. si lo hacen bien.144 La evaluación de aprendizajes de reducir la posibilidad de que prejuicios. en cambio. la mejor o peor expresión escrita puede influir en el corrector cuando enjuicia el contenido de la respuesta. se ve en relación con las calificaciones: cuanto más largas sean aquellas. según la imagen popular de «corregir a peso». Por tanto. más altas serán éstas. asociado con las calificaciones del mismo alumno en otras preguntas del examen. a la vez. incluso la extensión de las respuestas. la primera se centra en el contenido expresado en y con la escritura. entendida ésta como for- ma y contenido. de manera que las pruebas de ensayo den calificaciones que representen logros de aprendizaje en dominios de contenido importantes. incorrecciones ortográficas.) y su estructura orga- nizativa (coherencia. por otro lado. Por otra parte. éstas pueden proporcionar también una práctica de mala expresión. al menos dos profesores tienen que corregir cada pregunta o una muestra. los alumnos ocasionalmente pueden usar sus habilidades de expresión para compensar su falta de conocimiento. Sin embargo. el alumno se puede concentrar . Hughes. la fama o el «efecto halo». etc. mientras en las RAla expre- sión escrita es fundamentalmente un medio de comunicar «contenidos científicos». se valoran también otros aspectos más forma- les. fabulación. f) Objetivo y expresión: Es importante distinguir entre una RA y una composición escrita. legible y fluida. gramaticales o sintácticas pueden influir negativamente. mal concebida. y por tanto de fiabilidad. En ocasiones. aspectos positivos y negativos. especialmente desde la perspectiva de los alumnos. no se suele llevar a cabo. cohesión). sin saber lo que ha asignado el otro. A veces. Una escritura uni- forme. no obstante. la expresión escrita constituye un fin en sí mismo. sin merma de la consideración de los aspectos del contenido (ideas. hay siempre interferencias entre las valoraciones de las RAy la expresión escrita. tanto normativos como estilísticos. etc. influyan en la asignación de calificaciones. Otras. Puesto que es difí- cil de hacer y lleva bastante tiempo. puede compensar algunas deficiencias en el objetivo (Chase. Es importante. tener en cuenta la distinción entre los fines de las RAy la valoración de la expresión escrita. no habilidades en composición. Keeling y Tuck. La corrección independiente que lleve a una correlación entre pares de cali- ficaciones en cada pregunta es la única comprobación de la objetividad. Más aún. e) Calificaciones independientes: Para conseguir calificaciones indepen- dientes. por ejemplo. es una tarea tan difícil como construir buenas PO.que respondan a lo expresado en páginas anteriores. se pueden formular las siguientes sugerencias: a) Utilizar RApara evaluar los objetivos de aprendizaje que otros formatos no pueden valorar eficazmente. A par- tir de esta convicción.. con la esperanza de que esto aparte la atención del profesor de su falta sustancial de conocimiento. cons- truye las pruebas y las corrige. y tiene pocos alumnos. etc. es decir.Pruebas libres 145 más en la forma que en el fondo. los que construyen las pruebas y los que las corrigen. Aplicación: La construcción de buenas RA. c) Preferir RAcuando no se pueda garantizar el copiar. no dejarse llevar de la rutina para proponer RAen circunstancias tales como cuando son muchos los alumnos que hay que evaluar. aunque todos debe- mos ser conscientes de estas posibles interferencias. No todos los profesores se dejan engañar con facilidad. el azar. y se pasa todo el día con ellos. b) Acudir a RAcuando no compense el esfuerzo de construir otros formatos de PO. son distintos los profesores que enseñan. cuando es el mismo profesor el que enseña. La calidad de la prueba baja excesivamente si hay que responder mucho en poco tiempo: la prisa impide al alumno pensar y organizar. . en la presentación elegante de unas pocas ideas simples. d) No utilizarlas si se dispone de poco tiempo. Y lo más frecuente es que los alumnos que necesitan más la ayuda de estos engaños son los menos capa- ces para usar estas técnicas. al aplicar PO. se dispone de un banco de pruebas objetivas. Las recomendaciones irían en sentido contrario. . S:lH811 SV8:1nHd :la SOdl~ SOH~O . . Ejemplos: al. El alumno ha de resumir y transcribir en PO lo que ya escribió en su RA. Las pruebas mixtas (PM) pueden combinar las ventajas del examen clásico (RA) con las de las pruebas objetivas (PO). PRUEBAS MIXTAS 1.con lo que se consigue tener constancia escrita de su razonamiento a disposición del corrector. Prueba libre (RA): Explicar el concepto de función continua en un punto.función x->a d) * b) 1. 2. transcribir lo que se pide: . los problemas que se proponen. Prueba libre (RA): Resolver. Prueba objetiva (EM) (ejemplificación parcial de la PO): [(x)= lim lirn. Prueba objetiva (RL): Después de resolver cada problema. en hoja aparte. ¿'Cuál seria la gráfica de una función continua en x = 2? ···m1 y y 2 m ••••••• ¡ 2 f(2l = 3 O f(2l = 2 . e) x->a x~a x->a liIll Una [(xl x~a lim = =y[(al =[(xl [(a) f(x) [(xl [(al es continua en el punto a si: al A··· .í-i ~ f(2) = 2 ~ í t ••f" no está definida en x=2 a) *b) C) d) a2.. Objetivo: Aplicar conceptos de mecánica. sino uno solo presentado mediante dos formas secuenciadas y complementarias: examen tradicional y prueba objetiva con formato EM o RL. No son dos exámenes sin relacionar. Objetivo: Comprender el concepto de función continua en un punto. entregarle la PO para que la responda en un tiempo limitado (alrededor del 25% del tiempo de la RA). Un volante que está en reposo empieza a girar con una aceleración de 5 radls2 durante 20 min. en este instante se le aplica un freno que le comuni- ca una aceleración negativa de 12 radls2. estos propósitos están con frecuencia relacionados. así como de instrumento de evaluación. o proponer en primer lugar que el alumno desarrolle la RAcon un amplio mar- gen de tiempo y. 2. activan sus conocimien- tos previos y modelan estrategias metacognitivas. antes de una prueba. Las preguntas orales como estrategias de enseñanza sin la formalidad del examen oral pueden cumplir. calcular el tiempo que tarda en subir al punto más alto. particularmente cuando la naturaleza de la evaluación es formativa más que sumativa. RAy PO. . no se entienda algo de la PO o se quieran evaluar razonamientos. las siguientes funciones: a) De repaso para. b) el número de revoluciones totales dadas. La práctica docente es pródiga en el uso de preguntas orales que sirven para ayudar al aprendizaje. y c) el tiempo que tarda en pararse desde que se le aplica elfreno. Se lanza verticalmente hacia arriba un proyectil con una velocidad de 150 mis. revisar y reformular lo mal aprendido. Las preguntas ayu- dan a provocar la participación de los alumnos. y a veces son inseparables. y se acude a la RAcuando se tengan dudas. Calcular: a) la velocidad máxima alcanzada. fue el formato predo- minante aun antes de la aparición de las instituciones educativas. Por supuesto. Datos: v = E--·f cuaclOn utz'1'zzad a: t = Resultado: t = s 2. simultáneamente. Se corrige la PO.150 La evaluación de aprendizajes 1. transcurrido el mismo. b) De introducción en sesiones de discusión y debate. a) Ecuación utilizada: w = Resultado: w max = radls b) Resultados Darciales: Radianes antes defrenar= Radianes después defrenar= Vueltastotales= c) Ecuación utilizada: t = Resultado: t = s Aplicación: Se pueden entregar ambas pruebas. entre otras. EXAMEN ORAL Los exámenes orales (EO) han sido los primeros instrumentos de evaluación utilizados para comprobar rendimientos de aprendizajes. para ir más allá de la mera formulación de un dato. La improvisación inherente al diálogo ofrece. completadas con contrapreguntas adapta- das a las respuestas de los alumnos. para facilitar oportunida- des de que los alumnos piensen crítica y creativamente. al no preguntar lo mismo a todos los alumnos. En suma. para hacer diagnósticos sobre la raíz de los problemas de aprendizaje. Entre las muchas que se han utilizado. la fuerte incidencia del azar. En su forma clásica. tienen un error conceptual o han entendido mal un proceso. sin embargo. ello puede dar pie a grandes desconfianzas (Contreras. 2. sobre todo si el examen no es público. 1990). es decir. que estudiaremos a continuación. podemos citar las siguientes: 1. Por ejemplo. Una dificultad obvia es su estandarización. A partir de pistas no verbales que leen en las caras de los alumnos. por lo que resulta difícil dejar constancia de las preguntas de los profesores y de las respuestas de los alum- nos. no estruc- turados. nos interesan más las preguntas como instrumento de evaluación. los profesores formulan frecuen- temente preguntas orales sucesivas.Otros tipos de pruebas libres 151 c) De animación del pensamiento creativo. saber si a los alumnos les falta información. pre- guntar .¿yentonces qué?» o "si estuvieras afónico y no pudieras hablar en tres meses por prescripción facultativa. se menciona la relación que existe entre el examen oral y la entrevista). Aquí. Para mejorarlas. son un formato de prueba libre que consiste en un diálogo con un examinador que plantea preguntas generalmente no relacio- nadas entre sí (en el cap. 10. La función evaluativa que el interrogatorio oral parece lograr mejor que otros formatos es valorar la situación inicial de los alumnos para poner en prác- tica unos determinados procedimientos instruccionales. Libertad: Clasificación de las preguntas según el grado de libertad que dan al alumno para responder.. método o principio y estimular el uso de nuevos conocimientos mediante un nivel más alto de pensamiento. son especial- mente importantes los métodos para formular las preguntas y registrar las res- puestas. ¿cómo se debería modificar el programa de Arte Dramático en el que participas?». Por otra parte.1. una gran flexi- bilidad para tener en cuenta circunstancias atenuantes de los fallos o pasar de los puntos fuertes a los puntos débiles del alumno. por añadidura. y la valoración subjetiva del profesor suelen ofrecer pocas garan- tías de fiabilidad y objetividad en las calificaciones. las preguntas ora- les pueden muy bien ser la primera técnica que activa inclusores con objeto de empezar una unidad de instrucción y la última de síntesis para cerrarla. es decir. . que el alumno debe repentizar. y así poder reajus- tar las estrategias de enseñanza. por ello se adaptan mejor a objetivos de reconocimiento y comprensión de un conjunto misceláneo de conocimientos aislados. Clasificación de las preguntas: El aspecto que ha recibido más atención de los investigadores hace referencia a la clasificación de las preguntas. Función: Clasificación según la función de la pregunta. es una referencia obligada y clásica de esta taxonomía. buscan.9. aun en las respuestas que se dicen libres. acostumbrados a complacer al profesor. repetir datos. a) Evaluación: Para obtener feedback de si los objetivos han sido alcanzados. 2. Síntesis: Requieren creatividad y originalidad para llegar a conclusiones «nuevas». definiciones. sin embargo.?».. Ejemplo: "Exprésalo con tus propias palabras». relaciones causa-efecto.¿Cuáles la idea principal de lo que se ha leído?». etc. Ejemplo: . la dificultad de evaluar la respuesta.¿Todoel mundo oye bien?». 1966. Análisis: Se preguntan relaciones implícitas a través de razonamientos inductivos o deductivos. Ejemplo: "Éste es el problema . lo que más pueda agradarle. 1970). . Aplicación: Estas preguntas requieren resolver problemas mediante la identificación de datos y selección de generalizaciones previamente aprendidas. procedimientos.. inspirada en la de Bloom.¿Cuáles la diferencia entre verbos regulares e irregulares?».. Ejemplo: . sensibilidad ante los problemas. etc. cómo. para lo que se necesita tener una base sólida de conocimientos.. por ejemplo. o se dan en la misma pregunta pautas de la respuesta.. Ejemplo: . No se piden reflexiones propias.¿Quién inventó la bombilla?». Capacidades: Clasificación de las preguntas según la capacidad con la que se relacionan (Sanders. Esto no quiere decir que el profe- sor no se imagine la respuesta. 3. una mente inquisitiva. 4. punto de vista del autor. c) Procedimiento: No se espera una respuesta referente al aprendizaje. introduciéndolas con términos tales como ¿qué. Memoria: Preguntas cerradas y convergentes en las que se busca que el alumno reproduzca una información exactamente como la recibió. b) Abiertas o divergentes: Dejan al alumno la exploración libre de la res- puesta. proponga cuantas soluciones posibles se le ocurran para resolverlo». etc.152 La evaluación de aprendizajes a) Cerradas o convergentes: Se dirigen hacia respuestas preestablecidas.. ya que hay alumnos que. cuándo? Ejemplo: . Comprensión: Preguntas convergentes con cierta dosis de divergencia en las que se pide realizar operaciones mentales como: Traducción: Cambiar el lenguaje o forma de la información. b) Metodológicas: Como estrategia para alcanzar nuevos objetivos.. Extrapolación: Se pide usar una información para sacar conclusiones. Existe.¿Cuál es la fórmula de la longitud de la circunferencia?». Ejemplo: "Cuáles son los dos términos siguientes de la sucesión 1... Interpretación: Descubrir relaciones entre datos explícitos. 16 ... sino sólo reconocer una comparación leída. también se puede mencionar Walter Mon- roe citado en Nérici. pero es importante que no la condicione.¿Osfalta algún libro de consulta?». Ejemplo: .. 1974) ha mostrado que se pueden obtener grandes beneficios con sólo aumentar el tiempo de espera a cuatro o cinco segundos.. espontáneas y apropia- das.. entre otras cosas. suponen tener criterios. qué y cuándo»: ¿Quién escribió El Quijote?. Así. añadiendo más razones para avalar sus deducciones. las conclusiones de las investigaciones ponen de manifiesto que la naturaleza de la comunicación en las clases permanece en un nivel de preguntas que requieren mera memorización y. el tiempo medio transcurrido entre el fm de la pregunta y la nueva intervención del profesor es de un segundo.Otros tipos de pruebas libres 153 Valoración: Esperan un juicio (bueno/malo. Se puede pedir valorar conocimientos: . los alumnos aumentarán la confianza en sí mismos. 1977). las preguntas que exigen alguna relación suelen emplear los términos «cuál. Por su parte. Razones de estas deficiencias pueden ser la carencia de buenos modelos. Generalmente. centrarán las estrategias de enseñanza en el alumno y aprenderán a mantener el nivel taxonómico a lo largo de una secuencia de preguntas. realizarán más digresiones e interrogantes en voz alta. con- viene formularle una nueva pregunta más básica. comprensión literal CEbel y Frisbie. la creencia de que son fáciles de realizar. o actitu- des: . Si es necesario facilitar la tarea en un primer momento. las habilidades de los profesores para hacer preguntas mejorarán.2. y así ofrezcan una información significativa- mente válida para tomar decisiones instruccionales: a) Formulación de la pregunta: Elegir los términos adecuados para que la pregunta represente el nivel taxonómico deseado.) sobre hechos de acuerdo con unos criterios. He aquí algunas sugerencias para hacer preguntas que propongan retos de cierta profundidad a los alumnos. Rowe (1969. en algunos casos. Construcción: A pesar de las afirmaciones altamente retóricas sobre su utilización para provocar y valorar capacidades mentales de orden elevado. la escasa preparación del profe- sorado respecto de su formulación. para continuar con . la falsa consideración de su intrascen- dencia para planteadas como tema de estudio. Las preguntas bási- cas empiezan por «quién. ¿Por qué es este editorial más persuasivo que aquel?. por qué y cómo»: ¿Cuál es el argumento más convincente?. Por tanto. que exteriorizarán al hacer más preguntas. darán respuestas más largas. c) Constancia: Se debe seguir preguntando al mismo alumno aunque res- ponda mal. la nueva pregunta es más simple y de nivel inferior a la original. correcto/incorrecto. cono- cer datos y comparados. ¿Cuándo se escribió La Celestina? En cambio. 2.¿Cómote sientes con la negativa de tus compañeros a tu invitación?». etc. además.¿Porqué crees que ésta es una buena solución para poner en marcha este motor?». ¿Cómo se expresaron los Derechos Humanos en la Carta de la Naciones Unidas? b) TIempo de espera: Los profesores tienden a esperar muy poco antes de volver a formular o hacer nuevas preguntas. etc. La mayoría de los profesores no somos capaces de improvisar buenas preguntas. Los alumnos a quienes se olvida después de responder mal. Por ello. 10. En la primera se registra el tipo de pregunta que se hace a cada alumno y las respuestas correctas (las preguntas se señalan con una marca /. y propor- ciona oportunidades adicionales para una evaluación formativa. algunos pro- fesores preparan preguntas y las escriben en sus guías de clase. al hablar de la observación). A manera de ejemplo. constantes o muy motiva- dos. que es preferible hacer de inmediato. el profesor puede también detectar si se olvida o atiende excesiva- mente a algún alumno: /0Valoración /00 0/0/ Explicaciones Predicciones Aplicación/ Memorización / NATURALEZA Comprensión/ de datos. más pronto les dejarán en paz. la participación de cada alumno. hasta volver a la pregunta original. fortalece y promueve una comprensión más profunda. d) No-voluntarios: El preguntar sólo a los voluntarios hace que los tímidos sigan siéndolo. se ofrecen dos tablas que se diseñaron para fines distintos. DE LAS PREGUNTAS . Pedir.154 La evaluación de aprendizajes otras. que los que no atienden sigan sin atender y que la audiencia de aprendices se reduzca a los listos. Esto permite al profesor determinar el tipo de preguntas más usado. de acuerdo con la tradición «mayéutica». que unos alumnos parafraseen o reformulen las respuestas dadas por otros fuerza una atención constante por parte de todos. aprenden dos cosas: las preguntas que se les hacen a ellos no deben ser demasiado importantes y que. por lo que las espontáneas tienden a promover un nivel de conocimiento memorístico más que de comprensión y aplicación. no confiado a la memoria. e) Planificación: La mayoría de las buenas preguntas orales son tan difíci- les de formular como el hecho de escribir buenos ítems. 2.3. el éxito en general y en cada tipo de respuesta. Por supuesto. en cambio. la próxima vez. Los fines de las preguntas y la naturaleza de las respuestas dictan las caracte- rísticas de las formas de registro que se deben usar (las formas de registro son similares a las que se proponen en el cap. Registro de datos: Si las respuestas a las preguntas orales se van a usar en una evaluación sumativa. y las respuestas correctas con 0). el registro será menos necesario. si las respuestas se van a usar enseguida para una evaluación formativa. se necesita llevar un registro permanente. cuanto antes respondan mal. sino que lleguen a un «saber cómo». Pará evaluar estos objetivos en prueba práctica real (PR). sino que incluyen objetivos del ámbito psicomotriz con aspectos eminentemente prácticos. sin embargo. y cuando se requiera juzgar la capacidad de intervención en público. fundamentalmente teórico.) Aunque siempre debemos pretender que los alumnos no se queden en un «saber qué». El profesor realiza una observación directa de la actividad del alumno. Se desaconseja el examen oral.Otros tipos de pruebas libres 155 La tabla siguiente trata de mostrar. Aplicación: Se aconseja este tipo de examen cuando sea necesaria. o al menos conveniente. como las tecnológicas. más que la naturaleza de las preguntas. 1990. la cantidad y calidad de la participación y de las respuestas de los alumnos: /// relación Sin Centrada en// el tema // Relacionada con NATURALEZA reformulada parcialmente Pregunta DE LAS / PREGUNTAS 2. esto es importante sobre todo en algunas materias. (Un proceso para evaluar trabajos de alumnos universitarios se puede encontrar en Contreras. por el excesivo coste de tiempo en relación con el valor limitado de las informa- ciones aportadas. que con frecuencia supone un coste elevado de tiempo de observación (es de aplicación aquí lo que se dice en el cap. Algunos ejemplos de PR son realizar operaciones: . para realizar una evaluación sis- temática de un repertorio de objetivos o si el número de estudiantes es grande. PRUEBA PRÁCTICA REAL 3. la presencia directa del alumno. 10. el estudiante tiene que realizar presencialmente tareas que requieren la aplicación de destrezas en circunstancias semejantes a las requeridas en la vida profesional. cuando haga falta una apreciación simultánea independiente de varios examinadores.4. necesaria para el poste- rior ejercicio profesional. para las que no es suficiente un dominio de objetivos del ámbito cognoscitivo. al hablar de la observación). en el caso de experiencias que: c) Requieran individuos singulares no uniformes. etc. concretados. como hacer pesadas. . Hábitos de trabajo individual y en grupo.156 La evaluación de aprendizajes . Vale como estrategia de enseñanza-aprendizaje o evaluación. Mediante el proyecto (PY) se pueden evaluar objetivos de habilidades com- plejas. es decir. biblioteca. valoraciones y disecciones. De campo. síntesis y valoración. . es imprescindible establecer una rela- ción de confianza con los alumnos para evitar posibles fraudes. d) Supongan un riesgo para alguno de los que intervienen. capacidad y reacciones de los alumnos ante situacio- nes complejas que necesitan de varios sentidos. taller o a la cabecera del enfermo. e) Sean grupos numerosos de alumnos y sea difícil para los examinadores observar a los candidatos durante las pruebas. el estudiante debe realizar una actividad o tarea profesional que tendrá como resultado un producto para evaluar. sólo se podrá llevar a la práctica cuando haya un equilibrio del coste con la información recibida tanto por pro- fesores como por alumnos. . b) Apreciar cómo el alumno se enfrenta con problemas reales en el labora- torio. entre otros. De laboratorio. Se desaconseja. Aunque aparentemente se den las circunstancias adecuadas para utilizar este formato de evaluación. tales como análisis. dado su elevado coste. . para los mismos alumnos. Dominio de los matices interdisciplinares de una tema donde se pongan de manifiesto conexiones entre varios aspectos de una asignatura. Clínicas. pacientes o profesores. justo en el momento en que hacen la demostración de las aptitudes requeridas. PROYECTO En un período de tiempo variable. en los siguientes aspectos: . Aplicación: Se aconseja evaluar a través de PRcuando sea necesario: a) Verificar la actitud. entre varias asignaturas o entre lo académico y la vida real. tales como personas (por ejemplo. como manejar un pe. . sin embargo. como controlar la presión arterial. en el caso de enfermos que pueden demostrar más o menos buena voluntad). animales. Informáticas. plantas. 4. piezas únicas. En todo caso. . en contraste con la aplicación rutinaria de procesos o recetas prefabricadas. La responsabilidad del compromiso personal. el profesor. Diseños de la organización de un taller.pronunciada en un Congreso organizado por Educational Testing Service de la Universidad de Princeton. al examinar el producto. Realizaciones de disecciones. . sin embar- go. y que representa vicariamente un caso real propio de la competencia profesional. 10) de las tareas. cortes. etc. el profesor debe proponer objetivos claros y asequibles de su asignatura. Capacidades de comunicación (síntesis. . el formato se convierte en prueba diagnóstico (PD) (cap. puede hacer también una evaluación indirecta. empresa. . mecanismos. la solución de una situación-problema cambiante. informes. apuntes personales. presentación de la información).propuso las características de este ins- trumento de evaluación en la conferencia: «prograrnmed Testing in the Exarnina- tions of the NBMEE». 1976). Sustituye a la observación directa del comportamiento del alumno ante una situación real. o también pue- den seleccionarse entre los que propongan los alumnos. En todo caso. 1991).Otros tipos de pruebas libres 157 .Hubbard. etc. No existe un solo tipo de Proyectos. especialmente en aquellos casos en que su duración es larga o encierra peligros para el alumno (es el caso de prácticas de laboratorio) o para la situación simulada (como en algunos casos clínicos). preparaciones de laboratorio. Si no se formulan pre- viamente unos objetivos y un esquema de trabajo. piezas. estructuración. que cada alumno realiza dentro de su proceso normal y habitual de aprendizaje. por simulación tan fiel como sea posible. el profesor J. así como un esquema de trabajo. Investigaciones de campo o bibliográficas. Se trata sobre todo de objetivos que incluyen capacidades de tipo cognoscitivo superior y psicomotriz. NewJersey (McGuire. Interesa más el producto que el modo de actuar del estudiante. en la que el candidato avanza a través de una serie de problemas consecutivos. El fm de la simulación es medir. Director Ejecutivo del Natio- nal Board of Medical Examiners (NBME). ni una sola manera de realizados (Carrasco. que evoluciona cronológica- mente durante horas o días. trabajos cotidianos. Recuerda también ciertos aspectos de la enseñanza programada. P. tales como su alto nivel de objetividad y la posibilidad de corrección mecanizada o informatizada. etc. El 2 de noviembre de 1963. SIMULACiÓN 5. El método tiene características comunes con las PO. Ejemplos: . deduciendo el proceso seguido. la presentación hay que hacerla a través de robot. el alumno debe conocer inmediatamente las consecuencias de sus res- puestas. o casos clínicos con objeto de evaluar la capacidad del estudiante de medicina para detectar o interpretar convenientemente síntomas anormales. Como ejemplos. A la hora de corregir. las incorrectas con-1 y las indiferentes con O. diapositivas o películas. dando respuestas y tomando decisiones ante cada paso. por lo que hay que ir proporcionan- do las soluciones por escrito.158 La evaluación de aprendizajes La situación real se presenta por escrito en casos sencillos. sir- ven el manejo de artilugios relacionados con la marina y la aeronáutica. y mejor a través de programas informático s inte- ractivos. . como el que se incluye en el Anexo 2. para pasar a la elección siguiente. por ejemplo: las respuestas correctas se valoran con + 1. ordenador. En las formas de simulación menos elaboradas. En estos casos. elfeedback a las respuestas de los alumnos se da al final. El alumno debe seguir el proce- so a lo largo del tiempo. En casos más complejos. de llegar a un diagnóstico razonable y demostrar un juicio válido en la elección de una tera- péutica. en forma de PLo PO. El peligro en las formas más elaboradas es que la desviación puede ser grande si cada respuesta depende de la anterior. se incluyen ejem- plos en el Anexo 1. vídeo. se pueden penalizar las respuestas incorrectas. Enunciado: Un problema líquido tiene reacción alcalina. se pasa HJ y se obtie- ne precipitado amarillo. Sr2+. VOi. Sr2+.blanco wot. de color blanco.coloreados Mg2+ J. PreCIpitado negro . se añade amo- níaco y se pasa HJ. ¿Qué iones puede contener el problema y cuáles existen con seguridad? SOLUCIÓN:A partir de losfenómenos que nos ofrecen los datos experimen- tales del enunciado. No hay ni siquiera indicios de precipitado negro. Cr3+. Ba2+ Zn2+. azul K+. Ni Zn2+. vamos sacando conclusiones sobre los cationes que no existen o es posible que existan. Cd2+. aunque se añada exceso de polisulfuro. ENSAYO NO EXISTE POSIBLE Cu2+ Líquido pH>7 CrOt amarillo K+. obteniéndose un abundante precIpitado que se disuelve en ligero exceso de HCI. Color azul Hg2+ J. e) En la solución procedente de separar el precipitado (b). ajustada la acidez. Mn2+ J. c) El precipitado (b) se trata por Sx(NH)i Se disuelve sólo parte de él.Pb J. permaneciendo insoluble una parte pequeña del mismo.negro Ag+ A¡3+. hasta llegar a la solución final. Ba2+ C02+. Bi3+. . Fe3+ Ca2+. MoOt Se disuelve parte wot Ag+ Ca2+. PreCiPitado blanco. MoOt Olor NH3 Sn2+. b) En la disolución clorhídrica.f) En el filtrado procedente de (e) se añade fosfato sódico.Otros tipos de pruebas libres 159 ANEXO I SIMULACiÓN DE QUíMICA ANALíTICA Objetivo de aprendizaje: Identificar cationes en una disolución problema siguiendo la marcha del HJ. Mn2+ Mg2+ . fuerte olor a amoníaco e intenso color azul. AsOl.blanco con HCI VP4 J. Cd2+. d) La solución (c) se acidula con HCI: PreCiPitado amarillo insoluble en HCI concentrado. Se verifican los ensayos siguientes: a) Una parte se acidula con HCI. AsOl.Sb. AsO/ AsO/oCd2+verde Mg2+ K+. amarillo blanco .AsO/.° EXISTE POSIBLE wot. Ba2+ Cd2+. K+. Ca2+ K+.j. ~ dlón. Ca2+ ° Mg2+ POSIBLES: K+.j. ppdo. pardo negro amarillo K+ Ca2+. Cd2+. Zn2+. Ba2+ Ca2+.Sr2+.j. Ag+ Zn2+. Sr2+. ~ dlón. AsO/ ° Cd2+. t t dlón.AsO/. color azul + HCI ____ ~A~ ~ a ppdo. NH3. blanco EXISTE Mn2+.Ba2+ amarillo g+ Sr2+.j.j. Mn2+ Ca2+. permanece + negro + amarillo Hel Na3P04 d ppdo. 160 La evaluación de aprendizajes ENSAYO NO Ag+ MoOt. ppdo. b amarillo + Sx(NH. ~ dlón. t t dlón. Mg2+ Mg2+. a blanco + se disuelve parte HzS ~ ~A~ _ b ppdo.j. Cd2+ Ba2+ Mn2+ amarillo SEGUROS: Cu2+. . Sr2+. Sr2+. Ag+.J2 c ppdo.j. Zn2+ . ~ dlón. Ba2+ ESQUEMA PH > 7. (ESCOJA OTRA ACCiÓN) . ictérico. Durante este tiempo uno de los niños hace -1 tura. Un niño de 3 años que presenta una afección del cuero cabelludo. 6-16 de febrero de 1977. no disneico. cianótico. Hacer tomar la tempera. Taller de Docimología de Timimoun. ¿QUEHARÍA VD. Una niña de 3 años hipertérmica y con disfagia. 8. que consulta por palidez. 9. Un muchacho de 14 años con un flemón en la mano. disneico y febril. 5. Estos niños presentan las características siguientes: 1. -1 examinando a los enfer.Otros tipos de pruebas libres 161 ANEXO 11 CASO CLíNICO (preparado por el profesor J. Comenzar su consulta 5 minutos después del comienzo de la con. todos los niños. Enunciado del caso: Cuando llega a la sala de espera de la consulta externa de pediatría. EN ESTE MOMENTO? (No tiene derecho más que a una elección) ETAPA A: DECISiÓN CONSECUENCIAS 1. Un lactante de 6 meses. sulta. 11. y que presenta signos evidentes de deshidratación. Guilbert. Un niño de 7 años que presenta una artritis de rodilla derecha. espera. Grangaud. 10. 15. que presenta tos y fiebre. Una niña de 15 meses. Un lactante de 2 meses. febril. (ESCOJA OTRA ACCiÓN) 2. Un lactante de 7 meses para una revisión sistemática. encuentra Vd. Un niño de 5 años que presenta una bradipnea respiratoria con que- jido. 13. 7. El estado de uno de los niños se ha agravado. Una niña de 6 años con dolores abdominales desde hace 15 días. 2. 12. 6 Una madre con un recién nacido bajo su manto. Un lactante de 6 meses que presenta una diarrea sin signos evidentes de deshidratación. con diarrea desde hace una semana. P. pesar y tallar a una parada respiratoria. Un niño de 8 años. Un niño de 8 años. la enfermera le llama a la sala de mos por orden de llegada. 1989) Objetivo de aprendizaje: Atender por orden de prioridad a varios enfer- mos que se presentan simultáneamente. 4. Argelia. 14. a 15 niños acompañados por sus madres. Un recién nacido de 10 días. 3. .... 10..............está la hace sala de Vd... Se Mientras llama el enfermera le Peso: Un llama niño Altura: lemanto aausculta 4................... (+1) 9........ donde respiratoria Perímetro sala craneal: urgencia 44 cm... 8....... 6...... a este unniño......... un en niño craneal: espera la sala presenta ...................................(-1) de... recién otronacido demuere deen10 la días sala cianótico de35.......... la.........Se Bajo le La 7...........162 La evaluación de aprendizajes NOTA 3... CONSECUENCIAS 7..........9 Y 10.......64 la aurgentemente lale Altura: unasala le de llama cm.................. 4. Focos de CASO estertores crepitantes NUMERADOS en ambos DEL1 ALfrías 15................ niños.............................(-1) (-1) (O) ........... DONDE ELEGIRÁ ESTOS NIÑOS ENTRE LOS 15 QUE FIGU- RAN EN LA LISTA) Mientras hace el traslado... ENUNCIADO °C.......... Pliegue campos 90 Amin.. niños 7.. Frecuencia respiratoria: .... I -1 4...8QUE Temperatura: abdominal............................................1. llaman de parada 56 Perímetro examinando madre espera con aencuentra urgentemente espera cm.................... DESCRITOS (PASE cutáneo LA pulmonaresLOS Temperatura: ETAPA ENe) EL D) E) NIÑOS 40..................8 espera°C...... 2......100........ Examinar con prioridad Señale los tres niños que debe examinar en I +1 a algunos de estos primer lugar........... NECESITAN 35°C....... 5... Enviar a radiología a los senta un síncope.. uno de ellos pre... .. .......60.. 39 cm... INMEDIATA ENTRE ... Extremidades ............... ......... Globos subictericia DELoculares ATENCiÓNconjuntival Yhundidos.. SELECCIONE congestionado. Peso: Mientras 3........................... (ELEGIR OTRA ACCiÓN) ........................(+1) LOS ..........espera convulsiones Temperatura: NOTA y(O) ................ (PASE A LA ETAPA B............................ . aumenta. otra madre irrumpe en la consulta con su hijo.......... ........ HARíA VD........ CON180................. Pedir unos análisis sis................ examen.. Mientras Vd.. se agrava y el niño se congestiona más... Hacer inmediatamente (PASE A LA ETAPA F) I +1 tratamiento sintomático... ETAPA O colapso.. el niño G) se una vuelve cianó- Mientras pincha al hace parálisis .. Un Se niño Es llamado Hayleun hace con llama niño una con con parada urgencia respiratoria a la asala urgencia convulsiones de en espera la sala la desalaen de espera la........ Durante el examen. urea ¿QUE cardíaca: y glucemia. El: niño Durante Apresenta respiratoria....... . 2... Hacer 2........ Frecuencia urgencia..... niño hace una parálisis respiratoria...ESTE NIÑO(8) EN ESTE MOMENTO? Fór.. 3.. Explorar al niño por Durante el examen del niño la cianosis I O completo.... Proceder al interrogato........ 15. Hacer una inmediatamente exploración ............ interroga a la madre... ión....... 4........................ 1..... El niño presenta convulsiones ............... (-1) 12.................................................... 4.. Otros tipos de pruebas libres 163 11......... 14....... NOTA ETAPAD: tico.. (PASE el CONSECUENCIAS LA -1 +1 unniño....... la disnea I -1 rio de la madre..... sala espera de espera (-1) (-1) ...... 13. En el momento de la punción venosa el I -1 temáticos......... 2°e del líquido CiÓN 41. ¡Tiene PRESCRIPCiÓN sube laLa POR 36. ETAPAFnaturaleza naturaleza cantidad calentarle? congestio- líquido.5 °ela pun- el niño entra . La cianosis desaparece. Inscriba en yde del enema. Not Prescripción+1 enANULADA O enEtapa con. . CONSECUENCIAS ¿QUE HARíA VO. ANU- PRESCRIP- su flujo. 164 La evaluación de aprendizajes ETAPA E: ción. El (PASE La NOTA niño AseLApone Temperatura ETAPA interroga+1aH) -1 cianótico asciende O durante la madre a 41. -1carie? +1 Jlalala O-1 TRATAMIENTO ETAPAH Niño Hecho Niño ¿Para Inútil. Hecho. flujo. aIde la siónEtapa laRESIDENTE. Inscriba Not no ETAPAG InscribanoNot. 36. Practicar una punción -1 +1 +1 la Hecho. CON ESTE NIÑO (9) EN ESTE MOMENTO? er er inmediatamente un una exploración 3. 4.su ya larefres- naturaleza cantidad Temperatura ANULADO líquido. Etapa inoportuna. LADA. en Mientras convulsiones. Dar oxígeno.5°e.5°e yperfu- Temperatura ¿Para la EL can. perfusión gestionado. Hecho. K lade lade PORy nado. cación. uccina- micina. MOMENTÁNEA- MENTEANU- rapia. PRESCRIPCiÓN Ninguna + -1 +1 -11-1 1 -1 -1 -1 O-1 indi-O O Sin Antibiótico -utilizable indicación. nistración.la ANULADO. ETAPA 1: ETAPAJ: I ETAPA K: . rios Noto la ETAPAG en Not. ANULADA. la no crite- crite- PRESCRIPCiÓN ANULADO. indicación. Ningún ¡Sobre en suficientes No tiene ETAPAF tiene el ANULADO. cación. EtapaJ. Etapa qué posología Ken criterio. cri.nistración. ANULADO. ina. Otros tipos de pruebas libres 165 TRATAMIENTO Inscriba ANULADO. vía de admi- posología la etapa K yla posología y LADA. . LSON~Vla SV851nHd '" .O)I. j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j . . Tales observaciones son muy útiles para una evaluación formativa y suelen constituir el primer paso para. 1981. 1983. Profesores de todos los niveles consideran importante y crucial para aumen- tar el conocimiento de sus alumnos (Dorr-Bremme y Herman. supone el dominio de una serie de técnicas particularmente útiles en aquellas áreas donde no es fácil hacer valoraciones por métodos convenciona- les. Observación espontánea 1. Recogemos aquí de manera resumida los aspectos de aplicación más fre- cuente en contextos académicos de dos de estas técnicas: la observación (OB) y la encuesta (EN). hacer una observación planifi- cada. La aplicación de estos otros instrumentos de evaluación. 1991a y 1991b). aplican otros métodos orientados a recoger datos. 1987. 1988). en la extensa bibliografía disponible. 1986) la información obtenida por métodos diferentes a los exámenes tradicionales. hacen juicios y toman decisiones durante la instrucción.1. en general. OBSERVACiÓN 1. que agrupamos como pruebas diagnós- tico (PD). más tarde. ya que los interesados pueden ampliar fácilmente su estudio en las referencias bibliográficas citadas y. puede ser espontánea o estructurada (la pro- blemática de las técnicas de observación está ampliamente tratada por Anguera. así. La mayoría de las observaciones que hacen los profesores en el aula son inci- dentales. 1985. administran exámenes formales.Los profesores dedican casi una tercera parte de su tiempo a tareas relacionadas con la valoración (Stiggins. La observación se muestra como uno de los métodos más eficaces de recogida de información sobre la conducta. 2. He aquí algunos factores que pue- den ayudar a evitado y a realizar una observación espontánea más eficaz: a) Prever una ajustada descripción de la situación observada y tener en cuenta sus circunstancias. Es claro que estos factores ya plantean la necesidad de una estructuración más decantada. sin darse cuenta. se proponen fór- mulas para su corrección (Anguera. Por con- siguiente. de lo contrario. una de las pautas más utilizadas es conseguir un «acuerdo entre jueces». o Pautas de observación 1. por lo que dan resultados más objetivos y son de mayor valor educativo que los obtenidos en una observación espontánea. otra pauta de observación será no dejarse llevar por la tendencia natural a fijarse en detalles familiares al observador. se pueden mencionar: la modificación del marco natural producida por el sistema de observación. de otros. practican algunos observadores. 3. y pasan desapercibidas reacciones y actuaciones menos llama- tivas. Reactividad: Se refiere a la modificación de la conducta que pueden sufrir los sujetos observados por el solo hecho de saberse observados. que quizá sean importantes. b) Verificar de modo reiterado y conveniente las informaciones obtenidas. Observaciónestrudurada Las observaciones estructuradas o planificadas pretenden obtener informacio- nes más precisas. entre las interferencias causales de la reactividad. Por consiguiente. Cabrera y Espín. 1. 1986). Fernández Ballesteros. o a con- centrarse en aquellos aspectos de un suceso que mejor encajan en nuestros preconceptos. Subjetividad: «Mirar con orejeras» y «mirar sin ver» son expresiones comu- nes que traducen la manera selectiva de mirar que. uno de los principales defectos de esta observación espontá- nea·es el proporcionar una «visión túnel»: vemos a los alumnos que llaman más nuestra atención. Imparcialidad: Las expectativas formadas a partir de nuestra experien- cia previa son mejor observadas que aquellos sucesos que se ven como si fue- sen ajenos. transformando así la observación de espontánea en planificada. Para superar esta posible subjetividad. Para ello es preci- so seguir unas pautas y utilizar unos instrumentos apropiados. 1983. 1983.170 La evaluación de aprendizajes Sin embargo. A partir de las frecuencias extremas detectadas. la introducción de otros estímulos nuevos en el . que conviene ami- norar. valorando las diferencias halladas en el total de conductas registradas por ellos en el período total de observación.2. no pueden considerarse representativas. Plantilla de observación: Los instrumentos más frecuentemente usados en la observación estructurada son las plantillas.. en las que se van haciendo las anotaciones de manera sistemática y organizada.... Las características que debe poseer un buen registro anecdótico son: establecer un comportamiento típico basado en varias anécdotas.. Por consiguiente. 2.... limitar cada anécdota o incidente a un hecho concreto. o Instrumentos de observación 1. 5... Codificación: Los sistemas de codificación de la observación más efica- ces son los más fáciles de aplicar porque contienen pocas variables de observa- ción y emplean códigos simplificados.. 6. que recoge un número de categorías suficiente- mente pequeña. Un ejemplo de plantilla para observar «El libre uso de los últimos 10 minu- tos de clase» es la siguiente.. una formulación clara de los comportamientos y una forma sencilla de registro: FECHA: 11 octubre 11 1I CLASE: PERIODO: Últimos Entre 11 11111 11 11 1111111111 1111111 111111 11111 Historia 3° 10 Y 5 del final 5 minutos el minuto materias . 4.. de diverso tipo.. claros y medibles... Error de indulgencia: Se define como la tendencia general a hacer los primeros juicios con más generosidad. También es conveniente que los observadores compartan el mismo sistema teórico de referencia. una sola y primera observación no es indicador cierto de la cualidad típica de una tarea. indicar las ... casi siempre personales. Registro anecdótico: Consiste en la descripción de comportamientos que se consideran importantes....... son nece- sarias observaciones repetidas sobre tareas similares para obtener pruebas de su consistencia... algunas características de la personalidad de sujetos especialmente impresionables y de las conductas o aprendizajes que se van a observar. Concreción: Se obtendrá una información más válida en la medida en que los comportamientos que se quieran observar se definan por rasgos más concretos....Pruebas diagnóstico 171 ambiente.. El hacer un registro detallado de todos los incidentes puede ser muy laborio- so. Lista de corroboraciones: A veces se encuentra citada sin traducir como «check-list». Estadillos para hacer registros anecdóticos podrían ser los siguientes: Nombre: Fecha: Lugar: Nombre: Incidente Comentario Clase: Clase: Incidente: Fecha Comentario: Nota: También se puede dejar el reverso de la ficha para los comentarios. Consiste en una relación nominal de conductas que enmar- can la observación. Ejemplos de lisca de corroboraciones para «Valorar el trabajo en . Este instrumento es útil para evaluar aquellas destrezas que pueden dividirse en una serie de actuaciones o comportamientos claramente definidos.172 La evaluación de aprendizajes circunstancias necesarias para una buena información y registradas. A la hora de su elaboración debe identificarse la conducta que se desea evaluar. traducida a un conjunto de comportamientos que se puedan observar. es más realista disponer de estadillos sencillos similares a este: Alumno: Comentario Observador Incidente Lugar Clase: 3. ordenados y utilizar un procedimiento sencillo para indicar su presen- cia o ausencia. con frecuencia. . Presenta tareas ... en trabajos Aula: .•. Escala numérica: Asigna un número a cada grado de los comporta- mientos observados... Estas escalas admiten varios modos de presentación: 4... por ejemplo... TIEMPOS J > '. para el mismo objetivo de «Valorar el traba- jo del alumno en clase»: 43 2 5 B. Escalas estimativas o calificativas: Enriquecen la lista de corrobora- ciones... 2" Semana Semana 13 Semana 4aSemana 33 .. B 13 I 2" 33 13 I 23 33 13 Juan . Laura . B. C.. 4. < .Pruebas diagnóstico 173 clase» podrían ser los siguientes.... C... '. Colabora D... el primero para cada alumno y el segundo para un grupo de alumnos de un aula: Alumno: _ .. Colabora D. Presenta tareas en los trabajos en grupo . indicando el mayor o menor grado en que aparece.1. que se limita a señalar la presencia o ausencia de una característica observada.. bien preguntas se . Siempre se con -frecuencia. Por ejemplo: «Colabora en los trabajos comunes»: AA A D DD Total acuerdo De acuerdo Indiferente Desacuerdo I Total desacuerdo 4. Reacciona -Se entiende. atención. IIamarle distrae. lo único que cambia es la presentación. En realidad. para evaluar «Laatención en clase»: -no 5. lo que permite una evaluación más objetiva.2. 4. Estas escalas ayudan a evitar juicios demasiado genéricos y preci- pitados. Escala descriptiva: Describe con más detalle los grados de cada com- portamiento. por ejemplo: 5 Excelente 5 Siempre 4 Bueno 4 Casi siempre 3 Normal 3 Con frecuencia 2 Deficiente 2 Pocas veces 1 Muy deficiente 1 Nunca Otras maneras de presentar escalas numéricas: +3 +2 +1 o -1 -2 -3 EXCELENTE MUY DEFICIENTE 8 7 6 5 4 3 2 EXCELENTE MUY DEFICIENTE 4.3.174 La evaluación de aprendizajes Debe haber un acuerdo previo sobre el significado de cada número. veces distrae continuamenteinútil respondesi la distrae profesor. Escala gráfica: Difiere de la anterior en que sustituye los números por símbolos. 2.3. con 1. por ejemplo. Se ASe -aPregunta siempre del Nolas Es frecuencia. Estas escalas tienen la ventaja de ser más expresivas que las numéricas. Estas escalas parten de la idea de que las actitudes se pueden inferir de las opiniones expresadas por los mismos sujetos y de que su «medida» se puede representar mediante una nota numérica. Seguidamente se clasifican los de cada grupo en subgrupos. favorable-neutral. que recuerdan las listas de corroboraciones y las escalas de estimación. cuyo objetivo es «La actitud hacía los exámenes»: VALOR Los La No exámenes preparación se 9. los reales constan de 15 o 25 ítems. favorable. . neutral. hostil y extre- madamente hostil. 1977.0 6.S Se presentan los ítems ordenados al azar. Los resultados. Rosales.. 1981. Bolívar. Escala Ordenada de Intervalos Iguales (Thurstone y Chave. moderadamente hostil. A continuación transcribimos un ejemplo parcial. 1971. energías que es mejor emplear en otras actividades. Formulados esos enunciados -unos 100 al menos-. no las valoraciones. 1992). Se suelen emplear las siguientes escalas. se pide a un número de «jueces» -25 como mínimo. 1975.1. exámenes. neutral-hostil. pero en las que es el mismo sujeto observado el que hace los registros. de forma que resulten nueve catego- rías en total: extremadamente favorable. Se considera «buen» ítem o enunciado aquel en el que coin- ciden los «jueces» acerca de su posición en la escala.0 se dedeben deben 1. 1981: Hoover. 1929): Recuerda la lista de corroboraciones. La construcción de una escala de este tipo se inicia con la recopilación de un gran número de enunciados que expresen aspectos de la actitud que se esté considerando. 5. más . pero eso no significa que debamos renunciar a su valora- ción (la problemática de la evaluación de actitudes está tratada. unaprendizaje.que los clasifiquen en tres grupos según consideren que sean favorables. Finalmente. Morales. Escalas de actitud: Mención especial merecen las llamadas escalas de actitud. puesto que. 3. Evaluar actitudes no es fácil. Pruebas diagnóstico 175 5. como hemos dicho. entre otros. para que los sujetos señalen las opiniones con las que están de acuerdo. Dawes. se seleccionan de 15 a 25 «buenos» ítems que cubran las nueve posiciones de la escala. por los siguientes autores: Manning y Rosenstock.0 7. moderadamente favorable. optativas.S 4. neutrales u hostiles a la actitud que se va a evaluar. La media de los valo- res de las opiniones elegidas es la «medida» de su actitud. más de tiempo y unas profundidad. 1988.S debe obligar son evitar incluir exámenes ayudan a nadie la mejor OPINIONES porque pruebas consume a estudiar aestrategia hacer con son alienantes. Hills. Diferencial semántico: Se considera. más bien. Dar instrucciones de cómo se contesta este tipo de escala. es el método más extendido para las mediciones de actitud. se presentarían una serie de ítems. Suci y Tannenbaum (1957) clasifican en evaluativos. Seleccionar unos 10 pares de adjetivos que tengan que ver con la actitud que se pretende medir.3. deben tenerse en cuenta los siguientes pasos: Determinar la actitud-objetivo que se quiere medir. Esto evita la rutina del que va a con- testar. Se utiliza para ello una lista de adjetivos y sus antónimos a través de siete intervalos. estén formulados de forma afirmativa. Para evaluar la misma «Actitud hacia los exámenes». 5. son los siguientes: . No escribir siempre los positivos a la derecha y los negativos a la izquier- da. relacionados con la actitud que se quiere evaluar. que consiste también en una lista de enunciados. generalmente de 1 a 5. 1932): La escala Likert.2. no en la opinión previa de los «jueces». y el sujeto no señala simplemente si está de acuerdo o no con cada opinión. como un buen ins- trumento para medir las actitudes positivas y negativas. indican la posición relativa del individuo dentro del grupo. Escala de Acuerdo o Concordancia (Likert. intercambiarlos al azar.176 La evaluación de aprendizajes que un valor absoluto. en general. Las dos diferencias fundamentales entre esta escala de Likert y la de Thurstone son las siguientes: la valoración de los ítems se basa en datos empíricos. . Debe procurarse que los enunciados. de manera semejante a la Escala numérica. Para su construcción. de grado y de actividades. por ejemplo: «Los exámenes se deben evitar porque son alienantes»: 5 4 3 2 Muy de acuerdo De acuerdo Indiferente En desacuerdo Muy en desacuerdo "Los exámenes son la mejor estrategia de aprendizaje»: 5 4 3 2 Muy de acuerdo De acuerdo Indiferente En desacuerdo Muyen desacuerdo 5. sino el grado de su acuerdo. Algunos pares de adjetivos utilizados en escalas semánticas. si se aplica a personas poco entrenadas. que Osgood. El interés mostrado por los miembros del equipo por las ideas de los demás fue: (7) GRANDE ESCASO (1) 6. tomado de Filella e Immegart (1972). La participación en el trabajo por parte de todo los miembros del equipo fue: (7) MÁXIMA MíNIMA (1) 2. Elliderazgo del grupo fue: (7) COMPARTIDO CONCENTRADO EN UNOS POCOS (1) 5. La or'Janización para el trabajo fue: (7) MUY ELABORADA _ SIN ELABORACiÓN (1) . La eficacia de los miembros del equipo para llevar a cabo su tarea fue: (7) GRANDE ESCASA (1) 9. Elliderazgo del grupo estuvo estructurado: (7) CONSCIENTEMENTE _ ESPONTÁNEAMENTE (1) 4. La libertad de los miembros del equipo para expresar abiertamente sus ideas fue: (7) GRANDE ESCASA (1) 7.Informativo Máximo Fuerte Resuelto Útil ACTMDADES: Justo Significativo Relajado Débil Tranquilo Preparado Objetivo Negativo Improvisado GRADO: 177 El ejemplo siguiente. está pensado para evaluar la actuación de un grupo o equipo: 1.Pruebas diagnóstico Activo Estático Grande Positivo Escaso Cierto Mínimo Frío Positivo Enfadado Pasivo Interesante Indeciso Tenso Cálido Sano Valioso Adecuado Bueno Enfermizo Amistoso Relevante Profundo Dinámico Perfecto . El interés en el trabajo puesto por todos los miembros del equipo fue: (7) GRANDE ESCASO (1) 3. La atención puesta por los miembros del equipo a su tarea fue: (7) MÁXIMA MíNIMA (1) 8. 178 La evaluación de aprendizajes 10. la escala de Lunn (1969). en un contexto conductual más general). wallace y Zhang (2004). Clasificación: Se proponen diversos criterios para clasificar las entrevistas. El entendimiento entre los miembros del equipo fue: (7) PERFECTO _ ESCASO (1) 12. 1. 1987. Por medio de la entrevista pueden evaluarse aptitudes. Se suelen clasificar en dos grupos: entrevista y cuestionario. actitudes y objetivos de aprendizaje. Una buena revisión actual puede consultarse en Dunn-Rankin. Pueden dividirse. que se lleva a cabo presencialmente en un marco espacio-temporal concreto y con unos objetivos previamente establecidos (Gaeta. ENCUESTA La encuesta (EN) pretende obtener datos a partir de procedimientos de interro- gación (Davis. en cuyo caso se convierte en un Examen Oral. a su vez. y su relación con la historia personal del mismo. Entrevista La entrevista es una comunicación verbal y no verbal entre dos o más personas. las comparaciones emparejadas (Thurstone. Fines: Según los fines que se persiguen. por lo que nos limitamos a citadas: la escala de análisis jerárquico de Guttman (Edwards. que se estudió entre otras pruebas libres en el capítulo 9. El proceso del trabajo del equipo fue: (7) MUY PREPARADO _ IMPROVISADO (1) 11. Otras escalas: Son muchas las variantes de escalas que se encuentran en la bibliografía especializada. Knezek.1. Cohen y Manion. b) De intervención: Buscan información sobre los problemas actuales del sujeto. en: . 1957). Colas y Buendía. 1975. La mayoría son de escasa aplicación en el con- texto educativo que aquí nos interesa. 1947). 1992). las entrevistas pueden ser: a) De investigación: Buscan fundamentalmente la recogida de información significativa sobre una cuestión que intentamos investigar. El grupo funcionó: (7) COMO UN EQUIPO COMO UNA SUMA DE INDIVIDUALlDADES (1) 5. estudia la entrevista en un contexto educativo y SilvaMoreno. 1990. Hunkins. 2. 1975. 1972.4. 2. persuasión. Realización: Aplicar la entrevista. Clasificación: Los modos de las respuestas determinan las distintas clases de cuestionarios. aclaración.Pruebas diagnóstico 179 Diagnósticas. 3. Se ha de delimitar con claridad cuál es la finalidad de la entrevista. Toda entrevista va seguida de la elaboración de una serie de conclusiones sobre los objetivos que se han alcanzado. en cuyo caso nos encontraríamos ante una entrevista estructu- rada.2. situación espacial y calidez de las expresiones faciales. interpretación. Cuestionario 2. reflejo de sentimientos. el orden y la formulación de las preguntas no están determinados. Esto conlleva que se confeccione una buena guía acorde con el nivel de estructuración. para alcanzar una información del entrevistado que permita determinar las causas de un problema. lo que se podría considerar como una entrevista a gran escala. o puede ser contestado sin intervención directa del encuestador. pero puede flexibilizar e! orden e incluso introducir preguntas nuevas. Proceso: El proceso de una entrevista se puede descomponer en tres fases o momentos: 1. se emplean preferentemente para obtener una informa- ción inicial exploratoria. estrategias verbales: silencios. De tratamiento. cuando pretenden influir en un cambio de conducta o situación del sujeto entrevistado. sugerencias. explica- ción. y no verbales: aceptación. confianza y seguridad. Conclusión: Debe realizarse una síntesis de lo tratado. pues la intervención de todo diagnóstico inicia un tratamiento. sinceridad. Reproducen la clasificación de ítems mencionada en el capítu- . La distinción entre diagnóstico y tratamiento es más bien formal. b) Semiestructurada: El entrevistador sigue un protocolo previamente esta- blecido. posición de! cuerpo. comprensión. Estructura: Según e! protocolo. repetición. estímulo. pero permite cuantificar los resultados. Entre otras. c) Libre: El contenido. es poco espontánea. adecuado contacto visual. Para ello. la comprensión de la personalidad del entrevistado y de la situación. 2. Puede utilizarse en una rela- ción presencial. Preparación: Determinar los objetivos. la entrevista puede ser: a) Estructurada: Cuando el protocolo se prepara cuidadosamente. El cuestionario es un tipo especial de entrevista. en qué medida se han alcanzado y las tareas para e! futuro. e! entrevistador ha de domi- nar una serie de técnicas en relación con la comunicación. 2. de tal for- ma que la respuesta implique un orden en las categorías presentadas en el cues- tionario. B. dentro de este tipo de cuestionarios. de que no hay respuesta correcta predeterminada. Cuestionarios cerrados: Son cuestionarios con distintos tipos de PO. d) Privadamente. b) En público. Clasificación: Se pide al encuestado que valore las alternativas. b) Los exámenes tradicionales. interés por el estudio de las Matemáticas? [SÍ/NO]. c) Después de cada actividad de aprendizaje. sobre el modo de evaluar que usan los profesores de Matemáticas en su Centro? 2. Ejemplo: ¿Tiene vd. . se puede pedir que sean proporcionadas por el mismo encuestado. Cuestionarios abiertos: Son cuestionarios construidos con preguntas de respuesta abierta (RA). Alternativas múltiples excluyentes: Cuestiones con formato EM de única respuesta. sino que todas tienen valor como información sobre la situación que se evalúa. a su vez. con la peculiaridad. por lo que. Ejemplo: ¿Quépiensa Vd. Alternativas múltiples no excluyentes: Cuestiones con formato EM de varias respuestas. C. existen. compartida por todas las PD como instrumentos de evaluación por analogía.180 La evaluación de aprendizajes lo 3. Ejemplo: ¿En qué momentos los profesores debieran comunicar a sus alumnos sus decisiones evaluativas? a) Después de la sesión de evaluación. c) Laspruebasobjetivas d) Trabajo de investigación. Así. aparecen los siguientes cuestionarios: Dicotómicos (A) Múltiples excluyentes (B) CUESTIONARIOS Cerrados (2) Múltiples no excluyentes (C) Mixtos (3) {Abiertos (1) { Clasificación (D) 1. una serie de categorías: A. excepcionalmente. D. Ejemplo: ¿En qué debe basarse la evaluación escolar? a) Los ejercicios de clase. Dicotómicos: Cuestiones formuladas con alguno de los protocolos de los ítems V/F. 2D Sociales. Ese ideal de claridad exi- ge también prescindir de frases negativas y de aquellas otras que condi- cionan la respuesta. 3° Matemáticas. Tienen las ventajas de ambos tipos de pruebas. una primera tarea con- siste en identificar las variables o factores que lo configuran. 3. Se pueden utilizar para ello diversos procedimientos como definición de conceptos. la técnica del «embudo» propone formular preguntas generales para pasar. Esto supone evitar pre- guntas inadecuadas porque exijan una información confidencial. Preguntas: La «bondad» de un cuestionario se juzga por la clase de pre- guntas que se proponen y por su adecuada formulación. Ejemplo: Valora con Excelente(E) / Bueno(B) / Correcto(C) / Pobre(P) / No puedo juzgar (Nj) los materiales siguientes: A Texto: E/B/C/P/N] B. Cuestionarios mixtos: Se trata de añadir alguna pregunta abierta al final de una pregunta cerrada. o pon- gan de manifiesto la ignorancia o falta de información del sujeto. es preferible utilizar varias preguntas. es convenien- te seguir una serie de reglas prácticas: a) La pregunta ha de ser clara y concreta. 1° Educación Física.aconseja usar «preguntas amortiguadoras» que corten una . Bibliografía: E/B/C/P/N] Añadir las razones para haber elegido la valoración "Pobre»: o Confección de cuestionarios 1. Las preguntas de un cuestionario recaen sobre aquellas variables o factores respecto a los cuales deseamos tener información. a continuación. etc. d) Por su parte. Cuando la información deseada depende de un factor excesivamente complejo. a otras más concretas. evitando palabras de significado confuso y ambiguo. Factores: Una vez delimitado el campo de estudio. b) Las preguntas han de tener «aceptabilidad» social. 2. Cuando se formulan las preguntas. c) Es conveniente seguir una adecuada distribución de las preguntas. o términos excesivamente técnicos y poco usuales. el fenómeno de la «irradiación» -influencia de la pregunta anterior. Prácticas: E/B/C/P/N] D.Pruebas diagnóstico 181 Ejemplo: Según tu opinión. cita por orden de preferencia las disczplinas que más contribuyen a tu formación. Clases: " E/B/C/P/N] C. Así. construcción de indicadores de presencia o ausencia de los factores. . . . Separar grupos o bloques de preguntas. . Para evitar e! efecto «irradiación». Es conveniente empezar por realizar una reducción provisional de! cuestio- nario para sometedo a una prueba técnica o pretest. inten- ciones. Prever la posible mecanización. . a qué sujetos se va a aplicar la muestra y con cuántos se va a realizar el cuestionario. Prever la tabulación en histograma. Población y muestra: Una tercera tarea es determinar la muestra y la población. repetidas. etc. .182 La evaluación de aprendizajes posible influencia y que. Otras exigencias metodológicas: Hay que tener en cuenta también e! modo de administrado. d) Instrucciones: . motivos. c) Hoja de datos: . la computación y codificación de los resultados y el análisis de las conclusiones de acuerdo con los objetivos. . Dejar espacio suficiente para las respuestas abiertas. Explicar objetivos y razones del cuestionario. Dibujar espacios (cuadros) para las respuestas cerradas. imposibles de tabular. Los resultados del análisis de este pretest contribuirán a completar una presentación definitiva. . b) Secuencia de las cuestiones: . . a la vez. Agrupación lógica de preguntas por temas: hechos o acciones. tabla de doble entrada. Presentación del cuestionario: Cuando se presenta un cuestionario deben tenerse en cuenta las siguientes consideraciones: a) Aspecto externo: No demasiadas preguntas por página. Indicación sobre el cómo y el dónde se debe contestar. . opiniones. 3. preguntas «amortiguadoras». que impone unas pautas de aplicación. cuando se cambie de tema. Añadir un ítem-muestra al principio. Colocar estratégicamente preguntas «f1ltro». permitan volver a la «batería» o conjun- to de preguntas sobre la cuestión que se estaba abordando. etc. Eliminar preguntas inútiles. introducir. Claridad y concreción acerca de la contestación a cada pregunta. e) Un cuestionario debe incluir preguntas «filtro» que permitan eliminar otras posteriores. 4. . 5VBElnHd 5'" Ela 5V)I~5IHEI~)VHV) I . . Entre otros. las propiedades psicométricas. La medida de la fiabilidad del test quedará puesta de manifiesto por el grado de correlación entre las cali- ficaciones resultantes de la doble aplicación. PROPIEDADES PSICOMÉTRICAS 1. 2003). que muestra el grado de esta- bilidad de los resultados para un período de tiempo: L ZXZy rXY [1] N . han de reunir una serie de propiedades y requisitos métricos (Muñiz. se tra- tará brevemente en el presente capítulo. estudio y aplicación. de los que citamos los siguientes: Fiabilidad 1. también otras características necesarias para una buena confección y utilización de las pruebas.1. Se proponen diversas formas para realizar una estimación empírica del coeficiente de fiabili- dad: a) Repetición de la prueba: Consiste en la aplicación del mismo test en dos ocasiones distintas al mismo grupo de alumnos. De las propiedades psicométricas con sus métodos de estimación más usuales y de las otras características. para poder ser utilizados de una forma adecuada como ins- trumentos científicos de medida. Tal correlación se expresa por medio del coeficiente de correlación de Pearson. para finalizar con una normativa deon- tológica actualizada sobre la evaluación educativa. Es la precisión con la que una prueba mide una variable dada. pero no sólo tales propiedades. Los tests y pruebas.Todo instrumento de evaluación ha de cumplir algunos requisitos para su consi- deración. J~l cr~J En donde: n = número de ítems de! test. c) Dos mitades: Cuando se construye e! test. conviene que el profesor tenga en cuenta los siguientes factores: a) Longitud: La fiabilidad de una prueba o test es mayor si se incrementa e! número de ítems similares para comprobar el mismo objetivo. sino otra equivalente. b) Formas paralelas: Se mide la fiabilidad mediante dos presentaciones diferentes del mismo test.y YJ N = número de alumnos. En este caso.186 La evaluación de aprendizajes En donde: Zx = puntuación típica de un alumno en la la prueba (Zx = x .x x) Zy = puntuación típica de un alumno en la 2a prueba (Zy=Y. cuanto mayor sea la longitud de la prue- ba. 2003): 2 Pxx' Pxx' = 1+ Pxx' [2] donde Pxx' es la correlación entre las dos mitades del test. cr~ = varianza de las puntuaciones en el test. . 1 0'2x ex = n [1 . Lcrj = suma de las varianzas de los n ítems. 2003): [3] n . establecida por Cronbach (1951). En principio. es decir. en la que n = 2. es una generalización realizada a partir de la fórmula de Kuder-Richardson-20 (Muñiz. es decir. La fórmula. se divide en dos mitades equivalentes y se hace una sola aplicación. d) Coeficiente alfa: Mide la consistencia interna de un test. e! coeficiente de fiabili- dad se calcula con la fórmula de Spearman-Brown [4]. La correlación entre los resultados de las dos pruebas se llama coeficiente de fiabilidad. que también se expresa por el coefi- ciente de correlación de Pearson. mayor será la fiabilidad. en la segunda ocasión no se aplica la misma prueba. cuantos más ítems se utilicen. resultan- do la expresión siguiente (Muñiz. Factores que afectan a la fiabilidad: Para que las pruebas sean más fia- bles. El punto de referencia que ha de tener en cuenta el profesor para medir la validez de un examen deben ser los objetivos. de predicción y de constructo. 2003). La regresión simple intenta pronosticar el criterio a partir de un solo test. b) Variabilidad: Cuando aumenta la variabilidad de las calificaciones. 1998). 2003). se puede medir ese aumento de fia- bilidad mediante la fórmula de Spearman-Brown (Muñiz. la regresión múlti- ple. 1) Pxx' En donde: Pxx' = fiabilidad del test alargado. . las citadas clases son más bien evidencias de las que se puede inferir la validez (Osterlind. Sin embargo.2. el profesor ha de tener en cuenta los índi- ces de dificultad y de discriminación de los ítems propuestos. se han utiliza- do dos procedimientos para obtener datos acerca de la validez de constructo. Validez de predicción: Trata de mostrar la medida en que una prueba pre- dice o estima una actuación o conducta futura. Pxx' = fiabilidad del test original. Para ello se uti- lizan las técnicas de regresión simple y múltiple (Muñiz. En la construcción de la prueba. llamada criterio. la validez es un concepto único. En el ámbito psicológico. Es el grado de precisión con el que la prueba utilizada mide verdaderamente aquello para lo que fue diseñada como instrumento de evaluación. Validez de constructo: Se refiere a la recogida de evidencia empírica que garantice la existencia de un constructo de acuerdo con las condiciones propias de cualquier modelo o teoría científica. el análisis factorial y la matriz multirrasgo-multimétodo (Muñiz. se habla de validez de contenido. Validez de contenido: Hay validez de contenido cuando la muestra de ítems de la prueba es lo suficientemente representativa para evaluar el objetivo que se pretende. a partir de varias medidas predictivas. Se distinguen diferentes clases de validez. Validez 1. n = número de veces que se ha alargado el test. 2003): npxx' [4] Pxx' =1+ (n .Características de las pruebas 187 A partir de la fiabilidad del test original. la fia- bilidad también aumenta. por ejemplo.Ar N [6] 2 En donde: IDs = índice de discriminación. Dicho de otra manera.x 100 N [5] En donde: ID = índice de dificultad. sólo quiere decir que una pregunta separa a los alumnos en la misma dirección (discriminación positiva) que el resto del exa- men. A = número de sujetos que aciertan el ítem. Esto. En consecuencia. Dificultad Se entiende por índice de dificultad (ID) de un ítem la proporción de sujetos que lo aciertan de aquellos que han intentado resolverlo.188 La evaluación de aprendizajes 1. se compone de preguntas con altos índices de dis- criminación. El índice de dificultad del ítem vendría dado por la siguiente fórmula (Muñiz. . N = número de sujetos que han intentado resolver el ítem. Varía de Oa 100. 2003). asegura una clasificación discriminativa de los estudiantes según su nivel de actuación. ~ = número de aciertos del grupo superior. la pregunta permi- te diferenciar mejor dichos grupos.2003): A ID = . que varía de -1 a + 1. Si un test. Uno de los procedimientos para establecer el índice de discriminación es el siguiente: con las pruebas ya corregidas. por tanto.4. el índice de discrimi- nación (IDs) se define como la correlación entre las puntuaciones de los sujetos en el ítem y sus puntuaciones en la prueba (Muñiz. Cuanto más elevado es este índice.3. permite determinar en qué medida una pregunta es selectiva para distinguir un grupo competente de un grupo incompetente. 1. el test no concede ventajas a los alum- nos débiles respecto de los fuertes. Discriminación Se dice que un ítem discrimina si distingue entre aquellos sujetos que puntúan alto en la prueba y los que puntúan bajo. más bien ayuda a reconocer a los mejores estudiantes. o en dirección contraria (discriminación negativa). El índice de discriminación. El índice de discriminación vendrá dado por la siguiente fórmula: IDs = As . se hacen dos grupos: mejores califica- ciones y peores calificaciones. fallos y omisiones. Ávarez y Soler (1999) y el ITEM (pomes y Arguelles. entre otros: a) Número de aciertos. Equidad: Grado de concordancia entre las preguntas del examen y los obje- tivos tratados en la enseñanza. Representatividad: Es el equilibrio entre preguntas y objetivos. entre los que se suelen citar los siguientes (Ebel y Frisbie. eliminando palabras innecesarias y datos poco relevantes. c) Corrección de acierto casual y detección de fraude. desviación típica y fiabilidad de la prueba. OTRAS CARACTERíSTICAS 2. el programa dispone de un servicio de archivo de hasta 999 prue- bas diferentes. que permite calcular todo tipo de índices de los ítems. Además. Las preguntas deben ser pertinentes en relación con el interés general de un tema. con la posibilidad de copiar. * * * Muchos de estos cálculos vienen facilitados por programas informáticos para PC como el ITEMAN (comercializado por Assessment Systems Corporation). . 150 ítems por prueba y cinco opciones por ítem. b) Calificación media. Otros programas son «El Sistema Integrado de Procesado de Test» elaborado por Díaz. con 999 individuos. no multi- plicar preguntas para un aspecto y olvidar otros. depurar y modificados. estudian ampliamente la relación entre las diversas características de un examen): Pertinencia: Grado de coherencia entre los criterios establecidos en la selec- ción de las preguntas y sus fines. citada por Guilbert. 1989. y sobre todo en la 1a edición de 1965. Los instrumentos de evaluación deben cumplir también otros requisitos. 1977. N = número total de sujetos corregidos.Características de las pruebas 189 Al = número de aciertos del grupo inferior. García. Alguero. Claridad: Supone unos enunciados en los que aparezca la información necesaria con expresiones directas simples. fusionar. Brugos. La noción de pertinencia se aproxima a la de validez de contenido. puntuación absoluta y puntua- ción tipmcada de los individuos. 1991) que proporciona un servicio de análisis de resultados. Equilibrio: Grado de concordancia entre la proporción de las preguntas que se seleccionan para cada uno de los objetivos y lo que sería una proporción ideal a juicio de expertos. y no consecuencia del gusto y capricho del exa- minador. Neira. En consecuencia. debe ser posible elaborar. El tiempo de examen puede ser un factor decisivo que condiciona su dificultad. . Hay que escoger más bien problemas que necesiten una reflexión (comprensión. Eficiencia: Es la cualidad de un examen que permite el mayor número posible de respuestas independientes por unidad de tiempo. calificación e interpretación de los resultados de un examen. responder y corregir la prueba. El modo de establecer una y otra es análogo. Este aspecto no debe pre- valecer sobre la validez. «Especificidad»: Cualidad que hace que un alumno que no ha seguido las enseñanzas que han servido para construir el instrumento de evaluación. pero resultados fiables no son necesariamente válidos.190 La evaluación de aprendizajes Objetividad: Grado de concordancia entre el juicio del examinador y lo que. los resulta- dos poco fiables influyen en el grado de validez. aproximación. de las que destacamos algunas. riesgo. análisis). y un ítem es pertinente si respeta las especificaciones de los objetivos establecidos durante su planificación. Por definición. más o menos. poco rigor. Tiempo: Un instrumento de evaluación será menos fiable si. La fiabilidad es una condición necesaria. pero no suficiente. citada al hablar de los factores que afectan a la fiabilidad) por adición de nuevas preguntas equivalentes a las del test original. constituye una «buena» respuesta. porque se dis- pone de poco tiempo. obten- ga un resultado similar al esperado únicamente por azar. por ejemplo. para la validez. «Practicabilidad»: Está determinada por las circunstancias. Extensión: La fiabilidad de un instrumento de evaluación puede aumentarse (fórmula de «5pearman-Brown». al de validez de contenido. especialmente espacio-temporales. Dicho de otra manera. una prueba pue- de a menudo volverse más válida si se aumenta su fiabilidad. resultados válidos deben ser fiables. etc. según criterio de especialistas independientes y competentes. Así. Validez y fiabilidad: Para que un instrumento de evaluación sea válido debe ser a la vez pertinente y fiable. LAS CARACTERíSTICAS DE UN EXAMEN Las propiedades y características hasta aquí citadas guardan entre sí una estre- cha dependencia. necesarias para la construcción. Por otra parte. RELACiÓN ENTRE 3. administración. provoca la introducción de factores que distorsionen. una pregunta es pertinente si sirve a la validez del ítem. pero cuya solu- ción pueda expresarse en un tiempo relativamente breve. Validez y pertinencia: El concepto de pertinencia corresponde. un examen puede ser equitativo sin ser pertinente (válido de contenido) en la medida en que corresponde bien a lo tratado durante la enseñan- za. Otra cosa es que las conclusiones de la investigación al respecto ponen de manifiesto que los exámenes reales de nuestras aulas. A falta de investigaciones adecuadas. la similitud de los ítems para medir un competencia dada y las diferencias de los estudiantes en relación con esa competencia. Ningún instrumento de evaluación tiene la exclusividad cuando se trata de medir los procesos intelectuales más elevados y complejos. tampoco es válido. En la hipótesis contraria. Es equitativo en el primer caso. este ítem no es pertinente y. Por otra parte. . Sin embargo. e injusto en el segun- do. discriminación. lo que sucede es que no se deriva suficientemente de los objetivos propuestos. Así. homogeneidad (de las pre- guntas) y heterogeneidad (de los estudiantes): La fiabilidad está influida por la discriminación de los estudiantes. afectará a la fiabilidad de los resultados. La equidad y la especifiCidad van a influir también en el poder de discriminación del ítem. Formato y capacidad: El formato de la pregunta no condiciona el proceso mental que se pretende evaluar. especificidad y fiabilidad: Una prueba no puede ser equitativa si no es primero específica. sean pruebas libres (PL) o pruebas objetivas (PO). en lo que concierne a su consistencia interna y homogeneidad. ponen en juego sobre todo la memoria y pocas veces exigen que el alumno haga un razonamiento. Equidad. Pertinencia y equidad: Si el ítem se construye a partir de los objetivos. la cuestión realmente importante es cómo estas diferencias afectan a sus logros. Fiabilidad.Características de las pruebas 191 Pertinencia y equilibrio: El equilibrio no es más que una subcategoría del concepto de pertinencia. Formato y aprendizaje: El que la naturaleza del examen afecte a la prepa- ración que de él hace el alumno viene atestiguado por la experiencia. La forma de la pregunta no determina la naturaleza del proceso inte- lectual requerido para poder contestada. es per- tinente por definición. Se ha demostrado que un test con un índice medio de dificultad del 50% tiene grandes probabilidades de ser fiable. el índice medio de discriminación de un ítem se verá igualmente afectado por la homogeneidad de las preguntas y por la heteroge- neidad de los estudiantes. la especificidad. extensión. El poder discriminatorio de una pregunta está directamente influido por su nivel de dificultad. en con- secuencia. la razón y la investigación. el número de ítems. así como la equidad por razones análogas. En relación con la influencia de los exámenes en el estudio y el aprendizaje. nos aventuramos a formular las siguientes inferencias: a) El tipo de estudio y logro que un formato de examen estimula depende probablemente más de las preguntas que se hacen que de la manera en que deban respondedas los alumnos. que una pregunta que requiera interpretación de datos. 1977) resume las relaciones entre las principales características que debe tener un examen: VALIDEZ ~ FIABILIDAD PERTINENCIA ~ OBJETIVIDAD DISCRIMINACiÓN ~ DIFICULTAD PRACTICABI LIDAD Para que una prueba sea válida. ha de ser objetiva y discriminante. a causa de la naturaleza excesivamente especializada de la infor- mación exigida. El cuadro siguiente (versión simplificada de la propuesta por Cormier. pero puede ser fiable y no válida. no hay relación entre ellas. Para que discrimine. De manera semejante. diferentes de los exámenes. si los principios son familiares al alumno y si los datos que se han de interpretar son simples. Estos factores interaccionan de maneras complejas para facilitar o inhibir el aprendizaje. la dificultad de una pregunta y la complejidad de las instrucciones que la acompañan no están necesariamente unidas a la naturaleza del proceso intelectual puesto en juego. debe poder llevarse a la práctica y tener un índice de dificultad adecuado. es necesario que sea pertinente y fiable. no viceversa. . una aplicación de principios puede ser más fácil. es muy pequeña la probabilidad de que la investigación demuestre alguna vez claramente qué forma de examen.192 La evaluación de aprendizajes b) En la medida en que los exámenes en diferentes formatos miden los mis- mos tipos o aspectos de logros. para que sea fiable. estimulan el mismo método de estudio y tienen los mismos efectos en los logros. sin embar- go. Dificultad y capacidad: Se tiene tendencia a confundir la dificultad de una pregunta con la complejidad del proceso intelectual que mide. Dicho de otro modo. respuesta abierta (RA) o prueba objetiva (PO). y al contrario. que la simple memorización de un principio complejo. produce una influencia más beneficiosa en el estudio y el aprendizaje. Por tanto. lo contrario no es verdad. afectan a cómo y con qué éxi- to estudian los alumnos. Muchos factores. Una pregunta que sólo requiera memoria puede ser más difícil. . nacionalidad. los profesores tienen en cuenta los distintos aspectos de las pruebas y las características de la persona evaluada que puedan afectar sus juicios o reducir la presión de sus interpretaciones. dis- capacidad. estandarización. Competencia y uso apropiado de evaluaciones: Los profesores. además. 1997b).Características de las pruebas 193 PRINCIPIOS ÉTICOS Y DEONTOLÓGICOS DE LA EVALUACiÓN 4. adaptadas a los docentes. esto incluye el abstenerse de facilitar las puntaciones de los exámenes y otros datos a personas ajenas a los estudiantes. se abstienen del uso inapropiado de técnicas de evaluación y toman medidas razonables para evitar que se use inadecua- damente la información proporcionada por estas técnicas. 2. 5. 3. 1992 (APA)dedica un apar- tado completo a los distintos aspectos de la evaluación. 1. desde otro punto de vista. interpretan o usan técnicas de evalua- ción de manera que tanto su proceder como los fines perseguidos son apropiados de acuerdo con las conclusiones actualizadas de investiga- ciones acerca de la utilidad y pertinencia de dichas técnicas. puntuar. religión. al aplicar. o pueden requerir un ajuste. Construcción de exámenes: Los profesores. o utilizar técnicas de evaluación. validez. las siguientes directrices (Muñiz. edad. validación. reducción o eliminación del sesgo y recomendaciones de uso. aplican. dichas evaluaciones educativas se basan en una información suficiente para proporcionar una fundamentación adecuada de sus conclusiones. etnia. por lo que intentan identificar las situaciones en las cuales determinadas técnicas de evaluación o normativas no deben ser aplicadas. por un lado. son conscientes de los límites de la certidumbre con la que pueden hacerse diagnósticos. puntúan. interpretar. juicios y predicciones acerca de las personas. conocen su fiabilidad. orientación sexual. y. debido a características de la persona tales como género. Interpretación de los resultados de la evaluación: Al interpretar los resultados de la evaluación. del que presentamos. utili- zan procedimientos científicos y conocimientos profesionales actualiza- dos para su diseño. Además. 6.. estudios sobre la estandarización y resultados y aplicaciones adecuadas. Uso de la evaluaciones: Los profesores. elaboran. Personas no cualificadas: Los docentes no promueven el uso de técni- cas de evaluación educativa por parte de personas no cualificadas. al construir exámenes. El código de la American Psychological Association. idioma o estatus socioeconómico. 4. Evaluación en un contexto profesional: Los profesores únicamente lle- van a cabo evaluaciones en el contexto de su tarea docente. raza. Explicación de los resultados de la evaluación: Los profesores garanti- zan una explicación de los resultados. . utilizando un lenguaje que pueda entender la persona evaluada u otra persona legalmente autorizada. fiabilidad y aplicaciones de los procedimientos. que ofrecen procedi- mientos de calificación o evaluación a otros docentes. Pruebas obsoletas y resultados desfasados: Los profesores no basan sus decisiones en medidas y pruebas obsoletas. Mantenimiento de la seguridad de los tests: Los profesores se esfuerzan para mantener la integridad y seguridad de los exámenes de acuerdo con la legislación vigente y los requerimientos del código ético. 8. normas. validez. Calificación e interpretación: Los profesores. 10. así como cualquier cualificación especial aplicable a su uso. describen con precisión la finalidad. 9. inapropiadas para los objeti- vos de sus programaciones.194 La evaluación de aprendizajes 7. SVB:lnHd :la O)NVB . . en general. por otro. glosamos algunos criterios recomendables para clasificar las pruebas de un «banco».1. Objetivo: Cada pregunta debe estar relacionada con un objetivo de aprendizaje. Creemos que así es más fácil localizados. Enseñar y estudiar para el examen es una mala práctica. en general. así. es decir. por extrapolación. de interpretar datos. de todo el pro- ceso de instrucción. Aprender úni- camente las respuestas hace que la prueba global dé una indicación equivo- cada del rendimiento del alumno y resta significado a la calificación basada en tales resultados. por un lado. identificado al menos esquemáticamente. con la capacidad o proceso mental que el alumno debe realizar sobre dicho contenido. La confección y. Un repertorio de pruebas propuesto directamente a los alumnos puede tener el peligro de llevades a «estudiar para el examen» y. ya que lo que no está clasificado «no existe». son las siguientes: 1.Un Banco de Pruebas es un archivo de preguntas válidas para comprobar con fiabilidad la consecución de un repertorio de objetivos de aprendizaje. 1. Clasificación: Para poder localizadas fácilmente. se recomienda que la capacidad de los objetivos de referencia sea la comprensión. A continua- ción. Las características de un Banco de Pruebas. si el alumno es capaz de identificar las limi- taciones del ámbito de aplicación de un principio. métodos o con- ceptos y de extrapolados. . También se suelen considerar objetivos cuya capacidad es la aplicación. Aunque en teoría podrían figurar más. si el alumno ha apren- dido bastante más que la mera solución de unos pocos ítems. las pruebas deben estar bien clasificadas. porque todo examen representa una muestra de los muchos ítems posibles de una programación para deducir. con un con- tenido científico y. es decir. preguntas que preten- den comprobar si el alumno es capaz de traducir afirmaciones a diferentes len- guajes o a distintos grados de abstracción. en su caso. la informatización de un Banco de Pruebas debe servir principalmente para poder diseñar un examen de características deter- minadas por el profesor. viciar su función de control del aprendizaje y. de seleccionar la fórmula adecuada y de relacionada con la situación problema para sacar conclusiones en casos concretos. debido a la confusión que le puede producir una consulta en un tiempo limitado. se fuerza el formato EM para convertido en respuestas combinadas.Otra alternativa es la utilización de estos ítems como pruebas mix- tas. son los indicadores observables para poder deducir la adquisición de dicho objetivo. Nivel: Es obvio que las pruebas deben enmarcarse en una programa- ción contextualizada en un nivel.. Es recomendable consignadas aparte para no condicionar la resolución de las cuestiones. pero sobre todo ha de evitarse la simple memorización. Núñez y González-Castro. exigiendo que el alumno justifique la elección de su respuesta o incluso por qué elimina las incorrectas. y sobre todo alternativas de interpreta- ción o dificultades especiales que encuentran los alumnos debido a sus preconceptos. por un lado. que el alumno los realice con o sin libros. En los ejemplos que incluimos al final del capítulo. es decir. concreta también el formato del ítem. dicho de otra manera.198 La evaluación de aprendizajes En consecuencia en los «bancos» no se suelen utilizar objetivos que encie- rren capacidades más complejas. es útil añadir lo siguiente: a) Diagnóstico. recursos que se per- mita utilizar a los alumnos. 1.3. A veces. Por otro lado. Codificación: En los «bancos». utilizadas automáticamente como preguntas clásicas de respuesta abierta (RA). incluso con éstos es posible que. eliminando los distractores o con una simple adaptación gramatical. la generalización de la situa- ción en que se va a situar al alumno (se podrá materializar en una serie casi indefinida de pruebas) para que demuestre la adquisición del objetivo corres- pondiente. En teoría se pueden concebir varios diseños distintos para comprobar el mismo objetivo.2. y todas aquellas consideraciones que se crean necesarias para corregidos. discriminación y demás datos de interés de la historia de aplicación de cada ítem. sintetizar o valorar (Álvarez. deben permitir. 1. etc. cada prueba debe quedar identificada con un código. Si el formato es de elec- ción múltiple (EM). Se ahorrará tiempo y esfuerzo si. b) Observaciones. Otras características: En cada prueba. los índices de dificultad. se escribe la respuesta. está formado por una letra y seis números para significar los extremos siguientes: . en la mayoría de los ítems.4. tales como tiempo de aplicación. por lo que es indiferente. al mismo tiempo que se formula el ítem. la respuesta correcta a cada ítem. es decir. le resulte más difícil realizar el examen. c) Análisis: Se recogerían en este campo los resultados del estudio psico- métrico del ítem. cuando se desea hacer un amplio barrido de varios conceptos. 2004). Soler. Diseño: Es la característica más crítica y la que da unidad a un conjun- to de pruebas. 1. es decir. 2. Se trata de explicitar. si no domina la materia. como analizar. hay que recordar que la base debe ser autosuficiente. González-Pienda. la consecu- ción de todo el objetivo. producto del aprendizaje significativo. habrá que modificar el orden de los distractores para que. Puesto que en los ejemplos que aquí incluimos solo se pretende comprobar la comprensión y la aplicación. Objetivo: Los primeros dos dígitos hacen referencia al número de orden del objetivo de aprendizaje de la programación de aula correspon- diente.30. de su éxito. se almacena de una manera relacionada en racimos de conocimientos afines. se propone la hipótesis de que. recogemos una serie de consideracio- nes necesarias para llevar a la práctica el proceso de examinar. el código de las pruebas empieza con una e (comprensión) o una a (aplicación) respectiva- mente. como ya se subrayó. 2-Comprensión.05 quiere decir que preten- de comprobar comprensión (c). 3. aunque el objetiVO tiene siempre un carácter general y la prueba un carácter particular. 2. 4-Análi- sis.4.Banco de pruebas 199 2. Utilización: En el capítulo 16. es necesario sometarla a la oportuna investigación.).02. El conocimiento. se puede extrapolar. etc. Diseño: Los dos dígitos siguientes recogen el diseño (01.2. no está ato miza- do. 5-Síntesis y 6-Valoración). Para ello es obligado referirse a la taxonomía de capacidades propuesta por el equipo de Bloom (1972). se ordenan las capacidades cog- noscitivas del 1 al 6 (1-Memorización. 02. Por esta razón. 2. se refiere al objetivo (30). seleccionando una muestra de pruebas. recoge el diseño (02) de los posibles para comprobar dicho objetivo. hay que incluir alguna prueba clasificada dentro de dicho objeti- vo. una prueba identificada con c. Esta hipótesis. para comprobar la consecución de un objetivo de aprendizaje. Capacidad: La letra corresponde a la capacidad. tantas veces criticada. así como la determinación del núme- ro de pruebas equivalentes necesarias para lograr una observación controlada de la que deducir resultados válidos y fiables. aquí adelanta- mos algunas. En esta taxonomía. Prueba: Hemos reservado los últimos dígitos para identificar cada prueba (desde el 01 al 99. . con frecuencia crípticamen- te citada y hasta el momento no mejorada. al seleccionar algunos de estos ítems para confeccionar un examen. si se prevén más de 100 pruebas equivalentes del mismo objetivo y diseño. por el contrario. Es obvio que. incluso pertenecientes a cual- quiera de los posibles diseños. y en el banco figura en el lugar quinto (05). 2. el número de veces que aparece la respuesta correcta en cada posición se equilibre. 3-Aplicación.3. Conviene tener en cuenta que. Por ejemplo.1. habría que reservar tres o más dígitos). 0201 d) 4 1. ¿cuál sería el valor estimado de f'(l)? 0.81 a) 1 b) 2 0.. 1im [f (x + h) . f (1 + h) - h~O h f (1) 3. PRUEBA c.200 La evaluación de aprendizajes 4.01 1) ¿Qué expresiones entre las que siguen corresponden a la derivada de la fun- ción f en x = 1? 1. 1 2 .64 0.f(l) x-H x.15 4.f(h) h~O h a) 1Y2 b) 1 Y3 c) 2 y4 d) 3 y4 2) Si de la función f se conocen los datos que figuran en la x.llm------ .1. 1im f(l) .04.1 4.32 .21 1. para lo cual se propone en primer lugar que se seleccione las expresiones que corresponden a la derivada de f en un punto determinado y. f(& tabla de la derecha. haciendo uso del resultado obtenido y conocidos los valores que toma la función en las proximidades del mismo. Ejemplos de bancos 4.9025 1 4 c) 3 1.01 4. 1996) OBJETIVO (4) CAPACIDAD: Comprensión. DISEÑO (1): Se trata de comprobar si se comprende el concepto de deriva- da de una función en un punto. CONTENIDO: Concepto de derivada de una función en un punto.8 3.f (h)] x~l 4.95 3. se estime el valor de la derivada de la función en dicho punto.9 3.01. Matemáticas (Teresa y Luengo. lim f(x) . 02 De la función f se conocen los datos que figuran en la tabla K. l.1 8.15 1.f(O) x-tO X .789 1) ¿Cuáles de las expresiones que siguen corresponden a la derivada de f en el punto x = O? 1. fC& de la derecha.87 0.15 0. _f_(x_) _-_1 x-tO X 3.069 -0.04.01 0. 1iID f(x) .10 1.9897 0.1 h-tO h a) Sólo la 1 y la 3 b) Sólo la 2 y la 3 c) Sólo la 3 y la 4 d) Todas 2) Teniendo en cuenta los valores de f que figuran en la tabla.0097 O 1 0.01. lm------ f(O + h) . ¿cuál sería el valor estimado de f' eO)? a) -2 b) -1 c) O d) 1 .01 1. O 4 • l' lID f(h) ..08 -0.Banco de pruebas 201 PRUEBA c. -0.f(O) h-tO h 2 • 1 lID . -2.9? a) 1. 2.9 4.495 d) -1.45. -2.8025 6 5 1) ¿Cuál es el valor de la pendiente de las secantes AB. -1. . se propone que.5 4. 2.01 La gráfica de más abajo corresponde a la función f. -2. -1. ¿cuál puede ser cierta? a) lim f(x) = 2 x-t6 b) e (6) =2 c) f(3) = -1.975 2) En consecuencia.04. desde x = 3 hasta x = 5. DISEÑO (2): Para comprobar si se comprende el concepto de derivada de una función.495 c) -2.5 x-t3 .25 5 3. de las afirmaciones que siguen.f(a) .25 d) lim f(x) = -2.875.02. donde la abscisa de B va tomando los valores x de la tabla.25. 1.25. ----. 2.202 La evaluación de aprendizajes OBJETIVO (4) CAPACIDAD: Comprensión. de la que se conocen ade- más los valores que figuran en la tabla siguiente: x fW- 3 1. (pendlentes de las secantes que se apoyan en el).475.25. x-a PRUEBA c.475. -1.875. 1. 1. con la ayuda de la gráfica de la función y conoci- dos los valores que toma en las proximidades de un punto. CONTENIDO: Concepto de derivada de una función en un punto.45.75.0625 5. como el límite de los cocientes f(x) . se estime el valor de la derivada de la función en dicho punto.75.975 b) 2.25 5.25. 950. -0. -1.05? a) -1. 1.02.724 5. 25.625. 0.05 2.950. -0. 1. Banco de pruebas 203 PRUEBA c. -0.04.52 d) -1.75 .55. ¿cuál de las afirmaciones que siguen puede ser cierta? a) lirn x--. 0. donde la abscisa de B va tomando los valores x de la tabla.75.25.52 2) Teniendo en cuenta el resultado obtenido.25. desde x = 5 hasta x = 2.2 I~I 1) ¿Cuál es el valor de la pendiente de las secantes AB.64 2 5 2.55.02 A determinada función f le corresponden la gráfica de la derecha y los valores que figuran en la tabla siguiente: 2\.975 c) 1.2 f(x) = -1/2 b) f~ (2) = -112 c) lirn x--.4375 5.975 b) 1.625.2 f(x) = 5 d) f' (5) = 5/4 . -1. 1. 0.5 2.75 ÍOO- 5. -1. c) No. a tra- vés de varias preguntas y a partir de la expresión de una función. f' (O)= lim f(h) + h---*O+ h 2. PRUEBA a.204 La evaluación de aprendizajes OBJETIVO (5) CAPACIDAD: Aplicación.O Dada la función f(x) = {--" Sl X = O 1) ¿Cuáles de las expresiones que siguen son correctas? 1. Derivadas laterales. procurando controlar el proceso de resolución. 1+ e 3. f_ (O) = hm . al estar definida f por medio de valores absolutos. b) Sí. .01 x Considérese la función dada por f (x) = -- 1+ Ixl 1) ¿Cuál es el valor de las derivadas laterales de f en x=O? a) e (0)= f~ (0)= 1 b) e (0)= f~ (0)=-1 c) e (0)= -1 Yf~ (0)= 1 d) f~ (0)= 1 Yf~ (0)=-1 2) ¿Es derivable f en x = O? En caso afirmativo. ¿cuál es el valor de su derivada enx = O? a) Sí. DISEÑO (1): Para comprobar si se sabe aplicar el concepto de derivada de una función en un punto.02 si x:/:. y su derivada en x = O es l. al ser distintas las derivadas laterales de f en x = O. CONTENIDO: Derivabilidad de una función en un punto. Ysu derivada en x = O es-l. f'(O) =lim~ x---*o 1+ e 4.05. debe proce- derse al cálculo de las derivadas laterales y decidir sobre la derivabilidad de la misma en dicho punto.01. d) No. f'(O) =O . Cálculo de límites.05. -- 1 t---*o.01. PRUEBA a. Banco de pruebas 205 a) 1Y2 b) 1 y4 c) 2y3 d) Todas 2) ¿Cuál es el valor de las derivadas laterales de f en x = O? a) f~ (O) = f~ (O) = O b) f~ (O) = f~ (O) = 1 c) e (O) = O. Ysu derivada en x = O es 1 c) No. y su derivada en x = O es O b) Sí. f~ (O) = O 3) ¿Es derivable f en x = O? En caso afirmativo. al no estar definida f en x = O . f~ (O) = 1 d) f~ (O) = 1. al ser distintas las derivadas laterales de f en x =O d) No. ¿cuál es el valor de su derivada enx = O? a) Sí. CONTENIDO: Derivabilidad de una función en un punto. f~ (O) = -1 3) En el caso de que exista. al no ser f derivable en x = O d) No existe.206 La evaluación de aprendizajes OBJETIVO (5) CAPACIDAD: Aplicación.01 La función f(x) = sen Ixl tiene por gráfica la que figura a la derecha: 1) ¿Cuál es la expresión de la función deri- vadaf'(x)? a) f'(x) = eas Ixl. ¿cuál es el valor de f' (O)? a) -1 b) 1 c) No existe.eas x para x> x~O d) f'(x) = {. O b) f'(x) = leas xl e) f'(x) = { .eos eas x para x > <O 2) ¿Cuál es el valor de las derivadas laterales de f en x = O? a) f~ (O) = f~ (O) = -1 b) f~ (O) = f~ (O) = 1 c) e (O) = -1. DISEÑO (2): Para comprobar si se sabe aplicar el concepto de derivada de una función en un punto y con el fin de controlar el proceso de resolución. al no ser f continua en x = O . PRUEBA a. a partir de la expresión de una función. con el apoyo de la gráfica de la misma y a través de varias preguntas debe procederse al cálculo de las derivadas laterales y decidir sobre la derivabilidad de la misma en dicho punto.02.05. f~ (O) = 1 d) f~ (O) = 1. para x #. Derivadas laterales. Cálculo de límites. 02.01.1-a) / 5.02.02.02.2-b) / 4.1-d) / 4.02.02.01.01.02.02.2-b) / 4.02.01.3-c) / 5.01.01.01. 1) ¿Cuál es la expresión de la función deri- vada f'(x)? a) f'(x) = {-3X~ Sl x> 3x s~ x ~O b) f' (x) = { -3x3X~ Sl s ~ x> x ~ O O e) f'(x) = 13x21 d) f'(x) = 3x2 2) ¿Cuál es el valor de las derivadas laterales de f en x = O? a) e (O) = f~ (O) = o b) e (O) = f~ (O) = _00 c) e (O) = f~ (O) = +00 d) e (O) = -00.02.02.01.01.02.01.02. ¿cuál es el valor de feO)? a) -00 b) +00 c) O d) No existe Diagnóstico: 4.02.02.02.1-a) / 4.02.l-d) / 5.l-a) / 4.02.2-d) / 5. f~ (O) = +00 3) En el caso de que exista.3- c) / 5.1-a) /5.01.01.02.2-a) /5.1-a) / 5.01.02.02 La gráfica de la derecha corresponde a la función dada por f(x) = I x31.01.2-b) / 4.01.3-c) .1-d) / 4.Banco de pruebas 207 PRUEBA a.2-a) / 5.2-b) / 5.01.01.01.05.02.2-c) /5. Entonces la bala: a) Dará en la cabeza del mono. etc. mientras que en otras el alumno debe deducir los datos que no se le dan expresamente.. .01. . a la cabeza de un mono que se encuentra a una distancia de 300 m en una rama de un árbol. .. ¿Cuál llega ~"¡¡ . . el mono se deja caer al suelo. con un rifle sin alza.. d) Pasará por encima de la cabeza del mono siempre.) del movimiento compuesto..2. La dificultad de las distintas prue- bas es consecuencia de que en unas se dan los datos directamente. para así deducir las características (tiempo. b) Dará en el cuerpo del mono. d) No se puede afirmar nada sin saber la velocidad de velero. .'. e) Pasará por encima de la cabeza del mono si la velocidad es alta. No se tiene en cuenta el «efecto Coriolis». Se pide identificar las clases de movimientos y las variables que intervienen en cada uno. e) Justo en la vertical del punto de lanzamiento.. '. velocidad. Composición de movimientos. B Y C) con distintas velocidades.. "0••••••••• - .01.~:~~:~.. .. Física (García Mendoza y Soler.03 Un velero se mueve con velocidad constante en un mar en calma. PRUEBA c. trayectoria.. . En el momento justo del disparo.. El cuerpo chocará contra el suelo: a) Delante del palo mayor.208 La evaluación de aprendizajes 4.01 Desde lo alto de un precipicio se lanzan horizontalmente y a la vez tres piedras (A. con lo que se puede deducir la respuesta de forma inmediata.. a) A ~. CONTENIDO: Cinemática.04.04. antes al suelo? \":¿:. - - d) llegan todas a la vez PRUEBA c. -- - b) c) B C ~ ~'- . PRUEBA c.•..01. b) Detrás del palo mayor. DISEÑO (1): Se propone una situación problema en la que el móvil está sometido a dos movimientos independientes.. Se deja caer un cuerpo desde lo alto del palo mayor. 1994) OBJETIVO (4) CAPACIDAD: Comprensión.02 Un cazador experimentado apunta..04. 01.05 Un nadador que es capaz de mantener una velocidad constante de 1 m.07 Un niño lanza con un tirachinas una piedra a un pájaro que vuela horizontal- mente a una altura de H m. Suelta una de sus manos y lanza verticalmente hacia arriba una bola de acero. PRUEBA c. desea atravesar un río cuya corriente tiene una veloci- dad de 1 m.04.04. Labola caerá: a) Detrás del motorista. c) Altura H y velocidad que lleva el pájaro.01. b) Altura H.04. d) Distancia entre el niño y el pájaro en el momento del impacto y altura H.04 Una persona va en una moto con velocidad constante.s-1 res- pecto al agua en reposo. Para hacerla en el menor tiempo posible. ¿Qué grá- h fica representa correctamente el espacio horizontal X recorrido por el proyectil en función del tiempo? x x x a) b) c) d) PRUEBA c. c) Que forme un ángulo de 45° con la corriente y sentido aguas abajo. .6 Se dispara un proyectil formando un ángulo de 30° con la horizontal. b) Delante del motorista. si la velocidad de la moto es grande. PRUEBA c.01. d) Tarda el mismo tiempo sea cual sea la dirección de marcha que elija.01. b) Que forme un ángulo de 45° con la corriente y sentido aguas arriba. c) En la mano que la lanzó.04.s-1. El tiempo transcurrido desde que la piedra golpea al pájaro hasta que éste choca contra el suelo sólo depende de: a) Velocidad que lleva el pájaro. d) Detrás del motorista siempre. debe nadar en una dirección: a) Perpendicular a la corriente. dejando la mano extendi- da.Banco de pruebas 209 PRUEBA c. 04. c) Componente vertical del vector velocidad. c) Es mayor en el trayecto de subida que en el de bajada. permanece constante? a) Vector velocidad. ¿Qué magnitud.01.01.06-b) / 4.S 10 -9.05-a) / 4. PRUEBA c.S ~ ~ Se dispara un proyectil formando un ángulo de 30° con la horizontal.09 ~ ~ ~ Al golpear un balón se le comunica una velocidad inicial Va = Si + lO} .01.08 Un defensa golpea un balón hacia la puerta contraria. Diagnóstico 4. d) Es cero en el punto más alto de la trayectoria.10-b) .01.01.04.07-b) / 4.S 9.03-c) / 4. referida al proyectil.0S-b)/ 4.01. b) Es la misma en todo el recorrido.0l.01. d) Módulo del vector velocidad.01. La aceleración del balón durante el vuelo: a) Es máxima en el punto más alto de la trayectoria.01.210 La evaluación de aprendizajes PRUEBA c.01.02-a) / 4. En el punto más alto de su trayectoria la velocidad y la aceleración toman los valores: a~~~j jj SiOj ~ -9.04-c) / 4.01. b) Componente horizontal del vector velocidad.09-b) /4.0l-d) / 4.S 9. Si se hace pasar la misma cantidad de electricidad.44. c) Se deposita más masa de níquel en la de NiC13.03 En la electrolisis de una sal de oro desconocida.3. ¿qué se + + puede afirmar sobre los depósitos en cada una? a) Se deposita la misma masa de NiCI2 NiCls níquel en ambas. Química (pereda y Soler.? a) HCl b) HZS04 c) Hl04 d) Igual en las tres PRUEBA a.09 g de oro haciendo pasar 4. se obtuvieron 3. PRUEBA a. + - líticas idénticas con sendas sales: NiClz y NiC13.5 g d) 197g . PRUEBA a. d) Se precisa conocer la carga que circula para determinar si hay diferen- cias. ¿en cuál de ellas se recogerá más volumen de hidrógeno en c.25 g b) 65. CONTENIDO: Electroquímica. Electrolisis.n.44. Con estos datos. fundidas.02 En la figura se observan dos cubas electro. ¿Cuál es el eq-g del ión oro en dicha sal? Dato: 1 F = 96.66 g c) 98.44.01 Tres cubas electrolíticas idénticas contienen disoluciones acuosas diluidas de igual concentración de HC1. b) Se deposita el mismo número de equivalentes de níquel en ambas.550 C.01. DISEÑO (1): Se pide la aplicación de los principios de la electrolisis a casos concretos llegando a deducciones cuantitativas.Banco de pruebas 211 4.500 C a) 49. 1994) OBJETIVO (44) CAPACIDAD: Aplicación.01.01. HZS04 y Hl04. 05 Sabiendo que EONi2+/Ni = -0. ¿qué potencial mínimo se requiere para electrolizar una disolución acuosa de NiClz en condiciones están- dar? a) 0'11 v b) 1.22 v d) 2.01.01. d) 1 mol en el ánodo.02-b) / 44.01.03-b) /44.51 v Diagnóstico: 44.01.25 v y EOclz/cl = -1. PRUEBA a.36 v. c) 1 mol en el cátodo. b) 3 moles en el ánodo. a) 3 moles en el cátodo.01.04 En la electrolisis controlada de AuCl3 se desprende Clz en un electrodo y se deposita Au en el otro.44.05-b) .44. Indicar cuántos moles de electrones se necesitan para que se deposite 1 mol de Au y en qué electrodo tendrá lugar ese depósito.01-d) / 44.04-a) /44.01.01.212 La evaluación de aprendizajes PRUEBAa.61 v c) 2. 01. c) Ribosoma.02 me qué tipo de células es propia una pared celular cutinizada? a) Todas las células animales. DISEÑO (1): Se pregunta sobre la relación entre distintas estructuras celula- res y sus funciones. lisosomas y vacuola. Diagnóstico: 6. lisosoma. d) Presentar su ADN disperso por el protoplasma. c) Célula vegetal adaptada a medio húmedo. PRUEBA c. hialoplasma. retículo endoplasmático rugoso. llana y Olaizola.4. hialoplasma. retículo endoplasmático liso.01 ¿Cuál es el camino correcto que ha de seguir una proteína sintetizada por un ribosoma para llegar al interior de una vacuola digestiva? a) Ribosoma.01.01.03-a) . 1994) OBJETIVO (6): Describir la morfología de la célula y la fisiología de sus orgánulos. b) Célula vegetal adaptada a un medio seco.01. b) Ribosoma. aparato de Golgi.03 Una célula vegetal se caracteriza por: a) Tener pared celular de celulosa y cloroplastos. d) Célula vegetal de tejidos conductores como el xilema.06. PRUEBA c. PRUEBA c.Banco de pruebas 213 4. lisosoma y vacuola. CONTENIDO: Morfología y fisiología celular. Biología (Bárcena. mitocondria y vacuola.02-b) /6.01. reticulo endoplasmático liso. b) Presencia de membrana plasmática y ausencia de pared celular. c) Ausencia de pared celular y gran abundancia de mitocondrias.06.01-c) / 6. aparto de Golgi y vacuola. CAPACIDAD: Comprensión.01.06. d) Ribosoma. 01. b) Acumulaciones de lava basáltica con claras anomalías térmicas positivas.01 ¿Cómo se define una dorsal medio-oceánica? a) Grandes cordilleras marinas de plegamiento. PRUEBA c. CAPACIDAD: Comprensión.214 La evaluación de aprendizajes 4.02-c) . Diagnóstico: 4. PRUEBA c. DISEÑO (1): Se proponen varias definiciones y/o características y se pide que se relacionen con el nombre que reciben. Dona y Olaizola. 1994) OBJETIVO (4): Describir los procesos de la Tectónica Global. b) Fragmento de litosfera limitado por fallas transformantes. CONTENIDO: Laestructura de la corteza terrestre y la tectónica de placas. c) Geosinclinales en los que se están produciendo el plegamiento de rocas sedimentarias.5. Geología (Bárcena.04.02 ¿Cómo se define una placa litosférica? a) Fragmento de la corteza en forma de casquete esférico.01.04.01. d) Fosas submarinas en las que la corteza oceánica subduce. c) Una estructura en forma de casquete esférico cuyo límite inferior es la astenosfera.01-b) /4. d) Una porción de la corteza oceánica en movimiento.01. 04. b) El acuerdo social de la mayoría. según yo creo. impuesto por la religión. se fundamen- tan según los sofistas en la: a) Voluntad del más fuerte o en la voluntad de la mayoría. PRUEBA a. CONTENIDO: Convencionalismo de los sofistas. El resto de las normas mora- les son: a) Consecuencia de! temor a los dioses. se encontrase con hombres en estado natural.01. d) La educación no tiene sentido si el hombre es medida de todas las cosas. b) La educación es necesaria para transformar a un hombre en ser social.01. Según Protágoras.02 «Pero.04. PRUEBA a. Filosofía (Ordóñez. . como la justicia. nos dice el sofista. añoraría la presencia de Euribatos y Frinon- das -dos ejemplos de hombres malvados-».04. c) La educación no consiste en transformar las opiniones inconvenientes en convenientes.01 Según el convencionalismo político. como dice Aristóteles. b) Una guía para aceptar la muerte y el dominio del poderoso. Los valores morales. 1996) OBJETIVO (4) CAPACIDAD: Aplicación.04 El bien y la verdad en e! plano ético dependen del mayor o menor grado de pla- cer que nos proporcionan y del poder establecido.03 «Si cualquier hombre criado en sociedad. d) El Logos o Razón Universal. b) Astucia de los dioses.01. PRUEBA a. PRUEBA a. c) Conciencia de cada superhombre.6. y atendiendo al anterior texto: a) El hombre es social por naturaleza. c) Las leyes dadas por e! acuerdo de los fundadores de la polis. ¿cuál es el origen de las leyes políticas? a) La convención de las voluntades de los dioses. d) Imposición de las tradiciones populares de las culturas dominantes.Banco de pruebas 215 4.0l.04. que son más fuertes que los humanos. la naturaleza misma demuestra que esjusto que elfuer- te tenga más que el débil». DISEÑO (1): Resolver una serie de casos relacionados con el concepto de convencionalismo político y ético. 01.01.06-d) . se requiere que la ley sea justa. y por eso no sois con- ductores sino seductores». ¿es suficiente para que algo se convierta en ley? a) Sí.02-a) / 4.01-b) / 4.04-d) / 4. ¿Cuáles eran? a) El progresismo en las legislaciones y en los pueblos.03-b) / 4. b) El acceso a la lectura y escritura.04. d) El resultado de un acuerdo. porque eso es lo que se requiere para que algo sea ley d) No.01.01. decía Platón de los sofistas. porque los acuerdos de la mayoría marcan el bien común. c) Sí. el requisito de acuerdo de la mayoría. d) La existencia del derecho y de la magistratura.01. c) El régimen democrático y de libertades. PRUEBA a. Según esta crítica. PRUEBA a.01.06 «En el fondo no tenéis idea de los valores del hombre. y posiblemente antinaturales.216 La evaluación de aprendizajes c) Una imposición de los usos y costumbres sociales del pueblo conquista- dor.01. b) No.05-c) / 4. Diagnóstico: 4. porque los acuerdos pueden estar equivocados.05 La admisión por los sofistas de la convencionalidad de las leyes políticas estaba suponiendo la existencia de unos valores muy propios de la cultura occidental. porque aparte de los acuerdos.04.01. NOI)lf)I:lI'lf) -11 .1 NOI)lf)n051 N5I"0105l1l\lln .1 . . Se oye con frecuencia que las buenas pruebas se construyen para hacer un solo tipo de valoración: si el estándar por el que se opta es el absoluto. sin embargo. conviene tener en cuenta que el mero resultado de dicha información. por lo que es importante entender las diferencias de los procedimientos para corregir pruebas que se presten a un tipo de valoración más que a otro. de la medida. con unos determinados parámetros de referencia. que reflejan el «cómo es» de lo que se va a evaluar. se suelen citar dos: valoración «normativa» y «criterial». a su vez. Elegir esta base de referencia. Como ya hemos subrayado. aunque sea numérico. que indican el «cómo debería ser» (Zabalza. la recogida de datos con un estudio pormenorizado de los distintos instrumentos para recoger dichos datos. 1989). la califica- ción es un juicio de valor en el que se comparan los datos obtenidos en la reco- gida de información. es decir. la valoración. 1981). parece algo ino- cuo e intrascendente. Aunque son varias las formas para llegar a la valo- ración de datos. 5 problemas o 50 pruebas objetivas bien resueltos de un total de 10 problemas o 100 pruebas. respectivamente.Después de haber estudiado el primer elemento de la evaluación y. sino del valor que se les asigna en un con- texto académico. la recogida de información es condición indis- pensable para llegar a conocer el estado de los alumnos en un momento dado. no es aún una calificación. los criterios con que se van a comparar los datos obtenidos. Si bien en la prácti- ca docente se valoran los datos conforme se van recogiendo durante la correc- ción de pruebas -se califica al corregir-. si bien sucesivas matizaciones en ambos casos pueden dar pie a una lista más amplia de «normotipos» (Hills. Así. no tiene significa- do por sí mismo. los ins- . cuyo significado se deriva no del carácter cuantitativo de tales datos. llamada a veces «normotipo». codificada generalmente en una calificación. es una decisión fundamental en la tarea de todo profesor y conlleva consecuencias significativas. hay que valorados para conver- tir el 5 y el 50 en calificación de suspenso o aprobado. y que cualquiera de éstos com- porta virtualidades y riesgos. En conclusión. es decir. por ejemplo. sin ella la evaluación queda en mera «opinión» del profesor. son resultados numéricos sin significado inherente. abordamos ahora el segundo. la valoración «normati- va» supone comparar los resultados de una persona con su grupo de referen- cia: ¿está por encima o por debajo. Aquilatando un poco más. para una «normativa». cuando los resultados están más concentrados. y de «tratamiento» a la que se hace entre grupos. El término quiere decir «normal». por debajo de la media o insuficiente. un grupo de malos alumnos podría permitir el éxito de incompetentes. los profesores reciben menos quejas y peticiones de los alumnos para revisar exámenes en busca de algún punto extra con que subir de 4 a 5 o de 5 a 7. si para interpretar las puntuaciones de un alumno. probablemente se obtendrán calificaciones similares por cualquier método de calificación relativa. Las calificaciones en todos los sistemas se suelen codificar en diez números o cinco letras para expresar varios niveles de logro.>. etc. En la práctica docente se suelen llevar a cabo ambas de forma espontánea. 1989): Cuando referimos los resultados a otros individuos para obtener un significa- do. a veces se llama valoración propiamente «normativa» a la que se hace entre indivi- duos y grupos. Ésta se basa. oposiciones. los alumnos quedarán siempre clasificados en dos grupos: los admitidos y los excluidos. Si la distribución de resultados es muy dispersa. su situación relativa puede variar de un grupo a otro: alumnos con una actuación satisfacto- ria podrían fracasar en un grupo brillante. comparamos el rendimien- to del mismo con el rendimiento de los otros. un poco o muy por encima? Por ejemplo. además. 4/D1I. Así. media. en unos criterios relativos que discrimi- nan a los sujetos de acuerdo con una distribución de resultados de todos los que han realizado la prueba. 1. estamos haciendo una valora- ción «normativa». 5/C/S. 1977. suelen ser pocos los que queden en el límite de poder recibir una nota más alta. Mediante una valoración «normativa». 7/B/N. que tie- ne una connotación de típico. y O/E/MD.220 La evaluación de aprendizajes trumentos de evaluación deben servir para una interpretación «criterial». Las pruebas construidas para hacer este tipo de valoración se conocen con el nombre de «pruebas normativas». Zabalza. por el contrario. más que media. y su aplicación más frecuente es la ordena- ción de personas en concursos. sin embargo. Valoración «normativa» (entre los muchos autores que la tratan se pueden citar: Ebel y Frisbie. en éste. Una persona puede pertenecer a la vez a varios grupos y. Rodríguez Diéguez. sin la seguridad de que los admitidos sean. en este caso. pues. Es obvio que la calificación obtenida mediante una valoración «normativa» depende mucho de la naturaleza del grupo con el que se compara. haciendo matizaciones normativas a las valoracio- nes criteriales. estamos haciendo una valoración «normativa» o relativa. usual o promedio. 1980. puede ser injusto para algunos alumnos.logros muy deficientes. si el relativo. consiguientemente. Otros autores hablan de «normotipo estadístico. competentes. el código 10/NSB indica actuación excelente. En las calificaciones conseguidas por este método. dado que con una leve revisión podrían mejorar sus . la calidad de las puntuaciones o algún otro dato relevante de los logros. N.? En toda valoración «normativa» hay siempre implícito algún tipo de criterio que se relativiza en la comparación con el grupo.La medida en educación. se suma la des- viación típica al extremo superior del intervalo de las notas 5. etc. hasta el segundo con N. Una dificultad añadida es el hecho de que alumnos con logros semejantes queden con calificaciones distintas en virtud del criterio de «corte» utilizado. lo MD. Si el número de alumnos fuese lo suficientemente elevado para poder supo- ner que la distribución de las calificaciones es «normal». Las cuotas pueden asignarse mediante «cortes» hechos en una lista de alumnos ordenados por sus resulta- dos: hasta el primero se califican con SB. se resta la misma cantidad del extremo inferior de las S. N.7% para los 5ByMD. Por otra parte. Se obtiene así el intervalo para la califica- ción S. este tipo de calificación se complica por la necesidad de esta- blecer cuotas arbitrarias para cada categoría. este método de calificar no es aconsejable en situacio- nes académicas. conviene revisar al alza o a la baja los casos que caen en los límites (casos «frontera»). • Para determinar la calificación que separa las notas SBy N. Calificación 221 calificaciones. un criterio puede ser el siguiente (Ebel y Frisbie.1% para los N e 1y 6. teniendo en cuenta el número de pruebas reali- zadas. • Finalmente. • Para el «corte» de las notas I-MD. S. se suma y se resta a la media la mitad de la desviación típica. 24. Por ello. ¿Qué proporción de notas deben ser SB.3% para los 5. este método nos daría los siguientes porcentajes: 38. que permite determinar «cortes» según la proporción de alumnos que queramos obtenga las distintas calificaciones de 5B. 1977): • Para la calificación S (actuación media). La principal falacia de este sistema es que no es fácil que exista un criterio objetivo que permita 'delimitar la extensión y decidir la localización de los «cor- tes». y así hasta MD. La tabla de la página siguiente recoge un ejemplo de las puntuaciones de los 40 alumnos de una clase de Historia del Arte: . Un modo de asignar cuotas de calificación relativa es mediante la desviación típica. 5. Para determi- nar los sitios de «corte» a partir de la desviación típica. 11. .27)..4.33. 3)2 = 2.27 .4).8. Serán calificados con I los alumnos cuyas notas estén en el intervalo (2.y 3 alumnos con SB (los de 9). y con MD los que tengan menos de 2.27. que representan eI7.3+ 1. • «Corte» de las calificaciones SB-N: (6. _ x:2 = ~ 11296 40 _ (5. que representan el 22. 07 . 4. tlpIca: . Y4 con MD (los de 1 y 2). ..S% de los 40 alumnos.2). y con SBlos que tengan más que 8.1.03 -- 2 3° Para determinar los sitios de «corte»: • Intervalo de calificaciones S: (S. 6.07 = 8. que representan el 17.2.2.03 . que representan el 42.2. S. 2. • «Corte» de las calificaciones I-MD: (4..S%.33 + 2.3 . °7 = 1. Observamos que hay 17 alumnos con puntuaciones en este intervalo (S a 6). Serán calificados con N los alumnos cuyas puntuaciones estén en el interva- lo (6. f. d d e d'1C Y1a mIta h a d eSVIaClon . 212 x: = 1 = -. Observamos que hay 7 alumnos con N (los de 7 y 8).33).S%. .5%.07 = 2.222 La evaluación de aprendizajes 1 4 2 3 9 8 5 Lx¡f¡ 40 20 32 54 27 21 12 2 4 = Lx¡2f¡ 324 256 243 200 147 36 2 80 = 1296 8 212 1° Se calcula la media de todas las puntuaciones: LX.4). = 5.3 N 40 2° Se calcula la desviación típica: - (j-~~ ~~f. Hay 9 alumnos con I (los de 3 y 4).03) = (4. que representan el 10%. suspender a todos. bien cuando sólo aparece una muestra. cuando se habla de «dominio». y de «dominio de una muestra» para describir valoraciones absolutas de exámenes que sólo representan algunos de los objetivos programados. en la evaluación de aprendizajes estas referencias son los objetivos. Se habla. II. etc. especialmente en ciencias sociales. así. de «dominio de un repertorio de objetivos» cuando las pregun- tas de un examen se refieren a todos y cada uno de esos objetivos fijados de antemano. declarar aptos a todos los alumnos. se hace referencia a una valoración «criterial» que se aplica bien cuando el examen refleja todos los objetivos. Así pues.). En suma. Fue Glaser (1963) quien usó por primera vez el término para destacar la necesidad de pruebas que puedan describir la posición del aprendiz respecto de un programa y no de un grupo.La medida en educación. Obviamente.5% (17) 1:22. Después de 40 años. Rodríguez Diéguez. en parte debido a que se usa con diferentes significados. como la valoración de «dominio» de una muestra o de cada uno de los objetivos de aprendizaje. y en un sentido absoluto.5% (7) S: 42. y también. teóricamente. la valoración ha de centrarse en la proporción de objetivos conseguidos. Zabalza.5% (9) MD: 10% (4) Obsérvese que los porcentajes son parecidos a los que obtendríamos si la distribución fuese «normal» con un número suficiente de alumnos. 1977. En este segundo caso. más que en las experimenta- les y Matemáticas. la califica- ción encierra un significado de lo que la persona puede hacer. aunque se deben extrapolar deducciones sobre los objetivos no recogidos en la muestra. 1989): Se basa en unos criterios absolutos que permitan valorar la competencia de una perso- na. 1980. el cual determina los requisitos qúe ha de reunir lo evaluado (aprendizajes. sin tener que comparada con otras. Valoración «criterial» (entre los muchos autores que la tratan se pue- den citar: Ebel y Frisbie. De todas maneras. esta- blecer si posee competencia en una tarea dada. no es fácil determinar la muestra de un «dominio». el término «criterio» sigue siendo confuso. Calificación 223 En resumen: SE: 7. Es la valoración más frecuente en situaciones académicas. por lo que algunos autores sugieren que se utilicen otras expresiones. aunque a menudo viene matizada por la valoración «normativa»: los . 2.5% (3) N: 17. institucio- nes. por tanto. Es posible. Se realiza una valoración «criterial» cuando la comparación se establece en relación a un marco de referencia externo de estándares absolutos. de acuerdo con varias gradaciones. Este tipo de valoración permite evaluar la actuación de una perso- na según un nivel determinado para. Por ejemplo. se establece así un nuevo dominio con una serie de interrogantes: ¿cómo se puede definir este nuevo dominio?. un N. Generalmente. preferiblemente por escrito. prefieren estas calificaciones absolutas a las relativas. Este método depende de los juicios del profesor para establecer el tipo y la cantidad de conocimiento que los alumnos deben demos- trar para conseguir cada nota. semejante a la citada al hablar de la valora- ción «normativa». En general los profesores. Aunque este reajuste sirva de alivio a los afectados. a los alumnos con calificaciones entre el 95 y 100% se les da un SE. entre el 85 y 94%. por la más alta conseguida. más que en el número de alumnos elegibles para recibir cada una de las posibles notas. viene dada por las razones para determinar el intervalo de cada nota: ¿por qué para los SE se decide el 95. en vez del 90 o el100%? Otra gran dificultad es la costumbre de usar porcentajes fijos en el tiempo. los porcentajes se convierten más tarde en notas numéricas o literales al compararlos con los estándares establecidos por el profesor. y así sucesivamente. y en algunos casos arbi- traria. ¿no se enseñó bien?. la tarea de establecer estándares. Para hacer valoraciones absolutas. el profesor ha de describir. Entraña los siguientes pasos: En primer lugar. se proponen dos métodos: a) Porcentajes: El primero consiste en otorgar las calificaciones según los porcentajes de objetivos que domina el alumno. un S. ¿estudiaron poco los alumnos?. una calificación de 80% significa que se domina el 80% de los objetivos de aprendizaje pedidos en la prueba. encuentran difícil. No parece lógico que permanezcan constantes a lo largo de todo un curso. Así. los objetivos que debe haber alcanzado el alumno para «pasar por los pelos» y asignarle la calificación de aprobado mínimo o S. que el rango de los SE sea 95-100% para el primer trimestre. etc. 88-100% para el segundo. entre el 75 Yel 84%.224 La evaluación de aprendizajes estándares absolutos se suelen modificar más o menos explícitamente según la calidad del grupo. algunos profesores no se complican la vida con preguntas tales como ¿era el examen demasiado difícil?. para obtener una nota de N. sin embargo. 85-100% para el tercero y 90-100% para el examen final. e introducen directamente ajustes sustituyendo la califica- ción perfecta. es más defendible establecer porcentajes variables. por lo que una primera dificultad. La restricción. por ejemplo. Una tercera dificultad de las calificaciones porcentuales es la situación que se crea cuando la mejor nota de un examen es excesivamente baja. por razones teóricas. se encuentra aquí en el rango de las calificaciones. 100%. En este caso. por ejemplo 68%. de SE. el 68%. tal como se indicó anteriormente. . ¿qué interpreta- ción útil se puede hacer de las nuevas calificaciones? b) Objetivos: Un segundo método de calificación absoluta es el basado en la relación entre el número y dificultad de las cuestiones de una prueba y los objetivos programados. según la longitud de la prueba. 1989): Si la valoración se realiza desde la perspectiva de la evolu- ción del mismo sujeto.38 y 46. Este ajuste pretende corregir. Si es así. 1980. en la clasificación de los ítems. la pregunta se califica como de nivel superior. 3. en favor del alumno. Y así hasta que se haya determinado una calificación de corte para cada nota. SB. respectivamente. se registra una S. En resumen. y decidir el mínimo número de puntos que debe conseguir un alumno en cada nota. 15. A continuación se suman los símbolos N. Calificación 225 Con las descripciones en la mano. en caso contrario. los resultados para obtener desde 1 a SB en nuestro ejemplo son. etc. Así. Supongamos que en este caso resulte 29. se puede llegar a consensos aceptables si los profesores están dispuestos a defi- nir la actuación están dar por escrito y si son capaces de proporcionar unas razo- nes defendibles para sus juicios clasificatorios (Terwilliger. Zabalza. y se aplica el mismo procedimiento al ítem 2.e. 3. N o en su caso SB. La cuota estimada para un S se determina sumando el número de sím- bolos S que se escribieron junto a los ítems. No obstante. Algunos profesores consideran esto más justo. sino que admiten una gradación de puntos. se habla a veces de calificación por diferencia o «normo- tipo individualizado»: se valoran las ganancias que el alumno ha manifestado a partir de una determinada línea base (LB).La medida en educación. Calificación por referencia al propio alumno (Rodríguez Diéguez. el profesor lee el primer ítem de la prueba y decide si un alumno con sólo el mínimo de logro debe ser capaz de responded o correctamente. este extremo ha de tenerse en cuenta a la hora de clasificados con S. prue- bas que no se puntúan con 1/0. sin embargo. 27.e. 1989). con un ajuste de 2 puntos. a los que se añade 29 para obtener la calificación corte para una actuación de N. el posible error de que nuestras estima- ciones no sean fiables. Este método. El proceso con- tinúa hasta clasificar todos los ítems. 11. N. sobre todo en el caso de alumnos con necesidades educativas especiales (n..) en etapas de educación . A veces resulta difícil que profesores de una misma materia y de un mismo curso se pongan de acuerdo sobre los conocimientos que se deben mostrar en cada lugar de la escala de notas y. podría resultar: SB = 48-50 N = 40-47 S = 29-3'9 1 = 17-28 MD = 0-16 La clave final se puede obtener ajustando 2 o 4 puntos hacia abajo las cuotas estimadas. etc. por consiguiente. En el caso de preguntas abiertas o problemas científico-matemáticos. tiene también sus limitaciones. cuándo y por quién. así. los que saquen más de 8. Por una parte. aun- que. Sin embargo. concluye que ésta. en los que los alumnos tienen la opción de seguir intereses individuales. que estudiaremos a continuación. hay otros problemas con las medidas del crecimiento. en cambio. es más eficaz con clases pequeñas y programas flexibles. cómo. González-Pienda.5 de media no necesitan ir al examen final. Para estimar esa cantidad de cambio y crecimiento. la toma de decisiones. Taylor (1980). imprescindibles para abordar con cierta garantía el tercer elemento. Ejemplos de «nivel mínimo» podrían ser los siguientes: Se requiere una media de 6. si los resultados parciales fue- ron [5. Un ejemplo sería proponer una prue- ba para determinar qué alumnos podrían seguir con aprovechamiento un curso de álgebra: si se selecciona el 20% mejor (16 de una clase de 80). la calificación es 5. 1999). se seleccionan todos los alumnos que hayan alcanzado unos determinados objetivos.226 La evaluación de aprendizajes obligatoria (Álvarez y Soler. para la mayoría de los fmes educativos.5 para entrar en Medicina. 4. se utilizan pruebas antes y después de la intervención. cuando saben que la calificaciónse obtiene mediante el grado de cre- cimiento. implícitamente se esté usando una «norma» relativa o un «criterio» absoluto. 5. hasta el extremo de que cada maestro inventa su propio sistema. son pocas las pruebas escola- res lo suficientemente buenas como para ofrecer medidas fiables de ganancias a corto plazo en los logros individuales de alumnos. 1998. Este tipo de calificación se adapta mejor a alumnos con buen nivel intelectual y con motivación de logro. Álvarez. por otra. . Valoración de «nivel mínimo»: Exige señalar un nivel mínimo. y más complejo. Calificación por contrato: Supone un acuerdo entre profesor y alum- no en el que se especifican los logros que éste debe alcanzar y qué nota se le asignará si los consigue. para que no haya ningún malentendido sobre lo que se debe hacer. tiene un sitio permanente entre los métodos para asignar notas. Núñez y Soler. aunque se pre- senta de múltiples formas. el contrato ha de redactarse siempre por escrito. que el saber si ese alumno ha cambiado más o menos rápidamente que los otros a lo largo de un período de entrenamiento. Hasta aquí un breve estudio de la «medida» en educación. los alumnos con capacidad medio-alta. aprenden de inmediato que sus calificaciones en el pretest deben ser lo más bajas posible para permitirles mayor ganancia. se está utili- zando una «norma». si. 7 Y8]. es más útil el conocimiento del nivel de un alumno en relación con un programa o con el de sus compañeros. con sus dos dimensiones de recogida de datos y su valoración. se recurre a un «criterio de dominio». Por otro lado. 6. que revisó más de cien informes en los que se describe la calificación por contrato. Además de la fiabilidad. Un caso extremo de esta valoración es la califi- cación determinada por el resultado mínimo. En todo caso. según el método empleado para fijado. V)n051 NOI)Vn'VA5I . .v AIJ.1 V1 N5I S5INOISI)5IO 510 VIlUOJ. . también las educativas. no siempre exista un único criterio. a través de los siguientes apartados: clases de decisiones. quizá por aquello de que «lo mejor es ene- migo de lo bueno». como en estos momentos es el caso del profesor único en la Educación Primaria y la Enseñanza Universitaria. Tal elección viene casi siempre acompañada de determinadas circunstancias de conflicto. . incertidumbre y. como es el caso de las Juntas de Evalua- ción exigidas por el ordenamiento legal para la Educación Secundaria. lo que supone disponer de alternativas para poder elegir la más adecuada de acuerdo con algún criterio. de acuerdo con la definición de evaluación por la que hemos optado (cap. enfo- que racional del proceso y herramientas de formulación y selección de alternati- vas.La toma de decisiones es algo que está presente en todo momento a lo largo del proceso de instrucción. aunque también se tratará la individual. de riesgo. En las páginas siguientes nos proponemos estudiar la problemática de la toma de decisiones grupal. en el con- texto educativo. Sin embargo. la puede tomar una persona. se podría afirmar que existen dos clases de decisiones: las selectivas y las modificativas. aquí nos centramos fundamentalmen- te en su estudio como tercer elemento esencial de toda evaluación y que sigue al juicio de valor sobre los resultados codificado en la calificación. la verdad es que no siempre se busca «lo mejor». Una decisión se define como una elección entre distintas acciones posibles. que no estén en todo momento a nuestro alcan- ce o que. en fin. para terminar con algunas sugerencias sobre un proceso práctico aplicable a lasJuntas de Evaluación. En los procesos de evaluación se manejan distintas decisiones. en definitiva. Una decisión. cada una de las cuales tiene sus peculiaridades. CLASES DE DECISIONES 1. Por otro lado. o un grupo. lo que ha de hacer reflexionar al que la toma sobre la transcendencia que puedan tener sus consecuencias. 2). A esto hay que añadir que podemos no conocer todas las alternativas. Simplificando el análisis. las siguientes: D~cisiones-pronóstico: Teniendo en cuenta los conocimientos del alum- no. entre las que hay . De ahí la importancia de acompañada de un informe. etc. condicionadas e inspiradas por una simple orientación. incrementar sus hábitos de estudio y. adecua- ción y objetividad. Entre las conductas que han de ser potenciadas están el aumento de atención. etc. también se establecen diferencias de calidad entre los que pro- mocionan. la selección de candidatos para determinados eventos como olimpiadas de Matemáticas o Física. c) Repetición: La repetición de un curso o asignatura suele ser una decisión conflictiva para quienes la toman y para quienes la sufren. 1990). Decisiones de orientación: Determinan ayudas para desarrollar las apti- tudes innatas de los alumnos. b) Concesión de premios: Tienen este carácter las matrículas de honor. entre otras. obtener resultados satisfactorios (G. ya que tienen en cuenta el rendi- miento del alumno para determinar unas actividades de recuperación. Ejecutivas: Son aquellas en las que se asume la responsabilidad de lle- vadas a la práctica por medio de un plan de intervención y seguimiento (Álvarez et al. así como de un plan de acción para que no se vuelvan a repetir las mismas deficiencias. pero van más allá del veredicto tradicional que se limitaba a discriminar entre alumnos que «valen» y «no valen»... o por una modificación diversificadora en la programación o en la metodología. preferen- temente individualizadas. Decisiones selectivas: Las decisiones selectivas están relacionadas con las funciones atribuidas a una evaluación sumativa (cap. Vidal y G. Las decisiones ejecutivas pueden referirse a diversos ámbitos: a) Decisiones metodológicas: Mectan directamente al alumno. Se suelen considerar como decisiones selectivas. Decisiones de modificación de conducta: Complementan las decisiones de orientación y pretenden potenciar o eliminar determinados compor- tamientos. 1999). lo que se utiliza para diseñar y recomendar un plan edu- cativo adecuado. 15). Decisiones modificativas: Las decisiones modificativas están relacio- nadas con la evaluación formativa (cap. entre otras. Manjón. 15).1. 1992). haciendo ver al alumno el riesgo de fracaso futuro si se le promocionase. Estas decisiones pueden ser ejecutivas o consultivas (Barbier.230 La evaluación de aprendizajes 1. En general no sólo se decide quiénes promo- cionan. En muchos casos son irreversibles. en definitiva. 2. los premios final de carrera. se pronostica sobre posibi- lidades futuras. por lo que se ha de procurar una especial precaución y pru- dencia para que su adopción ofrezca las máximas garantías de justicia. 2. el hábito de concentración. su capacidad de trabajo y otras aptitudes. las siguientes: a) Promoción: Tal decisión es la consecuencia de una integración de juicios o calificaciones parciales. Se pueden citar. la formación del profesorado. b) Decisiones institucionales: Las decisiones institucionales son aquellas que se toman teniendo en cuenta el conjunto de una institución. Dinámica de las reuniones: Técnicas de análisis de las deficiencias y pro- blemas individuales y grupales. Decisiones didácticas: Pretenden promover la construcción personal de conocimientos significativos mediante asimilación receptora o mediante aprendizaje por descubrimiento. los instrumentos de recogida de información. antes que los valores y necesidades particulares del individuo. 2. adecuar la enseñanza a los estadios menta- les del alumno. Ocurre esto cuando las soluciones que pueden subsanar los malos resultados rebasan la responsabilidad del que las toma. Son decisiones de este estilo las relativas al: a) Alumno: Reglamento Interno.2. por el contrario. Por ejemplo. Otras. tal es el caso de los que se piden a equipos de orientación. el profesora- do de apoyo y sustitución. tutores. tomar en consideración los conoci- mientos previos del alumno. etc. combinar la práctica con la teoría. mostrar la utilidad que tienen las tareas que se van a realizar. Es entonces cuando aparecen las llamadas decisiones modificativas de' propuesta o sencilla- mente consultivas. faltas de asistencia. la pasividad en el aula. herramientas de elección de soluciones a dichos problemas. condiciones materiales y organizativas. La decisión se limita a la elaboración de un informe dirigido al órgano competente con capacidad para ejecutadas para que estime y adopte la puesta en práctica de lo que se le propone. Consultivas: La evaluación educativa termina muchas veces con deci- siones no ejecutivas. favorecer que el alumno opte por ejercitar las estrategias de aprendizaje que le sean más apropiadas. b) Profesor: La especialización y perfeccionamiento didáctico. etc. etc. tratamiento de la diversidad. distribución de responsabilidades del Tutor. Son decisiones didácticas que se suelen tratar aparte por su importancia. de los profesores. Decisiones asignativas: Se encarga a una persona una función o cometido. la temporalización de los exámenes. Sistemas de control y seguimiento de las decisiones.Toma de decisiones en la evaluación educativa 231 que eliminar están la falta de disciplina. masificación. dan lugar a la petición de datos que sirvan de apoyo a los evaluadores. tales como: Proceso de evaluación: Las funciones de la evaluación. los instrumentos de evaluación y los criterios de calificación. Decisiones motivacionales: Buscan incrementar el interés y la satisfac- ción de los alumnos en el aprendizaje. etc. la asistencia incontrolada. . delJefe de Estudios. Suelen ser procedimentales porque intentan modificar modos de actuar. padres. explicitar la formulación de objetivos. etc. llega a automatizarse de una manera natural en profesores habituados. intervención de la Jefa- tura de Estudios. es difícil hacer buenas tomas de decisiones. DE DECISIONES Conviene recordar que las decisiones educativas las puede tomar una persona o un grupo. respecto a un determinado objetivo. y más cuando las circunstancias de riesgo o incertidumbre son acusadas o cuando. suelen ser más eficaces y la probabilidad de acier- to mayor. Existen múltiples razones que justifican muy positivamente este extremo (Huber. equipo psicopedagógico. una de las desventajas que más afecta a las decisiones grupales es el consumo de mucho tiempo y el desánimo que esto inspira. Este enfoque expresa siempre una sistematización y en muchos casos refleja también un proceder espontáneo real que. . Claustros y Juntas de Evaluación. que Zerilli (1978: 103) define del siguiente modo: La decisión es un proceso racional continuo mediante el cual partiendo de ciertos datos y efec- tuando un análisis y valoración sobre la conveniencia y las consecuencias de las soluciones alternativas posibles. Estas reglas se materializan en el enfoque de toma de decisiones racional. cuando se tie- nen en cuenta unas reglas inspiradas en teorías psicológicas y prácticas empre- sariales. sobre todo en el caso de la toma de decisiones grupal.232 La evaluación de aprendizajes c) Proyecto curricular de centro: Estrategias especiales para conseguir obje- tivos difíciles o subsanar lagunas por la falta de coordinación con los cur- sos anteriores. El enfoque racional de los procesos de evaluación educativa viene marcado preferentemente por un carácter grupal. 1984): Los grupos suelen tener más información y mayor capacidad para usada correctamente que la que puede atribuirse a una persona. Por el contrario. aunque aparentemente resulte artifi- cial y tedioso a los profesores nuevos. La aceptación de una decisión tiende a ser más completa cuando se ha intervenido en el proceso de tomada. se resuelven de manera intuitiva. Los resultados. d) Organización: Horario. etc. EL ENFOQUE RACIONAL DE TOMA 2. se llega a efectuar la elección final. Seminarios. En todo caso. A todo esto hay que añadir la ventaja que tiene para la institución la experiencia que sus miembros adquieren con esa participación grupal en la toma de decisiones. fiándose de la propia experiencia y capacidad. ya que son grupos de docentes los que toman las deCisiones en los Departamentos. en cambio. ya la dimensión «insuficiencia en el dominio del lenguaje histórico». una combinación de dos o más. etc. para llegar a una buena decisión es preciso analizar el problema. Causas: Esta segunda fase empieza con la investigación de las causas: se pretende establecer una relación entre e! problema suscitado y sus posibles causas. el Jefe de Estudios puede actuar de secretario toman- do nota y resumiendo las decisiones tomadas.Toma de decisiones en la evaluación educativa 233 El enfoque racional se presenta estructurado en las siguientes tres fases: 1a Fase: Problema: Una toma de decisiones es una consecuencia de la apa- rición de un problema que hay que resolver. se encontrará una única causa. a la dimensión «ren- dimiento general insatisfactorio». Esta comunicación. Supuesta esta dinámica.. En algu- nas-ocasiones. En general. conocimientos espe- cíficos y estrategias de estudio (cap. poco tiempo de estudio. 2a Fase: Soluciones: En esta fase se distinguen también tres pasos comple- mentarios. lo que podrá realizarse a través de los siguientes tres pasos depen- dientes y complementarios: 1. Detección del problema: El primer paso consiste en detectar e! pro- blema. Es obvio que sin e! acuerdo de que existe un problema no puede abordarse su solución. Recopilación de datos: El segundo paso en este análisis consiste en recopilar datos que ayuden a definir la situación problemática. en otras. por ejemplo. pueden atribuirse variables como falta de atención. 15). el profesor se pregunta por las posibles causas de una califi- cación negativa: mala preparación. en los resultados insatisfactorios de los alumnos. en darse cuenta de que una situación determinada constituye un conflicto que ha de resolverse. Así. a causa de que la perspectiva del problema sea diferente desde el punto de vista de cada miembro de! grupo. y adopta una dinámica en las intervenciones yen los procedimientos. el tutor puede anunciar el tema. escasa atención. poco tiempo de estudio. como elemento previo e imprescindible al análisis del problema. en las Juntas de Evaluación. etc. un suspenso o rendi- miento insatisfactorio de! alumno. lagunas. con cierta facilidad. pueden atribuirse variables como falta . En la práctica educativa el problema aparece. 2. el tiempo que se le asignará y e! orden de intervenciones. por ejemplo. De ahí que una reunión puede resultar ineficaz si en el grupo no existe la comunicación debida para llegar a compromisos comunes. Se trata de iden- tificar los factores clave que la delimitan. Ayuda a encontrar causas la atribución de variables a distintas dimensiones. Así. deficiencias en la enseñanza. es decir. se facilita cuando el grupo está jerarquizado. Pero no son tan obvias las dificulta- des añadidas. por ejemplo. lo que se puede reducir a la información sobre capacidades básicas. deficiencias en las técnicas de estudio. Suele ser lo más difícil y lo que puede invalidar todo e! proceso. 1. 3. Objetivo: El último paso de esta fase es traducir el problema a objetivo en términos de resultado deseado. Así. Elección de la mejor alternativa: Una vez exploradas las opciones. El número de alternativas depende en gran medida de la naturaleza de la decisión. en cambio. por ejemplo. es necesario elaborar un plan de acción en el que queden organizadas unas tareas y en el que se establezca un sistema de segui- miento. Si todas las soluciones opcionales llevan a un resultado favorable. que sirvan para alcanzar el objetivo propuesto. 3. también es difícil optar por alguna de ellas. con frecuencia. . cuando una opción produce resultados claramente mejores que otros. La alternativa elegida puede gozar de diferentes grados de aceptación.234 La evaluación de aprendizajes de retención. «buena decisión = calidad x acepta- ción». 2. tanto entre los individuos sobre los que va a recaer como entre los que la van a llevar a cabo. a los profesores se les pre- sentan diversas opciones para elegir tareas de recuperación. falta de expresión linguística. citadas en el Proyecto Inteligencia Harvard (Megía. Soluciones opcionales: El segundo paso consiste en identificar solu- ciones. se trata de elegir una alternativa que al menos ayude mejor que cualquier otra a superar las posibles deficiencias. Esto se debe fundamentalmente a las siguientes razones. En cambio. o todas tienen aspectos desfavorables. problemas de relación con el profe- sorado. 3a Fase: Plan de acción: Una cosa es tomar una decisión y otra llevada a la práctica. en las decisiones de tratamiento o modificativas existen más alternativas. en las decisiones de selección sólo hay dos alternativas: aceptar o rechazar. no resulta difícil elegir. 1992): Es extremadamente dificil tomar decisiones cuando se desconoce qué resultados producirán las diversas opciones. sino también por la aceptación. la decisión resulta inapropiada por no haber considerado todas las alternativas posibles. una Junta de Evaluación acepta o rechaza que un alum- no tenga matrícula de honor. una vez seleccionada la alternativa que más satisfactoria- mente resuelve el problema. Por experiencia se sabe que existen decisiones evidentes que se toman con mucha facilidad y otras. La mejor alternativa es la que viene determinada no sólo por la calidad. ¿qué soluciones son las que efecti- vamente servirían para alcanzar el nivel de suficiencía en el dominio del lenguaje histórico? La importancia de la búsqueda de soluciones opcionales se pone de mani- fiesto por el hecho de que. Por ejemplo. por ejemplo. sugeridas precisamente por las causas del problema. que exigen muchas deliberaciones y atinadas reflexiones. etc. Por lo tanto. En cambio. a saber. al activar procesos asociativos y reforzar la capacidad de comunicación. análisis de gráficos. ni a limitaciones de aptitudes o de habi- lidades. Ciri- gliano y Villaverde. por ejemplo. árboles de per- tenencia. aumentando la información elaborada. soluciones. por otro lado. Aunque el «brainstorming» es relativamente libre. concebido para presentar ideas divergentes. por ejemplo. 1. las dos últimas más específicas y complementarias de las anteriores. poniendo de manifiesto las preocupaciones de los miembros de un grupo acerca de las posi- bles alternativas de formulación de problemas o de sus soluciones. etc. desarrollando una actitud interrogativa. estratificación de datos. así. Son muchas las que se pueden encontrar en la bibliografía especializada. Para ello se organiza un grupo pequeño. ayuda a descubrir ideas originales. semejanza o contraste. El «brainstorming» se sitúa en los meca- nismos de la inducción. cau- sas o soluciones puede continuar con otra sobre algún aspecto más restringido. porque no se nece- siten inmediatamente resultados. una sesión de promoción de ideas sobre un campo amplio de problemas. es posible limitado. . Aquí describiremos con más detalle cuatro: las dos primeras de carácter más general. Es indispensable. 1982): Se apoya en la teoría psicológica de la asociación de ideas por contigiiidad. causas. 1990. 1975): Son instrumentos de exploración cuyo fin es precisamente detectar posi- bles alternativas de problemas. Van de Ven y Gustafson. ya que pueden uti- lizarse en sus grupos.Toma de decisiones en la evaluación educativa 235 HERRAMIENTAS DE TOMA DE DECISIONES 3. entre 5 y 10 personas. se estimula la facultad creadora y. Todas ellas son de aplicación en las situaciones de toma de decisiones grupal. Todas las ideas son aceptadas sin ponedas en tela de juicio. que el grupo sea homogéneo y esté integrado por individuos relativamente maduros que se conozcan suficientemente bien como para crear una atmósfera en la que sea aceptable la completa libertad de expresión. a menos que choquen con las reglas acordadas. sin restricciones o inhibiciones debidas a difi- cultades procedimentales de ejecución. o que tiendan a menoscabar las contribuciones de los otros. en cuanto al tiempo de dis- cusión. a) «Brainstorming» o tormenta de ideas (Anzieu y Martín. por lo que se rompe la barrera de lo inconsciente. 1975. es también necesario disponer de suficiente tiempo para encarar el tema de una manera relajada y sin tensiones. por un lado. Técnicas de análisis (Blasco. Delbecq. selección y plan de acción. algunas también para realizadas indi- vidualmente. el «brainstorming» para grupos pequeños y el «Phillips 66» para grupos más numerosos. Se han elaborado diferentes técnicas para cada una de las fases de la toma de decisiones que describiremos a continuación agrupándolas en torno a tres cla- ses: análisis. con el propósito de discutir o analizar un tema durante un tiempo breve. pero se distingue en que permite descomponer un grupo gran- de en unidades pequeñas. b) «Phillips 66» CAntunes. A menudo esto se consigue disponiendo con anticipación los asientos. el tiempo que se concede y lo que se espera alcanzar. de manera que se rompan vínculos previos. Uno de ellos actuará. 1975. el moderador deberá: Indicar claramente el campo de ideas que se habrá de abarcar. Asignar el turno cuando dos o más personas deseen hablar al mismo tiempo. Explicitar oralmente o por escrito el tema en cuestión. consiste en dividir un grupo en otros más pequeños. Cerciorarse de que alguien tenga la responsabilidad de llevar un registro de las ideas expresadas.236 La evaluación de aprendizajes Supuesta la familiaridad con la técnica. además. es difícil permanecer anónimo en un grupo pequeño. Establecer el tiempo límite de la discusión. Anzieu y Martín. Moverse entre los subgrupos y estar a su disposición para aclarar posi- bles dudas y determinar los logros. de cuatro a seis integrantes. hay que conceder siempre unos minutos para elegir un presidente. Ayudar a establecer y hacer cumplir las reglas acordadas. Luchar para crear la atmósfera que provoque ideas divergentes. o acudiendo al procedimiento de «numerarse». por qué se emplea. De este modo se rompe la frialdad y se obtiene rápida y ordenadamente la participación de un auditorio grande en una cuestión determinada. liberándolos de sus inhibi- ciones y permitiendo incluso que puedan llegar a ser protagonistas. Animar a participar a los que tengan dificultades en liberarse del miedo o la timidez. 1975. con el fin de propiciar la inte- gración en los subgrupos. y un secretario-informante para llevar un registro e informar al pleno. 1982): Esta técnica. tiene en común con la anterior el hecho de que es muy útil para descubrir todos los entresijos de un supuesto. descrita y divulgada por J. en donde es más fácil crear una atmósfera informal que facilite la participación de todos los presentes. En esencia. Donald Phillips. y ya dentro de las normas prácticas de funcionamiento. Cirigliano y Villa- verde. de la Uni- versidad del Estado de Michigan. que deberá: Asegurarse de que todos están familiarizados con el procedimiento. . El 66 alude a grupos de seis personas que discuten un tema durante seis minutos. facilitando la confrontación y el esclarecimiento de los puntos de vista de todos los miem- bros del grupo. Dentro ya de las normas prácticas de funcionamiento. Hacer la división del grupo. de coordinador. se describan en detalle desde cuatro perspectivas.. clasificados y preparar un resumen. facilitar medios y ampliar el tiempo para ordenar las ideas en orden de importancia y pertinencia. . el análisis hacia las más fundamentales. ¿qué es? o ¿de qué se trata? • DÓNDE: Ubicación en el espacio. Siempre se debe avisar antes de dar por finalizado el tiempo. En este punto el procedimiento debe ser flexible para recoger los condicionamientos que impone el tamaño de la reu- nión. ¿qué abarca? Un ejemplo esquemático de tal técnica pudiera ser el siguiente: ES NO ES QUÉ insatisfactorio -En otros Literatura Rendimientoevaluación la 1alos Disciplinario Historia Integración Historia: Literatura: En otras Todos cursosescolar evaluación yescolar 3a evaluac. 1983): Es una técnica complementaria del brainstorming y del Phillips 66. o la falta de tiempo. Recoger los informes de cada grupo (escritos y orales). a cada una de las cuales se responde con una doble salida. los tipos de preguntas que se discuten. etc.Toma de decisiones en la evaluación educativa 237 Si la cantidad de subgrupos. ya que en ambas los participantes pueden utili- zada para elaborar alternativas y conclusiones. impide elaborar un informe completo. etc. ¿en dónde surge? • CUÁNDO: Ubicación en el tiempo. se conoce también como «espina o raspa de pescado». Tiene el mismo carácter de complementariedad que la técnica anterior QDCC. así. Asegurarse de que todos los puntos de vista significativos sean llevados al grupo general. pero añade la virtualidad de sistematizar las posibles causas y soluciones de un problema. c) QDCC (Kepner y Tregoe. 1990): Por su forma. ¿cuándo ocurre u ocurrió? • CUÁNTO: Magnitud o extensión. asignaturas 2aobjetivos 2a d) Diagrama causa-efecto o de Ishikawa (Blasco. agrupándolas por familias y jerarquizándolas. las causas. el empleo que se hace de ellas. las soluciones. indicando qué es y qué no es en relación con: • QUÉ: Identidad. Propone que el problema. ¿qué extensión tiene?. orientando. . 2 o 3. Simon y Albert. causas. 1992. nos detenemos. y las C se relegan por su escasa incidencia. En éste se clasifican ordenadamente las alter- nativas de un problema y se da importancia a las clasificadas como A. como aparece en la tabla siguiente: . etc. en la matriz de cla- sificación por criterios yen el análisis de fuerzas. estudiadas anticipadamente por cada uno de los miembros del grupo. en este caso la P.238 La evaluación de aprendizajes TAREA DEL FAMILIA ALUMNO Trastornos de atencion/motivación Bajo nivel cultural Trastornos perceptivos No valoración del estudio CALIFICACiÓN NEGATIVA Deficiencias de aptitudes Metodología inapropiada Deficiencias lingOísticas Objetivos CAPACIDAD DEL ESCUELA ALUMNO 2. 1979): Son herra- mientas que ayudan a abandonar alternativas de problemas. Este principio se traduce en la regla 80/20. en la convicción. por ejemplo. para concentrarse en unas pocas. la Matriz de prioridades y el Criterio ABC. se conside- ran tres alternativas. De manera semejante a las de análisis. que se suele ilustrar con el ejemplo de que el 80% de los problemas se pueden explicar mediante el 20% de las causas. en el voto ponderado. Por su mayor posibilidad de aplicación en el contexto edu- cativo. de que los elementos críticos de cualquier conjunto constituyen una minoría. Técnicas de selección (pokras. como dice el principio de Pareto. a) Voto ponderado (Anzieu y Martín. soluciones. que cada miembro del grupo califica con un 1. el grupo selecciona la alternativa más votada. y votadas de forma ponderada. son muchas las técnicas de selección que aparecen en la bibliografía especializada. las B se consideran como meramente instrumentales. 1975): Consiste en presentar y comentar una serie de cuestiones. según la importancia que cada uno les dé a partir de sus diferentes aspectos. en cam- bio. Por ejemplo. sin embargo. ¿qué alternativa se presenta como más factible?. Es una tarea en la que resaltan los atractivos de la decisión tomada. etc. por ejemplo. de Oa 5. c) Análisis de fuerzas (pokras. la más factible. o también la jerarquización de opciones según criterios como la mejor. al menos. CRITERIOS 2 3 TOTAL ALTERNATIVAS 1a o 3 5 8 2a 5 7 La decisión recaerá sobre aquella alternativa que más puntuación numérica alcance. ¿qué alternativa tiene más apariencia de ser la adecuada?. ¿qué cantidad de ries- go conlleva cada alternativa?. recom- pensas. 1992): Se trata de adop- tar unos criterios para seleccionar la alternativa más plausible. ¿en cuál se confía más? Los resultados del análisis para cada tipo de acción alternativa se recogen en una tabla como la siguiente: . etc. la más fiable.Toma de decisiones en la evaluación educativa 239 Alternativas I Profesor A I Profesor B I Profesor e I Profesor D 1a 3 3 2 9 2a 2 2 3 8 3a 3 2 7 b) Matriz de clasificación por criterios (Pokras.. La opción elegida pasaría por ser la alternativa ideal o. conclusiones. 1992): Se analiza cada alternativa bajo los siguientes aspectos: Positivas: ¿Con qué alternativas aminoramos o resolvemos el problema? Negativas: ¿Con qué opciones aumentamos o empeoramos el problema? Incógnitas: ¿Qué desconocemos del problema que pueda ser definitivo para encontrar una solución? Al final se comparan los resultados del análisis: ¿Son o tienen la misma rele- vancia todas las alternativas?. y en hori- zontallos criterios de ponderación materializados en una puntuación que pue- de ir. la que más se acerca. En una tabla de doble entrada quedan incluidas en vertical las posibles alternativas. Los criterios pue- den ser la consideración de las consecuencias de la elección: beneficios. perjuicios. así como las críticas a las alternativas rechazadas. se puede recoger en una tabla como la siguiente: DECISiÓN TOMADA: Persona Recursos Tiempo responsable Técnica de seguimiento 2" Acciones Es conveniente también tener en cuenta la ley de Murphy: «Todo aquello que tenga posibilidades de fracasar. el sistema de seguimiento. ¿qué actividades son necesarias para alcanzado?. así como la indicación de las personas responsables. tales como: ¿cuál es el objetivo de la decisión en términos de comportamiento?. se ordenan las acciones que se consideran imprescindibles para llevar a la práctica la decisión tomada. que es una versión más o menos simplificada del PERT. el plan se puede completar anticipando los posibles fallos que.siglas que corresponden a «Program Evaluation and Review Technique». para conse- guir una meta determinada. y que se refiere al camino crítico de un calendario de un plan de acción que espe- cifica las fechas. debido a las aportaciones de todos los integrantes del proceso instructivo..240 La evaluación de aprendizajes Alternativas Positivas Comparación Incógnitas (Desventajas) Negativas 2" Todas estas técnicas no se utilizan como métodos únicos. ¿en qué orden se realizará cada actividad y cuánto tiempo supondrá cada una?. orden de las operaciones. los recursos y tiempos. Por eso. Se pueden encontrar aplicaciones al contexto edu- cativo en Pokras (1992). en el caso de ser muchas o complejas. ¿quién será el responsable de cada una?. Se empieza teniendo presentes las respuestas a una serie de preguntas hechas en las fases de análisis y selección. ¿qué recursos son necesa- rios?. se pueden . El conjunto de tales actuaciones y propuestas constituye un detallado plan de acción que. personal implicado. 3. fracasará». etc. ¿qué criterios se adoptan para medir si el objetivo se ha conseguido? A continuación. si se considera útil. Técnicas para diseñar un plan de acción: A este fm se puede emplear la siguiente herramienta. sino como técni- cas complementarias a otras más tradicionales en el campo de la educación para buscar una mayor profundidad y amplitud de las alternativas. Tampoco se evalúan las programaciones en muchas reuniones de departamentos docentes. se enriquecen y perfec- cionan los contenidos conceptuales y procedimentales no sólo de los alumnos. el pobre. cómo se puede evitar que ocurra y cómo se rectificará el fallo si ocurre. Pero. por otro. A manera de ejemplo. Menganito. La estructura de cada fase del proceso debe utilizar. Todo grupo debe adoptar un proceso racional -inicialmente debe ser sen- cillo.de toma de decisiones y obligarse disciplinadamente a seguido sin improvisar excesivas modificaciones sobre la marcha. porque no se toman decisiones ni sobre la extensión de los programas ni sobre la secuencia de los objetivos. para reducidos posteriormente a las alternativas más viables mediante una técnica de selección. hace todo lo que puede. 1990: 230).1. lo que en muchos casos quiere decir a hablar de los alumnos. un proceso en «zigzag»que sucesi- vamente se abra de modo creativo a todas las alternativas para luego sacrificar la mayoría de ellas con objeto de concentrarse en el problema más importante y en la solución más viable. pero no se evalúa porque no se toman decisiones sobre los resultados ni sobre las estrategias de enseñanza. soluciones. no le doy sobresaliente porque no estudia. JUNTAS DE EVALUACiÓN 4. ¿sobre qué se habla? Fulanito es muy inteligente. se sugiere el siguiente para un escenario restringido al ámbito de los aprendizajes. Es decir. más fáciles . una téc- nica de análisis que permita formular todos los posibles problemas. causas. en primer lugar. Algunos profesores se muestran muy contentos porque ya han superado eso de dictar notas en las sesiones de evaluación. Sin embargo. que es el más frecuente en las Juntas de Evaluación. La cita refleja en gran medida la realidad de muchas Juntas de Evaluación. en aquellos casos en que el proceso de evaluar incluye la toma de decisiones. etc. no puede más. Esto no se contradice con la conveniencia de dedicar periódicamente un tiempo a analizar el proceso para ir introduciendo mejoras más complejas. cambian sustancial mente las actuaciones de los citados órganos docentes y. Para agilizar el proceso formal de toma de decisiones en la Junta de Evaluación. así que le vaya aprobar (Brincones.Toma de decisiones en la evaluación educativa 241 recoger en una hoja de previsión donde figure lo que puede fallar. sino también de los profesores. pero muy vago. y dicen que se dedican a evaluar. Decisiones previas 4.. en donde se hacen comentarios. por un lado. se deben tomar en el foro adecuado una serie de decisiones previas. lÚnico Ayuda también tener presente un catálogo de las clases de decisiones que se van a considerar.. como aparece en el siguiente esquema: Organización Datos Opciones funcional 1. en los que los objetivos complementarios se calificarían con una gama completa de notas (de O a 10) y los mínimos con una restringida (de O a 5). por lo que se pueden rectificar cuantas veces se estime oportuno. dentro de cada asignatura. Opciones: Además de clarificar las metas. objetivos. y. luego. hay que decidir si se ofrece a los alumnos la opción de elegir entre asignaturas optativas. etc. es decir. Son fundamentalmente tres. las califica- ciones numéricas o literales. si se les ofrece un único programa a todos. o también programas diversificados. simples o matizadas.242 La evaluación de aprendizajes por no ser irreversibles. 3. 2. Datos: Decidir qué datos se van a llevar a la Junta. Asignatura Asignatura Obligatoria Optativa Programa Programa Único Complem. estrategias de ins- trucción. A continuación se ofrecen . Organización funcional: Se trata de atribuir una función a cada miem- bro del grupo y diseñar la dinámica de las reuniones. o sencillamente con un apto/no apto. Afectivas (A): (T) Atención: Es incapaz de mantener una atención sostenida. Conceptuales (C): (M) Memorización: No recuerda datos. 3. . Deficiencias de aplicación. No dedica tiempo al estudio. . para matizar las calificaciones insatisfactorias. 8. . .Problemas personales. SOCIALES MATEMÁTICAS LENGUA EVALUACiÓN: NOMBRE CATEGORíAS (Siglas) 1. puntualidad. Bajo nivel de aptitudes. .Falta de base. Aparentemente no estudia. etc. Falta de interés. Problemas personales. 4. MODELO B 72548 10 CURSO: 96 3 1 ASIGNATURA NOMBRE CATEGORíAS: 1. Deficiencias de comprensión. Nivel de atención bajo. 10. disciplina. 7. 2.Aptitud deficiente para la materia. Procedimentales (P): (R) Aplicación: No es capaz de resolver cuestiones. 5.Toma de decisiones en la evaluación educativa 243 diferentes modelos de informes. MODELO A CURSO: A A P C PC . 9. que los profesores se comprometen a aportar a la Junta de Evaluación. Deficiencias en el recuerdo de datos. 2. Falta de orden. No entrega los trabajos a tiempo. 2. (1) Interés: No demuestra interés. Retraso en el aprendizaje. (1<) Comprensión: No los comprende. (O) Otras causas que hay que explicar en un informe más detallado: . 6. . Desconoce técnicas de estudio adecuadas. Pasos: La secuencia de pasos simbolizada en el diagrama. que a primera vista puede antojarse compleja. . pero que en realidad muchos califican hasta de obvia.244 La evaluación de aprendizajes 4. Datos sobre alumnos con calificaciones insatisfactorias. c=J OPERACIONESdecididas en procesos previos. <> SELECCIÓNBINARIA:Sencillamente sí/no. completado con QDCC o diagrama causa- efecto. es la siguiente: O.2. Técnicas: Las técnicas de análisis y selección que se aplican a lo largo del proceso se simbolizan en el diagrama de la siguiente manera: EXPLORACIÓN:Brainstorming o Phillips 66. Proceso Los pasos del ejemplo que estamos sugiriendo se simbolizan en el siguiente dia- grama: Psicólogo Médico Departa- mento Plan de acción Controles 1. dependiendo del ~ número de personas. aportados según el modelo de informe adoptado en las decisiones previas. V SELECCIÓNMÚLTIPLE:Voto ponderado. C) PERTsimplificado. 2. Seleccionar la mejor alternativa por medio de la selección ponderada o de la matriz de clasificación por criterios.). Formular todas las soluciones sugeridas por las causas detectadas a tra- vés de brainstorming o Phillips 66 completado con diagrama causa-efecto. 2. Problema: 1. 4.3. 1. sistema de seguimiento. El resto de problemas.Toma de decisiones en la evaluación educativa 245 1. apti- tudes. 2.2. 2. recursos y tiempos. Soluciones: 2.1.). Plan de acción: Concretar las acciones. por medio de un brainstorming o Phillips 66 completado con QDCC. Gabinete de Orientación..4. etc. solo los susceptibles de decisiones ejecutivas. aplicación. sino también afectivos (interés. etc. enviados al órgano competente (Jefatura de Estudios. es decir. Formular todas las posibles causas del problema seleccionado por medio de un brainstorming o Phillips 66.2. los problemas planteados por los datos aportados. Introducir las mejoras adecuadas en las decisiones previas y los pasos del proceso. con el fin de empezar a recoger nuevos datos para la sesión siguiente. por medio de una selección simple sí/no. personas responsables de cada acción. Enumerar. 2. 1. Filtrar. . etc. los problemas relacionados con el aprendiza- je. de contenidos). 3. Aplicar criterios no sólo cognoscitivos (capacidad demostrada de com- prensión.1. Seleccionar un problema de aprendizaje por medio de la selección pon- derada o matriz de clasificación por criterios.3. de acuerdo con el modelo de recogida de datos decidido previa- mente. Departamento. . NOI)Vn'VA:I:la S:lS.") .1 . . a partir de la heteroevaluación del profesor y de otra serie de datos. aparece como interna la evaluación ordinaria integrada en el Proyecto Curricular. . En esto consiste justamente la autoevaluación que. Si se considera la evaluación referida al aprendiz. Si se considera como sistema la clase.1992). el momento de aplicación (evaluación inicial. no es muy difícil de conseguir. el profesor debe ayudar al alumno a que. Se habla de evaluación interna y externa. En la heteroevaluación. el profesor evalúa al alumno. con objeto de conformar «esquemas personales» válidos para poder usados en el futuro cuando se enfrente a situaciones análogas. sea capaz de valorar sus propios procesos de aprendizaje y de tomar sus decisiones. 1980). cuyo estudio ocupa gran parte de la presente publicación. y como externa en diver- sos grados las distintas clases de evaluación asistida. Sin embargo. más cuando la capacidad de valorar es un compo- nente indispensable de todo aprendizaje.Son varios los criterios que se pueden adoptar para determinar las distintas cla- ses de evaluación (Rodríguez Diéguez. uno de los objetivos de la educación es también capacitar a éste a reflexionar sobre sí mismo. que suponen el asesora- miento o intervención de orientadores especializados (García Vidal y González Manjón. dado que cualquier alumno posee siempre un juicio subjetivo de lo que hace. aunque a menudo pueda ser imprecisa. que es responsabilidad de los profesores implicados en el proceso de instrucción. Entre otros. tanto más exacto cuanto más avanza en el sistema educativo. se habla de auto y de heteroevaluación. intermedia y final) y los fines y funciones de la evaluación (evaluación formativa y sumativa). Por todo ello. SISTEMA EVALUADO 1. conviene citar el sis- tema que se evalúa (dando lugar a la evaluación interna y externa). según el grado de pertenencia del evaluador al sistema evaluado. . La evaluación intermedia yfinal pueden asimilarse respectivamente a la evaluaciónformativa y sumativa que consideraremos posteriormente clasifica- das desde otro criterio. a un test que se pasa el primer día de clase. Puede ser llevado a cabo por el profesorado con o sin la inter- vención de otros especialistas. No puede reducirse. con objeto de determi- nar la situación de cada alumno antes de iniciar un proceso de instruc- ción y asegurar. tratados adecuadamente. así. por ello. con características claramente formativas. Su finalidad es. 1. La evaluación inicial. conocida también como evaluación diagnóstica. Se refiere. hay que considerar el contenido de la información necesaria para todo diagnóstico. así. y ha de hacerse sobre las distintas variables que se consideren relevantes. fundamentalmente correctiva. Tipos de diagnóstico: Se suelen considerar. En este sentido se puede hablar de evaluación inicial. por lo que pasamos a estu- diada a continuación. intermedia y final. 1999). que las características de la enseñanza se ajusten a las propias del aprendizaje. pues. 2. que puede coincidir con el repaso inicial por el que los alumnos van recordando y activando dichas variables. Como parte esencial del proceso ordinario de progra- mación. a) General: Su finalidad es básicamente preventiva. Contenido del diagnóstico: En segundo lugar. es la que proporciona información sobre el alumno para tomar decisiones antes de comenzar un proceso de instrucción. en primer lugar. tiene un perfil diferencial. 1971). pues. Ramos. sino que ha de extenderse a un cierto período de tiempo.e. sin embargo.) (Álvarez et al. 2. dando lugar a otras clases de evaluación interna y externa. a todo el grupo. 1989). con frecuentes y generalizados fracasos. con objeto de que tales problemas puedan ser identificados y precisados lo mejor posible y. se aconseja una actuación conjunta del profesorado y de otros especialistas (Pérez]uste y G. es la que afecta más directamente al profesor. c) Individual: Se refiere a alumnos con dificultades en el aprendizaje (DA) o necesidades educativas especiales (n. Para llevado a cabo. b) Analítico: Busca aumentar el conocimiento de las variables y de los alumnos que presentan cualquier tipo de problemas.250 La evaluación de aprendizajes Se pueden considerar otros sistemas de referencia como el centro o todo el sistema educativo. Se reduce básica- . varios tipos de diagnóstico (Brueckner y Bond. TIEMPO DE APLICACiÓN Un segundo criterio es el momento en que se aplica dentro del proceso de ins- trucción.e. la evaluación inicial. Campllonch. sino también su nivel de competencia o potencial de aprendizaje en la ZDP (Fernández- Ballesteros. 1984. comprensión. Tradicionalmente. No existe un consenso sobre los aspectos que deben ser objeto de esta eva- luación. 1989). ni siquiera dentro de una misma teoría del aprendizaje (Álvarez Rojo. los «inclusores» en nomenclatura de Ausubel. 1990) mantiene la teoría de la construcción social de la inteligencia. Buisán y Marín. Desde otras perspectivas. en la evaluación inicial: las pruebas al uso que utilizan los evaluadores sólo miden el nivel de rendimiento efectivo del alumno en la ZDR.Vygotsky (1964) (Álvarezy del Río. olvidándose de evaluar otras no cognitivas. que integra los conceptos de <<zonade desarrollo real» (ZDR). es decir. b) Habilidades o capacidades aplicadas de atención. se ha entendido como la evaluación de una serie de capacidades básicas. se ha puesto de relieve la importancia de los esquemas de conocimientos previos. procedimientos científicos. que indica el conjunto de conductas. relacionadas con los logros académicos.definida por las tareas que el sujeto desarrolla de un modo autónomo. es decir. en particular. Pérez]uste y Ramos. tales como los factores motivacionales y afectivos. representaciones y maneras de razo- nar propias del alumno que conforman la estructura en la que se inserta y orga- niza el nuevo conocimiento que va adquiriendo. desde esta perspectiva se postula un planteamiento más dinámico de la evaluación. elaboran la evaluación del potencial de aprendizaje basándose en los planteamientos de Feuerstein). Otros van más allá y critican la evaluación diagnóstica que se centra exclusiva- mente en los niveles actuales del desarrollo del alumno en un momento concreto y no considera sus potencialidades a través de la mediación de los otros. . En resumen. Estos conceptos implican las siguientes consecuencias en la evaluación en general y. cuya importancia en el ámbito educativo ha sido probada empíricamente. García Vidal y González Manjón. encaminados a los nuevos aprendizajes y a la organización y planifi- cación de la enseñanza. d) Competencia curricular o conocimientos específicos relaCionados con el programa: conceptos base. se insistió más bien en la necesidad de eva- luar conocimientos previos específicos y pertinentes para los nuevos aprendiza- jes. 1984.Clases de evaluación 251 mente a lo que Halwachs (1975) designa con la expresión «estructuras de acogi- da». Más tarde. etc. c) Estilo de aprendizaje. Pero hay autores que critican la excesiva preponderancia de las variables de carácter cognitivo. los controles para una evaluación diagnóstica deberían propor- cionar. etc. Calero y Be1chi. comprobar no sólo el aprendizaje efectivo del alumno. al menos. 1992. Sin embargo. aplica- ción. fundamentalmente cognitivas. información sobre: a) Capacidades básicas. Así.1991. y «zona de desarrollo próximo» (ZDP) o conjunto de acciones que el sujeto puede hacer con la ayuda de otros. es decir. Este tipo de medida es el punto de parti- da para entender la evaluación formativa. FINES DE LA EVALUACiÓN Un criterio importante de clasificación es el que considera el fin para el que se evalúa. Como acabamos de decir. es necesario emitir a lo largo de dicho proceso de manera inmediata juicios. es decir. con una valoración criterial. para mejorar el proceso de enseñanza-aprendizaje. sino que tiene continuidad en la evaluación interme- dia o formativa que estudiamos a continuación. comunes a otras clases de evaluación. . los instrumentos de la evaluación diagnóstica: pruebas objetivas. sino incluso de aspectos parciales e implícitos. Todo ello va a condicionar tanto la recogida de información como la valora- ción. se deduce que la única medida que resiste una crítica rigurosa es aquella que se refiere a cada objetivo por separado. para poder tomar las dedsiones modificativas propias de la evalua- ción formativa. profundizar en su estudio para no caer en el error de quedarse en el significado aparente de estos términos y llegar a conclusiones como que la eva- luación Sumativa no contribuye también a la «formación» de los alumnos. 3). Así. análisis de tareas y de contenido. la evaluación tiene una función Sumativa (estos términos los usó por primera vez Scriven. lo que. por tanto. exámenes con- vencionales.252 La evaluación de aprendizajes 3. a su vez. Evaluación formativa: Del estudio de la medida aplicada a la educa- ción (cap. aunque los sistematizó y elaboró el equipo de Bloom. Es importante destacar que esta forma de evaluar diagnóstica para conocer al alumno y planificar la enseñanza no debe interrumpirse al iniciar el proceso de enseñanza-aprendizaje. y si para tomar decisiones ejecutivas finales sobre los resultados del aprendizaje. a veces se identifica la evaluación Formativa con la intermedia y la Sumativa con la final. exigiendo para la evaluación formativa una serie de características que nos proponemos analizar en los párrafos siguientes. exige obtener una información adecuada sobre el grado de adquisición de cada uno por separado.1. 1975). si se utiliza para tomar decisiones modificativas. Cap. para mejorar el proceso de instrucción. Instrumentos: Por último. y cuya calificación se expresa en términos de Apto. Además. la evaluación tiene una función Formativa. la clase de decisiones que se toman. 3. difieren sustancialmente en cuanto que las segundas dependen del tiempo y las primeras de la función. cf. 2.No Apto de una escala nominal. modelos referenciales. 3. etc. para determinar el grado de adquisición de cada uno de ellos. no sólo respecto de cada objetivo. aunque guarden alguna relación. observación espontánea y estructurada con listas de control y esca- las de estimación. a saber. Conviene. estilo y estrategias de aprendizaje no adecuadas. y así. en la fuente prioritaria de motivación. psicológicos. familiares y ambientales que pueden influir en el aprendizaje. o por- que se lo indica el profesor) del camino que le queda por recorrer en el logro de las metas propuestas. así como la posibilidad de entrever otros factores contextuales. por un lado. y alternativos. El profesor debe intentar convencer al alumno de que el fin de la instrucción no es sólo obtener un título. sino para analizar y diagnosticar lo que se debió aprender y no se logró. de los alumnos. ya que. Supone continuar con las pruebas de diagnosis durante y a lo largo del pro- ceso de aprendizaje. antes de que termine (entonces ya no tiene remedia). lleva asociados otros elementos complementarios. de los aspectos parciales no asimilados de los objetivos. b) Detectar causas: Esta evaluación se preocupa de todos los elementos del proceso de enseñanza-aprendizaje. en estas circunstancias. Lo que preocupa entonces únicamente al alumno es saber cómo sacar mejores calificaciones y tener éxito en la obtención de cer- tificados con el menor gasto posible. más allá de los objetivos. pero no para sancionar. llegando. Implica no sólo un análisisy diagnóstico del aprendizaje en sí. Si el fallo se detecta sólo en una minoría de alumnos. porque trata de decisiones modificativas para mejorar todo el proceso de ins- trucción. La evaluación formativa empieza siendo un control de la calidad y eficacia de cada paso del proceso de enseñanza-aprendizaje. c) Mejorarel proceso de instrucción: Lo más importante es su caracte- rística de no ser un veredicto final. la evalua- ción se transforma. y que el fin de la evaluación no es únicamente per- mitide el conseguido. de hecho. habilidades aplicadas. tales como aptitudes y capacidades básicas. a anali- zar las necesidades y valorar hasta qué punto se han satisfecho. que ayudan a parcelar el proceso de instrucción e ir alcanzando cada paso secuen- cialmente y por caminos más o menos directos. Se aplica a zonas de este proceso con alguna unidad y que influyen en la eficacia del resto del proceso. tales como aspectos médicos. En la evaluación formativa el elemento «toma de decisiones» adquiere una importancia decisiva. al ritmo de cada uno. y la enseñanza recibida se relega a un papel totalmente secundario. sobre todo las causas de los fallos. en continuidad con la evaluación inicial. unfeedback para los alumnos. sino que. El elemento «medir» queda reducido a detectar fallos y causas sin tener necesariamente que cuantificados. cada uno de ellos obtiene información (porque él mismo se da cuenta. o mejor diríamos de inquietud. Es. según el progreso realizado o la ausencia del mis- . a partir de los resultados de la evaluación formativa.Clases de evaluación 253 a) Detectar deficiencias en el aprendizaje: La evaluación no debe limi- tarse sólo a jugar un papel sancionador y convertirse en una serie de obstáculos que los estudiantes tienen que vencer. sino más bien un diagnóstico de la situación del alumno durante su proceso de aprendizaje respecto a cada objetivo por separado para ayudade a alcanzados. desde el momento en que aborda el aprendizaje hasta que termina. Tiende a promover un desarrollo personal adecuado. Este tipo de evaluación debe hacer competir al alumno consigo mismo. aun implícitos. de ninguna manera. y hacia la metodología para introducir las correcciones oportunas en las estrategias de enseñanza. por ejemplo. como las causas para reajustar y «optimizar» los logros y el proceso de enseñanza-aprendizaje. ya que es unfeedback para los profesores. y no con otros alumnos. d) TIempo de aplicación: Como consiste en evaluar tanto las estrategias de aprendizaje como el rendimiento conseguido por el alumno 'durante la ins- trucción. un aprobado en Química en el 2° trimestre. pero no en el caso de resultados negativos (un suspenso en dividir no asegura también un suspenso en multiplicar y sumar). mediante controles precisos. Hay otros profesores. la evaluación debe ser per- manente. dedicando más tiempo a examinar que a otras actividades educativas y manteniendo al alumno constantemente sobre «ascuas». o de objeti- vos no inclusivos sin relación de orden (el caso citado de Física y Química). como evaluación «continua». Otras coordenadas que completan el perfil de la evaluación formativa son: e) Nivel de generalización: Como se fija más en la adquisición de cada objetivo o incluso de aspectos parciales de los objetivos. habrá que orientar los remedios hacia el programa para revisado y precisado. de manera que todas y cada una de las capacida- des y de los contenidos importantes.254 La evaluación de aprendizajes mo. . Esta noción ha sido a menudo mal traducida. introducir posibles correccio- nes y procesos alternativos remediales para continuar su aprendizaje. la evaluación formativa es una evaluación permanente para determinar el grado de adquisición de cada objetivo. la adquisición de unos objetivos enmascara la de otros totalmente distintos y sin relación. que la entienden como si un apto justificase siem- pre la adquisición de todos los objetivos previos. puede ajustar las actividades para aprender. Es. y alumnos. si el fallo se detecta sistemáticamente en una mayoría de alumnos. No debe. con el fin de luchar contra sus deficiencias. En resumen. pero también es un complemento natural de una buena enseñanza. de los objetivos deben quedar reflejados en algún control de la evaluación formativa. y peor interpretada: hay profesores que la entienden como una continua evalua- ción. ser utilizada por el profesor para san- cionar. y detectar tanto los aspec- tos NO asimilados. por tanto. 3) (un aprobado en dividir justifica sin más el aprobado en sumar y multiplicar). justifica toda la Física del 1er trimestre. de esta forma. Esto se podría aceptar en caso de resultados positivos de objetivos inclusivos con rela- ción de orden (cap. el nivel de generaliza- ción de las pruebas es mínimo. un ingrediente del proceso de aprendizaje. porque. más o menos formales. Esta evaluación requiere un espíritu más positivo de cooperación de todos los grupos implicados y una integración de todos los elementos. por el contrario. La calificación se hace por medio de una valora- ción criterial o de dominio objetivo a objetivo. Una manera estándar de planificado se representa en la tabla siguiente. con diagnóstico de fallos y causas. por último. reflejo de la matriz capacidades/contenidos de programación. aspecto éste esencial de la evaluación formativa. el diagrama nos puede sugerir que controlemos si se debe a dificultades de comprensión del lenguaje o al conoci- miento del procedimiento científico. primero. si un alumno es incapaz de resolver problemas. la técnica de búsque- da en el diccionario. 16). ayuda construir un diagrama que muestre jerárquicamente los objetivos que hay que evaluar o una tabla de especificaciones (cap. programas informatizados. ni de reflejar los resultados en un acta oficial.fuentes de infor- mación asequibles al alumno y. otras estrategias alternativas de recu- peración preferentemente individualizadas. pero inmediato. bajo las columnas «Texto h y «Texto2». A partir de estas calificaciones. en la que se ofrece. es más. es conveniente repetidas siempre que se hayan mostrado válidas como indicadores de las deficiencias de aprendizaje. el diagrama nos puede sugerir que contro- lemos las preguntas que se hacen sobre el análisis morfológico. Por ejemplo. Al contrario que en ésta. se podrán adoptar pruebas informales o formales. y el profesor. g) Calificación: No se trata de dar un certificado final. y se reduce a un Apto/No apto completado con un informe más o menos formal. el mismo alumno puede hacer su propio diagnóstico de su estado de aprendizaje. el análisis sintáctico.Clases de evaluación 255 f) Selección y construcción de pruebas: La diferencia esencial entre evaluación formativa y sumativa no está en el formato ni en el contenido de las pruebas. el conocimiento del significado de las palabras. etc. etc. las pre- guntas de la evaluación formativa pueden repetirse curso tras curso porque no influyen en decisiones irreversibles. a continuación. . MAV. o también. sino en cómo se usan para promover el progreso del aprendizaje del alumno. Para construir una prueba de evaluación formativa. proporcionar instruccio- nes detalladas para su recuperación. semejantes a las de la evaluación sumativa. como en la planificación de toda evaluación. la respuesta correcta. tales como estudios dirigidos. si un alumno falla en la traduc- ción latina de una texto de Cicerón. Por tanto. W. Respuesta yJ. XXI. Láminas. Atlas Milagroso. reflejada en una calificación a partir de unos resultados calculados a través de una media ponderada. (1984): AA. tiene aspectos comunes y aspectos diferenciados.5. de mapaKyoto. Escolar. tecnónico. Tebar págs.2. interpretación Tamargo. España Ebro.NN. es decir. El (1980)50 de un Lae de 7. Levante- Madrid.W. . Estébanez Documental Guadalaviar.: MEC. 1358. Barna. MAC. 13. 28. en compara- ción con la evaluación formativa. 49.ea Barna.yDISA-EI formación del representación. enMAV: 2Apuntes oen movimiento 10Texto clase.) Programa AA. del relieve pág. 3). España. (Gráfico Puyol. el rigor de la medida queda mediatizado por la subjetividad que siempre está implícita en la ponderación. Evaluación sumativa: Del estudio de la medida aplicada a la educa- ción (cap. da lugar a una evaluación cuyo concepto. R. Cualquier España: físico placas milimetrado.W(1994) Geografía aparezca para estudiar 83ss. Lección Albacete. 256 La evaluación de aprendizajes . su pág. (1992). se deduce que la valoración final de un repertorio de objetivos.: Universidad manifestación El papella cap. Enciclopedia adj. MAC. la deGeografía donde Informático Planeta Texto Serie Cf. AA. Oviedo. no es unívoco sino analógico. CC. 14 Y . topográfico. dinámica Turia BUp. 7". Pregunta minutos. Flores. Depresión elaborado (1993) el España! del por 3. J. del (1976)Análisis mapa tectónicas. prof. las págs. siglo Mundo. Aquí. 1Ecos. Vicens-Vives. mientras que el elemento «toma de decisiones» suele quedar reducido a la decisión selectiva de poder pasar de tema. aparte de que no tiene ya la oportunidad de recuperar las eventuales defi- ciencias de aprendizaje. el curso. etc. Ejemplos de estas decisiones son: . «Estás en condiciones de pasar al tema siguiente. aunque menos frecuentemente. tienes que repetir y volver a empezar el tema. que conlleva una serie de características que nos proponemos analizar en los párrafos siguientes. aunque no es infrecuen- te que tenga también consecuencias «formativas» para alumnos y profesores. sino en el fin para el que se usan.. y de la que se sigue una toma de decisiones ejecutiva. como hemos reiterado. las decisiones asociadas a la evaluación sumativa exigen que el elemento «medir» quede cuantificado en una calificación criterial final.». . Pero dicho juicio no da pistas e información suficientes sobre las necesidades de ajuste y cambio para que el alumno llegue a las metas propuestas no alcanza- das. a final de trimestre. junto con las exigencias administrativas y sociales. b) Juicio sobre el resultado: La evaluación sumativa es una acción «des- pués de» que se preocupa de dar un juicio del trabajo del aprendiz en relación con algo fijo.». «Por ahora no estás en condiciones de seguir. como sucede en la evaluación formativa. En resumen.. No obstante. etc. etc. de ejercer la profesión. es la base de la evaluación sumativa. Se suelen realizar al final de una unidad más o menos lar- ga. al objetivo o al curso siguiente. Sin embargo. de curso. Por ejemplo. refle- jado en una calificación globalizada de un repertorio de objetivos. etc. Clases de evaluación 257 Esta clase de medida. es obvio. con objeto de mejorar las posibles deficiencias en algunos de estos aspectos. etc. por tanto. a veces implícita. en la evaluación sumativa se contro- la globalmente si el alumno es capaz de interpretar gráficas con objeto de deci- dir si ha de pasar al tema. mínimos y puntos de inflexión. e) Tiempo de aplicación: Los controles son más espaciados que en la evaluación formativa. porque esto suele ser suficiente para tomar las decisiones que le son propias. . la evaluación sumativa es la evaluación final que emite un jui- cio sobre el alumno (a veces. también sobre el profesor o el currículo) en relación con el resultado del aprendizaje. al curso siguiente. de curso. que se puede aprovechar la evaluación sumativa para fines formativos. interpretar máximos. en la eva- luación formativa debe comprobarse parceladamente si el alumno es capaz de localizar puntos en un sistema de coordenadas. mediante la comparación de los objetivos y los resultados. en cambio. a) Medir:Reiteramos que la diferencia esencial entre la evaluación formativa y sumativa no está en el formato o en los contenidos de las pruebas. Otras coordenadas que completan el perfil de la evaluación sumativa son: d) Nivel de generalización: Se fija preferentemente en la comprobación de una muestra de objetivos. ) de asalto a ese «baluarte» y. Para ello pueden ayudar algunos criterios como los siguientes: agrupar objetivos según contenido o capacidades. por otro. se presupo- ne que las decisiones de promoción de la evaluación sumativa que se toman a partir de la superación de unas materias y cursos sirven de predicción de resul- tados suficientes en otras materias y cursos. a determinadas estrategias de aprendizaje o a otras relaciones del aprendi- zaje con el desarrollo o con el contexto. es decir. La asimilación de capacidades operativas en Aritmética o Álgebra pue- den predecir los resultados en Álgebra superior. evidencia de la relación entre objetivos de distintos cursos y. el valor que se le da a cada pregunta del examen y. Y luego hay que construir situaciones con indicadores válidos sobre la consecución de los objetivos seleccionados. es necesario tener en cuenta. por un lado. . puede deberse a la capacidad del alum- no. de los resultados de una evaluación. como norma general. Ejemplos: . el secre- to profesional del profesor. se basa también en la posible predicción de éxitos futuros. f) Construcción de pruebas: En primer lugar hay que decidir qué muestra de objetivos se va a evaluar. alumnos. e incluso en otras como Física o Química. . como en la evaluación formativa. Para calcular la calificación en una evaluación sumativa. Biología. no deben sacarse consecuencias predictivas demasiado amplias. entre otros. . La asimilación de capacidades como la comprensión de problemas bio- lógicos proporciona una base para predecir futuros aprendizajes en la misma materia. que no se modificarán en cursos siguientes ni el contenido ni el método ni las estra- tegias de aprendizaje de los alumnos. aspectos estudiados al hablar de la medida (cap. así como la valoración criterial que controla el dominio de objetivo a objetivo es propia de la evaluación formativa. seleccionar los necesarios para etapas siguientes. De todas formas. 16). Un alumno aprobará Inglés de un curso si está capacitado para empe- zar con éxito el Inglés del curso siguiente.258 La evaluación de aprendizajes e) Justificación: Aparte de razones y exigencias administrativas y sociales. 3 y 13). sobre todo. el intento por parte de otros miembros de la comu- nidad educativa (padres. La razón de esta relación no es clara. etc. sino que se trata de medir el dominio de un repertorio de objetivos a través de una muestra significativa. por otro. por un lado. es decir. ni a muy largo plazo. qué casillas o puntos de intersección de la matriz capacidades/contenidos (cap. Claro que esto supone. g) Calificación: Aquí ya no se considera objetivo a objetivo. Lavaloración criterial de dominio de una muestra de objetivos es propia de la evaluación sumativa. h) Contexto: La evaluación sumativa se ve rodeada con frecuencia de una serie de factores con textuales que tienden a distorsionarla. seleccionar sólo los que incluyan otros objetivos aunque sea implícitamente. la corrección del azar cuando sea posible. etc. Es decir. Grados más extremos suelen empeorarla. Tryon. Autores que han estudiado la ansiedad ante los exámenes han distinguido en ella dos aspectos: preocupación por la actuación personal y emoción o reacciones intrínsecas y neurálgicas ante los exámenes (Hembree. a un nivel relativamente bajo. no suelen mostrar ninguno de los bloqueos que aparecen en los alumnos con ansiedad ante los exámenes. combinando los resultados de investigacio- nes realizadas al respecto (Hembree. es la respuesta anticipada y no deseada que pue- de resultar de una mala calillcación lo que es la fuente de tal ansiedad.Clases de evaluación 259 la ansiedad en los alumnos. y alguien añadió un «grafito»:«Porque nunca se examinó». No es probable que se encuentre una respuesta simple y universal a las cues- tiones relacionadas con las causas y curación de la ansiedad ante los exámenes. los alumnos con ansiedad pueden temer que sus malas calillcaciones condicionen su futuro y provoquen rechazo de los com- pañeros. 1988). Esto lo demostró ya en 1929 Cannon cuando comprobó la presencia de azúcar en la orina después de exámenes importantes. 1980) y las observaciones comunes del comportamiento humano. Esto lo confIrma el hecho de que los que se someten a exámenes de manera anónima o a pruebas que no tienen consecuencias personales. Prácticamente todos los estudiantes experimentan alguna ansiedad antes de un examen. en vez de concentrada a niveles relativamente altos justo antes y durante los exámenes. d) Cuanto más familiarizado esté un alumno con un tipo de prueba. padres y profesores. sin embargo. ridículo o pérdida de respeto. La preocupación parece proceder del miedo a las consecuencias negativas como resultado de la actuación en los exámenes. Se cuenta que en un cementerio sobre la lápida de un valeroso guerrero rezaba: <~quí yace el que nunca tembló». dado que los seres humanos son complejos y las situaciones en las que se les examina son diversas. Desde este punto de vista. b) Hay una alta correlación positiva entre el nivel de ansiedad y el nivel de aspiración. e) La ansiedad puede ser útil educativamente si se distribuye. 1988. es menos probable que sea víctima de ansiedad extrema. Estas reacciones dis- traen la atención-concentración y conducen al seguimiento inadecuado de las ins- trucciones y a una mala interpretación de pistas informativas obvias. aspecto éste difícil de evitar. Una enseñanza . c) Grados moderados de ansiedad facilitan y mejoran la actuación en exá- menes. porque no es el examen el que produce tales sentimientos. podemos ofrecer algunas generaliza- ciones que parecen razonables: a) Hay una correlación negativa entre el nivel de preparación y el nivel de ansiedad ante exámenes. Los mejor preparados tienden a ser menos ansiosos cuando se enfrentan a cualquier tipo de prueba. como se sabe. El azúcar. Los más ansiosos ante un examen tienden a ser los que tie- nen más necesidad o deseo de hacerla bien. es un indicador fIsiológico de una fuerte reacción emocional. no se debería llamar ansiedad de los exámenes. a lo largo del curso. 260 La evaluación de aprendizajes buena cuenta con dosificar controladamante una energía estimulada por la ansiedad de los exámenes. MacKeachie (1988: 7), después de más de 30 años de investigaciones relaciona- das con la ansiedad y las estrategias de estudio, ha concluido que la pobre actua- ción de los alumnos ansiosos se suele deber a unas malas técnicas de estudio: Me he preocupado de alumnos cuya actuación se ve dificultada por una excesiva ansiedad ante exámenes de logros ... pero aunque estos alumnos hayan aprendido a relajarse y controlar sus sentimientos de ansiedad, su actuación no mejora. Nues- tras conclusiones más recientes indican que tales alumnos obtienen malos resulta- dos en los exámenes no porque están ansiosos, sino porque están mal preparados. Los alumnos muy ansiosos estudian, pero lo hacen de manera ineficaz:, memorizan- do detalles y reduciéndose a leer apuntes y textos una y otra vez. Es evidente que un alumno con un alto grado de ansiedad presenta un bajo autocontrol que, desde el punto de vista del rendimiento supone dificultades en el hábito de estudio, en el empleo adecuado del tiempo disponible, etc. Las ayudas para este tipo de estudiantes varían según los diversos enfoques adopta- dos. Algunos programas se centran en mejorar estrategias de aprendizaje, y otros en entrenar el autocontrol y en la modificación de los procedimientos negativos que se desencadenan en los momentos previos. El programa más conocido es el entrenamiento en inoculación del estrés (Meichenbaum, 1975), que enseña al estudiante a comprender la naturaleza de sus reacciones de estrés y a reconocer cuándo se pone nervioso y cómo supe- rarlo. Primero practica estas habilidades en una situación imaginaria y luego las lleva a situaciones reales. Para finalizar, resumimos en el diagrama siguiente la comparación entre la evaluación formativa y sumativa: Objetivo Ev. Formativa Ev. Sumativa Clases de evaluación 261 En realidad, los profesores practicamos de modo espontáneo la evaluación sumativa, y aprovechamos la información en ella obtenida para llevar a cabo ocasionalmente elfeedback de la evaluación formativa. Sería conveniente incre- mentar de forma progresiva esta última hasta aproximarse a la utopía que defiende la permanencia en el tiempo de la evaluación formativa y la reserva de momentos para la evaluación sumativa. NOI)Vn1VA:I V1:1a '" OS5I)OHd 1:1 La evaluación debe realizarse según un proceso que sirva de guía de trabajo para construir una prueba, aplicada, valorada, tomar las decisiones oportunas e informar de ellas a los alumnos, lo que puede materializarse mediante los pasos siguientes (los interesados encontrarán en Ebel y Frisbie, 1977, un clásico imprescindible cuando se trata de evaluación de aprendizajes, interesantes matices, diseminados a lo largo de su obra, sobre los pasos de este proceso, que han inspirado muchas de las ideas que aquí recogemos): 1. Planificación. 2. Selección del formato de los ítems. 3. Construcción de los Ítems. 4. Ejecución. 5. Corrección y calificación. 6. Toma de decisiones. 7. Revisión. PLANIFICACiÓN 1. Tabla de especificaciones 1.1. Para planificar un examen, sobre todo cuando los resultados se van a valorar cri- terialmente, como es el caso más frecuente en situaciones académicas, una de las estrategias que se usa a menudo es empezar estableciendo una tabla de doble entrada, conocida como «tabla de especificaciones» o «matriz de evaluación», que recoja los objetivos que se van a evaluar directamente. Con independencia de la taxonomía de capacidades y de la estructura de contenidos adoptadas, no es necesario examinar de todos los objetivos, sino sólo de una muestra. El conocimiento, producto del aprendizaje significativo, no está atomizado; por el contrario, se almacena de una manera relacionada en racimos de conocimien- tos afines. Por esta razón, se puede concluir que, seleccionando una muestra representativa, se puede extrapolar de su éxito, la consecución de toda una pro- gramación. Si la materia es breve, la muestra se puede seleccionar mentalmen- te; en caso de exámenes más amplios, ayuda hacer una representación escrita la primera tabla reproduce una «matriz de pro- gramación» con el número de objetivos de dicha programación. localizados en las celdas: MATRIZ DE PROGRAMACiÓN 6O 11 3 5 25 34 28 35 4 13 28 5 1 12 22 1118 111 132 1.266 La evaluación de aprendizajes colocando los diferentes contenidos que se van a evaluar en las filas. Lectura O 33 16 20 18 4 2 1 5 O (Tabla de especificaciones) 2III 2 3 O O 131 I3419 O21 3 1O2 11 18 O 96 64 910 8 12 7 2 3 I O TOTAL 4. Sustantivo . En los ejemplos siguientes. y la segunda una tabla de especificaciones en la que el número de objetivos se ha traducido a número de elementos de un examen. y las capa- cidades en las columnas. La importancia se puede deducir tanto de las capacidades adecuadas al desarrollo de los alumnos como de los contenidos científicos. de los 132 objetivos propuestos en la «matriz de programación». no así otro que no se va a volver a ver. distribuidos en 10 preguntas o elementos para controlar memorización. En todo caso.. y un contenido con 8 temas debe representar el doble de ítems que otro con 4. Esta selección puede quedar condicionada también si el objetivo debe controlarse por medio de una respuesta abierta y los exáme- nes posteriores. su control puede posponerse. cantidades o porcentajes de la tabla de especificaciones. como acabamos de ver. b) TIempo dedicado a la instrucción: Por regla general. así. un ítem sencillo para controlar la memorización de una definición puede valer 1. sino también como cuestiones parciales de preguntas más complejas. d) Otras oportunidades de evaluación: Si un objetivo puede evaluarse de nuevo en una prueba posterior. representarían respectivamente el 25 y el 75% de la tabla. etc. en general debe haber más ítems para controlar comprensión y aplicación que memorización. Haciendo una revisión de las entradas de dicha matriz por filas y columnas. una materia que ocupó 6 horas de clase debe representar aproximadamente el doble de ítems que otra de 3 horas. van a consistir en pruebas objetivas. Númerode preguntas 1. por ejem- plo. En nuestro ejemplo. sin . En un examen de 2 ítems. Las capacidades y contenidos reflejados en la tabla de especificaciones da pistas sobre el número de preguntas de cada objetivo. no deben interpretarse necesariamente como preguntas o ítems separados.. como aparece en la «matriz de evaluación». 3. y 7 sobre lectura.El proceso de la evaluación 267 Estos elementos. 8 sobre ortografía. La TABLADE ESpecificaciones proporciona una visión general de la muestra que se va a evaluar. por alguna razón. deben representar más ítems que otros no considerados como prerrequisito. las preguntas o cuestiones del examen que figuran en la tabla de especificaciones deben quedar definidas a partir de los objetivos de aprendi- zaje localizados en las celdas de la «matriz de programación». 11 para comprensión. y otro que encierre varias cuestiones. así como la importancia relativa de cada categoría de capaci- dades y contenidos. se controlan sólo 64. e) Prerrequisitos: Si unos objetivos se consideran como base necesaria para unidades didácticas futuras. etc. se puede matizar la proporción adecuada para evaluar las capacidades que se busquen para cada contenido. atendiendo funda- mentalmente a los siguientes factores: a) Objetivos: Deben recogerse en la muestra los objetivos importantes.2. ..... Quizá los tests rápidos sean adecuados en situaciones específicas y excepcionales. otros criterios complementarios para determinar el número de preguntas de un examen. por ejem- plo.. que relaciona la velocidad y la califi- cación de un examen de 125 ítems verdadero/falso realizado por 100 alumnos.. aunque el rango de calificaciones varía bastante de grupo a grupo... por razones obvias.. por lo que no es adecuado ni conveniente un examen de excesiva dura- ción: para un niño...... no sirve como indicador de logros de aprendizaje. sin embargo... En este sentido. a no ser en aquellos casos en que se considere como un objetivo.010 Suma Rango. esta afirmación. cuanto mayor sea el tiempo dis- ponible y más largo sea el examen. La media es 96... decalificaciones calificaciones La suma de las calificaciones de los 10 alumnos que terminaron primero el examen fue 965. A partir de esta limitación....... su rango de calificaciones fue de 35 unidades.... se puede apreciar cómo.. 3 horas empieza a consi- derarse excesivo... de modo que todos los alumnos.. 60 minutos.. 1977). Orden de finalización 32 24 956 965 35 940 964 948 955 27 31 52 968 942 40 30 25 1. Y ello por varias razones... el número y la complejidad de las preguntas que han de ser incluidas en un examen vienen condicionados por este tiempo disponible... parece lógico confeccionar una prueba con un número adecuado de preguntas. porque la velocidad en contestar.. En primer lugar.. En consecuencia... De acuerdo con la tabla.. tengan tiempo suficiente para responderlas... por tanto. de. no puede extrapolarse indefinida- mente.... se pueden considerar. a) Duración del examen: Por lo general...268 La evaluación de aprendizajes embargo... el último tar- dó 120 minutos.. A los 50 minutos habían terminado 10 alumnos.. 70... La mejor calificación de este grupo fue 105. . no se observa una tendencia a que los alumnos obtengan una califica- ción más alta según el tiempo empleado en hacer la prueba... además. pero no habituales. Así..1. alguna investigación educa- tiva demuestra que no hay correlación entre velocidad y logros.. las calificaciones resultarán más fiables. haciendo el examen a un ritmo normal. la siguiente tabla CEbely Frisbie. la peor. y para un universitario. los especialistas en evaluación consideran inadecuado por rápido un examen si menos del 90% de los alumnos tiene tiempo para con- testar todas las preguntas. aunque. por lo común. de la mayor o menor complejidad del proceso requerido para poder responderlas y de los hábitos de trabajo y experiencia del alumno (uno puede quizá terminar un examen en la mitad del tiempo que necesita otro). de las que se seleccionan las 100 como «muestra» representativa de las 500. en los que no se dispone de una relación predefinida y limitada para elegir una muestra representativa de las preguntas. 500 capitales. Consideremos un alumno al que. Estas 500 capitales constituyen la «pobla- ción». de las 100 capitales de la muestra. por ejemplo. por una parte. En terminología estadística. las que se utilizan para cualquier prueba son también . y. los ítems de un examen constituyen una muestra de una población mucho más amplia. una prueba que consista en la localización en un mapamundi de 100 capitales se podría construir seleccionando una de cada 5 capitales de las 500 que se han estudiado en clase. La diferencia entre el 65% de la población y el 68% de la muestra se conoce como error de muestreo. se le pide localizar las 500 capitales y sitúa correctamente 325 (65%). En todo caso. Sólo la experiencia de proponer pruebas semejantes en con- textos semejantes puede ayudar a decidir el tiempo necesario para realizar un examen. Sin embargo. localiza bien 68 (68%). una prueba se considera adecuada cuando la mayoría de los alumnos disponen de tiempo para contestar a todas las preguntas.El proceso de la evaluación 269 Una segunda razón que aconseja dar tiempo suficiente para contestar es que la ansiedad que los alumnos sufren en los exámenes. más fiables van a ser las calificaciones. Así. b) Muestra de preguntas: Hemos dicho al tratar de la tabla de especifica- ciones que basta controlar una muestra significativa de objetivos para poder sacar conclusiones de toda una programación. por otra. se acentúa ante exámenes que hay que realizar en poco tiempo o en un tiempo muy justo. sino el conjunto de todas las preguntas que se pueden hacer para comprobar los objetivos. Conviene insistir en que la población a la que nos referimos ahora no son los objetivos (en este caso. la población de las preguntas está definida. Además. del tipo de preguntas. el objetivo sería único: «localizar capitales en un mapamundi»). Aunque no hay normas generales. es obvio que en los exá- menes tampoco se incluyen todas las preguntas posibles que sugieren aquellos objetivos seleccionados. En este ejemplo. Por ello. no es fácil determinar qué tiempo se requiere para contestar a unas determina- das cuestiones. cuantas más preguntas conten- gan. el número de cuestiones que un alumno puede contestar en un tiempo determinado depende de varios factores. ya alta de por sí en prue- bas sin límite de tiempo. pero no ocurre así en la mayor parte de los casos. Normas como «estimar un minuto para cada ítem de elección múltiple» o «30 segundos para un ítem verdadero/falso» son generalizaciones sin fundamento. En resumen. toda prueba no deja de ser una muestra. no así los relacionados con capacidades psicomotrices. hay que decidir la forma de cada una de ellas. En él se observa que los objetivos con capacidades cognoscitivas y afectivas se pueden evaluar a través de indicadores indirectos. se reduce a las prue- bas diagnóstico. estriba en elegir una muestra adecuadamente representativa de una población teórica de las cuestiones correspondientes a un tema. El problema. que de ninguna manera pretenden ser criterios rígidos. pero sólo 2 si la interpretación va a ser normativa. conviene hacer una consideración más sobre el número de pre- guntas. hay autores que establecen como mínimo 3 preguntas para evaluar un objetivo criterialmente. la de las afectivas. Como orientación. libres y algunas de diagnóstico. dado que suponen sólo una parte de las que se podrían utilizar. En resumen. y la de las psicomotrices. y los errores debidos a ella serán menores. Por último. es importante seleccionar una muestra de pruebas significativa. Por consiguiente. una muestra grande estará por lo común más cercana al parámetro población que otra más limitada. aunque no están producidos por errores al hacer el muestreo. DE LAS PREGUNTAS Además de determinar el número de preguntas de un examen. El siguiente cuadro ofrece sugerencias. Sin embargo. preferentemente a las pruebas reales y simuladas. pues. por lo que su calificación está también sujeta a sus errores: cualquier muestra perfectamente seleccionada al azar estará sujeta a los errores de muestreo simplemente por- que es una muestra. para seleccionar el formato según la capacidad que se va a evaluar.270 La evaluación de aprendizajes una muestra. SELECCiÓN DEL FORMATO 2. por el contrario. Hay que señalar que depende también del factor interpretación que se va a hacer de los resultados: una calificación criterial necesita una muestra más amplia que una normativa. a sabiendas de que los errores inherentes de muestreo estarán presentes en prácticamente todas las calificaciones educativas. También aparece que la evaluación de las capa- cidades cognoscitivas admite una enorme gama de pruebas objetivas. . Libres Respuesta abierta Pruebas mixtas Examen oral Prueba práctica Proyecto Además del cuadro anterior. las que requieren alguna for- ma de producción por parte del alumno que no puede ser demostrada a través de pruebas objetivas. Hay más tiempo para corregir los exámenes que para preparados. diseñar. Diagnóstico Simulación Verdadero/Falso Elección Múltiple Respuesta limitada Problemas P. explicar y. El grupo de alumnos es pequeño. . El examen no se va a volver a usar. El profesor se siente más capacitado para calificar críticamente un ensayo que para construir pruebas objetivas. El profesor desea explorar más los procesos de los alumnos que medir los resultados. Se quiere comprobar la expresión escrita. Objetivas P. Allíse deducía que se deben elegir pruebas de respuesta abierta cuando: El profesor es el mismo que enseña. construye y corrige el examen. Reales P. las características citadas en el análisis de cada formato de ítem pueden servir como criterios para seleccionado en cada caso. desarrollar. Se va a controlar un repertorio de objetivos de aprendizaje cuyas capaci- dades están formuladas con palabras tales como describir. hacer gráficas. en general.El proceso de la evaluación 271 Indirectos P. su pondera- . etc. e) Componentes de la nota: Otro aspecto que debe tenerse en cuenta es la combinación de los componentes de la nota. a no ser que el profesor sea capaz de hacer preguntas sencillas sobre situacio- nes complejas. y como ocurre con frecuencia. Cuando un profesor ha de planificar pruebas escritas y orales. el orden de las preguntas apenas tiene efectos en los resultados. En relación con los fáciles. si el tiem- po se restringe. todos los componentes tienen una correlación alta y sir- ven para medir de forma conjunta todos los objetivos importantes. no obstante. No resulta fácil. no suelen tener una sola respuesta correcta definida. por otra parte. En cuanto a los difíciles. 3. En general. en igualdad de condiciones habría que dar mayor peso a los componentes que impliquen una nota más fiable. los ítems demasiado fáciles y demasiado difíciles no contribuyen especialmente a discriminar los logros de los alumnos. a) Dificultad: Un primer aspecto importante que hay que considerar es el nivel de dificultad requerida en cada prueba. En principio. b) Orden de las preguntas: Si el tiempo de examen es amplio. cada uno de estos indicadores ha de tener el peso apropiado con objeto de obtener una calificación de máxima validez. Si. trabajos.272 La evaluación de aprendizajes Por el contrario. CONSTRUCCiÓN DE LAS PRUEBAS Conocidas las técnicas de construcción de los distintos formatos. incluso los menos preparados. dificultad que debe estar determi- nada previamente mediante su aplicación a un grupo de control. por lo que no discriminan a los alumnos. casi todos. Parece también lógico agrupar las preguntas referidas a un mismo conjunto de contenidos. los contestarán.. etc. relevante cada uno de ellos para dife- rentes objetivos. hacer una ponderación adecuada del valor de cada componente para la nota final. parti- cipación en clase y otras referencias para calificar un curso. pues es lógico suponer que las preguntas más fáciles del principio redu- cirán la ansiedad de los alumnos ante el examen. se debe elegir algún formato de prueba objetiva cuando no es el mismo profesor el que enseña. es preferible presentar las preguntas en orden de dificultad cre- cienu:. construye y corrige el examen y el grupo de alumnos es numeroso. un período de eva- luación. conviene tener en cuenta los siguientes aspectos a la hora de redactadas. por lo que su efecto es añadir una cantidad constante a las calificaciones de cada alumno obtenidas con una valoración cri- terial para subidas artificialmente. un bloque temático. y teniendo en cuenta que siempre es preferible usar varias y diferentes clases de indicadores de logro. Se pueden ofrecer. sin embargo. Sin embargo. algunas orienta- ciones. en la tentación de orientar las respuestas. sin caer. Obvia decir que. Por otra parte. Sin embargo. relevantes por ser únicos. el profesor ha de aclarar posibles ambiguedades que surjan en la transcripción de las instrucciones o del ejerci- cio. y que se eviten en lo posible los avisos de última hora. 1969. a) Instrucciones: Dado que el tiempo de examen resulta siempre escaso para la mayor parte de los alumnos. considerando que así consiguen que los alumnos estudien regularmente y no se dediquen a «empollar» a última hora. no obstante. b) Exámenes anunciados o por sorpresa: Algunos profesores gustan de hacer exámenes por sorpresa. cómo se va a calificar. que el material que se haya de entregar a los alumnos esté bien organizado con objeto de repartirlo rápidamente. con objeto de resaltar su importancia en la nota final. La celebración de los exámenes plantea pocos problemas. estén dadas de antemano y mejor por escrito. Díez. Es preferible. Rown- tree.). pero no cuando se evalúan capa- cidades más complejas. Por ello conviene que las instrucciones para la prueba -tales como. cundi- rá más el tiempo previsto para el ejercicio. pero sólo en circunstancias muy específicas. en caso de hablar con algún alumno. sin duda. De este modo. es necesario aprovecharlo al máximo. Gómez y García. etc. Hay que señalar también que los objetivos más importantes han de ser evaluados mediante más componentes. tiempo dispo- nible. como es obvio. el «empollar» el día antes puede valer para exámenes que sólo requieran memorización superficial. 1972. cuando algún componente sirve para evaluar objetivos únicos. entraña menos problemas. 1991. Quizá la sorpresa sea un factor válido. 1970. tienen tan importantes consecuencias que no está de más que profesores y alumnos sepan cómo pueden realizarlos mejor. Ya durante la celebración del examen. 1989. Maddox. ha de ser siempre discretamente para no molestar a los demás. calculadora. instrucciones específicas para responder alguna pre- gunta. 1982) que pueden proporcionar interesantes ayudas. sin previo aviso. Clifford. sino también preparar a los alumnos para el examen. Allipran- di. 1982. cuántas y qué tipo de 'preguntas va a tener. su peso debe ser superior al asignado a otros que cubren varios objetivos iguales. no obstante. Hay buenas obras (Acosta. material que se permite utilizar (diccionario. EJECUCiÓN 4. no por su mayor o menor importancia. cómo usar la hoja de respuestas. de las que aquí trans- cribimos algunas consideraciones. Por ello.El proceso de la evaluación 273 ción. para que los estudiantes saquen de su estudio el máximo pro- vecho. conviene que éstos sepan siempre con tiempo suficiente que van a tener un examen y en qué va a . no sólo preparar concienzudamente el examen para los alumnos. Debe tener en cuenta la importancia de la legibilidad y la limpieza. 1980. 5. así como otros aspectos que se consideren necesarios para dar respuesta a las preguntas lógicas que suelen hacerse ante cualquier prueba. Mueller y Wasser. luego. Debe asignar a cada pregunta un nivel de dificultad (muy difícil. se aconseja escribir siempre algo adecuado en todas las preguntas. a veces. además. diagramas. lafati- ga de un estudio atropellado a última hora puede pasar recibo. las siguientes con- sideraciones: 1. 4. responde a nue- vas intuiciones (Crocker y Benson. desarrollado. 13. Debe conocer y considerar los criterios de calificación: ¿cuánto vale cada pregunta?. ha de intentar deducir razonadamente las res- puestas a todas las preguntas. ¿se puede dejar alguna pregunta sin responder?. ete. El alumno debe leer o escuchar atentamente las instrucciones del exa- men y seguidas al pie de la letra. consecuentemente. 12. etc. Debe interpretar las palabras clave de cada pregunta: definir. Por ello. 6. Debe repasar sus respuestas para detectar y corregir los errores. entre otras. c) Habilidades para hacer exámenes: No es infrecuente que los alum- nos que no «saben» hacer exámenes rindan por debajo de lo esperado. En pruebas libres debe reflexionar y organizar sus respuestas antes de empezar a redactadas: en primer lugar. más que a adivinanza al azar. fácil) y. justificar. recuadros. Además. regular. hacer un esquema de las ideas principales y. 3. siempre. gráficos. 7. 8. se reduce su ansiedad. en caso de duda. cir- cunstancias que pueden influir en todo corrector. Añadir. el profesor ha de procurar que tengan en cuenta. Si ha de reflejar sus respuestas en una hoja aparte. Debe saber que en las pruebas objetivas por lo general se penaliza el adivinar. Debe afrontar la prueba con la mejor disposición mental posible.274 La evaluación de aprendizajes consistir éste. etc.. describir. ete. sin embargo. debe comprobar concienzudamente las marcas para asegurarse de que corresponden a lo que realmente quiere contestar. 11. 1977). un tiempo a cada una para poder responder a todas. 9. 2. . Debe adoptar una buena postura física. Está demostrado que el cambio de respuestas tiende a mejorar las califica- ciones cuando tal cambio. y todo. utilizar sinónimos o perífrasis. Para evitar las faltas de ortografía. 10. como suele ser el caso de las pruebas objetivas. Con ello.siempre que sea conveniente. ¿quitan puntos las respuestas erróneas?. si no van al examen bien preparados. 1977). dificultando así la vigilancia. los alumnos se dan pronto cuenta de que. concluye que en realidad no son equivalentes. contradiciendo las creencias populares sobre los exámenes con libros. Sin embargo. se dicta cada pregunta y se da un tiempo de respuesta antes de pasar a la siguiente. Además. por lo que no deberían entrar como componente de la calificaciónde una evaluación sumativa. con dos diferencias importantes: no hay límite de tiempo y no existe la seguridad de que representen niveles de logros personales. Kalish (citado por Ebel y Frisbie. no las cosas. Este problema. Algunos estudios señalan que en estos casos los resultados son semejantes a cuando ellos siguen su ritmo. el profe- sor tiene una obligación adicional: evitar que los alumnos copien para conse- guir una calificación mayor que la que les corresponde por su nivel de conoci- mientos. En ocasiones. obligan al profesor a construir preguntas que sirvan por lo menos para evaluar comprensión y aplicación. Por todo ello. sin embargo. con libros en un grupo y sin ellos en otro. Las tareas para hacer en casa tienen en general las mismas características que los exámenes con libros. sino para que asimile e integre los conocimientos. Es más. en una comparación experimental de exámenes aparentemente iguales. las pruebas libres y los problemas científi- co-matemáticos a veces se escriben en el encerado o se dictan al principio del examen. esta modalidad tiene también sus desventajas: se presio- na más a los alumnos. si las preguntas se hacen a una velocidad razonablemente rápida. Esto permite marcar el ritmo de los alumnos y asegurar que todos puedan responder a todas. . sino los del ocasional profesor particular. t) Reducir las oportunidades de copiar: En cualquier examen. asimismo. tiene indudables componentes éticos. sugiere algunas desventajas cuando señala que inducen a reducir el esfuerzo para lograr una mayor comprensión y favorecen un estudio más superficial que se queda en saber. los libros les sirven de poco: el buscar hechos y fórmulas puede distraedes y quitades un tiempo necesario para res- ponder adecuadamente las preguntas. que a veces sugiere versiones jocosas dentro y fuera del aula. su atención no está siempre tan fija en la hoja de examen. este tipo de pruebas tiene su razón de ser.El proceso de la evaluación 275 d) Escribir O dictar: En general. en cambio. Así sucede casi siempre con las pruebas objetivas. son tareas que normalmente se ponen con el propósito de una evaluación formativa. no pueden volver sobre las respuestas para corregidas. se pueden pre- sentar más y obtener así calificaciones más fiables para un mismo período de examen. sino que miden capacidades distintas. sino en dónde están. e) Exámenes con o sin libros: Las pruebas en las que se pueden utilizar libros y apuntes se ven a veces como un modo de motivar al alumno para que no estudie superficialmente de memoria. y por ello debe considerarse con seriedad. etc. la mejor presentación de cualquier for- mato de examen es entregado impreso o fotocopiado. Además. Por otra parte. Las propias circunstancias de la prue- ba pueden ofrecer a veces más tentaciones de copiar: cuando e! alumno entien- de que la calificación va a depender de factores poco relevantes y no va a dar la verdadera medida de sus conocimientos. de que un alumno está copiando. Sin embargo. ha de obrar en consecuencia de! modo que se considere perti- nente o según se haya indicado en las instrucciones previas. Es su responsabilidad poner los medios necesarios para intentar evitar todo lo que facilite e! engaño antes. introducir papeles con alguna pregunta desarrollada y escrita previa- mente. ninguna lo justifica. el acto en sí mis- mo es reprobable y merecedor de algún tipo de sanción. En ocasiones. ¿Qué hacer para evitar en lo posible que los alumnos copien? De mano. distractores. símbolos de los logros educativos. Cualquier alumno avispado dispone en algún momento de oportunidades para copiar en exámenes de cualquier tipo y. no pueden considerarse como coartada del engaño sin merma de su valor y del incentivo que para cualquier alumno supone una buena calificación conseguida honestamente. De ahí la responsa- bilidad del profesor. no puede pasado por alto. etc. usar libros. vigilar durante la prueba. fuera de toda duda. o debieran ser. independientemente de las circunstancias. entregar exámenes distintos o con las preguntas. Por otra parte. etc. «justifica»en el alumno la intención de copiar y le anima a preparar «chuletas». De todos modos. En todo caso. no tanto para «pescar» a alguien. por ello. han de reconocer que e! copiar es deshonesto e injusto y. comunicarse con un teléfo- no móvil. «soplar» información durante la prueba. exigir e! examen en hojas especiales selladas. aunque haya circunstancias que puedan incitar a ello. comprobar cómo algún compañero ha sal- vado la situación copiando incita a otros a hacer lo mismo. suplantar a otro alumno. . etc. e! pro- fesor no debe entender e! copiar como algo inevitable y como un comporta- miento aceptable y normal en los alumnos. pero todas ellas tienen como fin el engaño. dis- puestos en distinto orden si los alumnos tienen que estar muy juntos. durante y después de la prueba: guardar bien el ejercicio antes de su realiza- ción. apuntes o «chuletas». las calificaciones son. el engaño no se buscaría si todos los alumnos reconocieran que siempre es deshonesto e injusto. por ello. e! copiar no es sino un último intento desesperado por apro- bar en circunstancias en que se da una importancia desmesurada a las califica- ciones. por otra parte. si un profesor está seguro... cuando un examen exija un conoci- miento detallado y superficial o se considere desproporcionado en relación con la enseñanza recibida. cuanto por su responsabilidad de «defender» a la mayoría de los alumnos que se comportan honestamente. «robar» exámenes.276 La evaluación de aprendizajes El término «copiar» puede abarcar gran variedad de actividades: mirar el exa- men de un compañero que se encuentre situado cerca. con lo que se tiende a desplazar a los individuos hacia la media del gru- po. para lo que conviene tener en cuenta las siguientes cuestiones: a) Métodos de corrección: Aspecto especialmente importante para «minimizar» la subjetividad en la corrección de las pruebas libres. Efecto centrípeto: Consiste en la tendencia a evitar los juicios extremos. de acuerdo con Thorndike. Se proponen los métodos holístico y analítico desarrollados en el capítulo 8. que va a influir en la. ante la rigidez. Algunos como los siguientes (Guilbert. se han de considerar más calificaciones favorables que desfavorables: Malo Mediano Bueno Muy bueno Excelente Suspenso Aprobado Bien Notable Sobresaliente Por el contrario. y sobre todo por los alumnos. siempre puede haber factores que influyan en uno u otro sentido. por ejemplo. La benevolencia y la rigidez: Ambos son factores harto conocidos por cualquier profesor. b) Factores que influyen en la calificación: La evaluación nunca es completamente objetiva. 4. por ejemplo. Un medio de contra- rrestados consiste en que el profesor invierta en cierta medida su ten- dencia habitual. Así. 1989): 1. ante la benevolencia. Error lógico: Es un caso particular del «efecto halo». evaluación general de todos los aspectos. Efecto halo: Por el que.Elproceso de la evaluación 277 CORRECCiÓN Y CALIFICACiÓN 5. Este efecto puede disminuirse mediante la utilización de una escala más amplia en el centro que en los extremos: -10 -9 -8 -6 -4 o +4 +6 +8 +9 +10 3. un aspecto particular de una persona adquiere tal relevancia para el profesor. se han de considerar más califica- ciones desfavorables: Pésimo Muy malo Malo Mediano Bueno 2. se procede a su corrección y calificación. se considera que si un alumno responde bien a las . y se produce por la presunción de que existe una relación entre dos variables que se van a evaluar. Este efecto será menor cuando la evaluación verse sobre aspectos independientes. Una vez finalizado el examen. y viceversa. por lo que el significado de las notas varía de profesor a profe- sor. Por ello. Error por contraste y similitud: Una persona preocupada. si pecan de imprecisión. El que los profesores se dejen influir. 2). y. por factores extraños a la hora de asignar calificaciones se atribuye. tendrá tendencia a juzgar. considerando que lo que los alumnos aprenden es más importante que la nota que consi- guen. Quiérase o no. asignadas con cuidado.. ya sea conscientemente o sin sabedo. con instrucciones para calificados sobre 100 para el examen . el remedio no es minimizadas ni eliminadas. de curso a curso. lo hará igual de bien en cuestiones que requieran comprensión o aplicación. creer que los demás deben ser como uno mismo.278 La evaluación de aprendizajes preguntas de memoria. -con ello no sólo no se anula el problema. por el orden. 5. pero tal consideración equivale a decir que no existe relación entre lo aprendido y la calificación que el alumno recibe. entre otras causas. 1977) sobre la fiabilidad de las notas confirman la variabilidad de juicios basados en criterios presumiblemente absolutos. más bien hay que dades su justo valor. Estudios como los de Starch y Elliot (citados por Ebel y Frisbie. Dieron copias idénticas de un examen de Inglés a 142 profesores. No es infrecuente. En estos casos. a la ausencia de definiciones claras. 1989). Hay quien minusvalora la importancia de las calificaciones. c) Exigencias de las calificaciones: Las calificaciones sirven de base para tomar decisiones relevantes sobre planes educativos. Nadie duda de que. las calificaciones terminan por no ser fiables y pue- den inflarse o disminuirse. Uno de los requisitos de un buen sistema de calificación reclamado con más insistencia es que las notas indiquen tan precisamente como sea posible hasta qué punto los alumnos han adquirido los objetivos de aprendizaje de un pro- grama. sabemos que no es así (cap. por contraste. Por todas estas razo- nes. aunqu~ con excepciones. de escuela a escuela (realidad generalmente constatada. lo verdaderamente valioso es el conoci- miento que se ha llegado a adquirir. las calificaciones están presentes en todo sistema educativo. sino que se añaden otros-. haciendo que su valor facial sea más alto o más bajo que su valor real. Por otra parte. y han de basarse en pruebas y observaciones suficientes. por ejemplo. opciones de carreras y demás condicionamientos importantes para los alumnos y para las propias insti- tuciones educativas. con precisión. por sí mismo. sino a comportamientos observables. a las otras perso- nas desordenadas. los prejuicios e idiosincrasia de los profesores interfieren en los criterios para calificar. aceptadas y explícitas para cada nota. que recogen Stiggins et al. las calificaciones sirven también para esti- mular. deben ser tratadas cuidadosamente. y viceversa. procurar que mejo- ren su validez y precisión. que informen lo más exactamente posible de los logros educativos e interpretadas adecuadamente. dirigir y recompensar los esfuerzos de los alumnos. por otra parte. Este error puede disminuir si la evaluación se refiere no a abstracciones. como es el caso del cálculo de medias. como se mencionó al hablar de sus componentes. e) Notas únicas o múltiples: El logro. sin advertir que la restricción del número de categorías reduce la información que conlleva la nota. Por tanto. son tam- bién varios los indicadores de logro que sirven para determinar la nota. Por ello. se pierde realmente información. Otros se inclinan por las calificaciones numéricas porque contribuyen a una mayor precisión y a la larga ahorran tiempo. valorados.5. los registros. Del mismo modo. SF. Sin embargo. por ello. Los defensores de un siste- ma de letras o similar quieren subrayar el contraste entre una valoración cualita- tiva y una supuesta medición rigurosa. por ejemplo. algunas más altas que otras. Y otras veces.5). de vez en cuando aumenta el interés por refinar la escala de calificaciones añadiendo sig- nos de + y. la fia- bilidad de las calificaciones. actitudes fomentadas. por ejemplo) cuando se reconvierte a número. por tanto. etc. hay profesores que estiman que no es posible y consideran la nota como una especie de composición incierta y variable. las plantillas y hacer uso de unos mismos símbolos que han de ser claramente conocidos. se le da siempre el mismo valor (5. en la mayoría de los programas.El proceso de la evaluación 279 perfecto. PA-). dado que a un S. 3. o fraccio- nes decimales a los números básicos (por ejemplo: 4. definidos y com- prendidos de igual modo por todos los miembros de una comunidad educativa. capacidades y procedi- mientos desarrollados. Unos y otros sostienen generalmente que basta con distribuir los logros en 10 números o 5 letras desde 10/NSB a O. cuando es necesario tratar las calificaciones. Sin embargo. sea alto o bajo según el logro en que se base. etc. obviamente. d) El sistema de codificación: La calificación no es sino una codificación de la valoración de los logros instruccionales alcanzados. es lógico preguntarse si un solo símbolo puede servir y hacer justicia a tantos y tan variados aspectos. Progresa adecuadamente. por el contrario. especialmente en los pri- meros niveles de la Educación Primaria. cuando se utiliza la misma letra para un rango de calificaciones.E/MD(cap. Además. Las calificaciones asignadas al mismo examen se dispersaron entre el 50 Yel 98. De hecho. las codificaciones numérica y no numérica de la calificación representan dos extremos en términos de precisión. las letras han de ser transformadas en números.a las letras básicas (por ejemplo: Apto+. supone la conjunción de varios factores: conocimientos. Lo dicho para el sistema de letras sirve. Se obtuvieron resultados semejantes en exámenes de otras materias como Geometría e Historia. se impone seleccionar la escala. señalando que las bases para determinar las calificaciones no son lo suficientemente fiables para justificar la aparente precisión de los números. No se puede generalizar esta situación. 13).PA+. se inclinan por unas calificaciones más . pero existe campo considerable para mejorar la uniformidad de criterios y. toma fuerza la noción de que el problema de calificar se puede simplificar usando menos categorías. para calificaciones registradas como Apto. En general. corrija erro- res y. No es difícil pensar. 7. que. esfuerzo. las decisiones deben dirigirse hacia los métodos de enseñanza y de evaluación.280 La evaluación de aprendizajes analíticas y descriptivas en forma de informes escritos. pueda aportar nuevos datos para alcanzar una mejor evaluación. Obvia- mente. así. una letra o una palabra. individual o grupalmente. Otra posibilidad para lograr mayor información es utilizar un sistema múlti- ple: una nota para indicar el nivel académico alcanzado y otra. TOMA DE DECISIONES Una vez obtenidos los resultados y valorados con una calificación. 6. en especial. No obstante. etc. Al mismo tiempo. por otro. asegure un recuerdo más duradero. siguiendo las obser- vaciones que se recogen en el capítulo 14. para expresar aspectos tales como actitud. Para ello. un informe escrito es mucho más explícito y sirve mejor para comunicar los progresos escolares que un simple número. por un lado. que las notas múltiples pueden quedar influidas por el efecto halo: un SB en conocimientos predetermina una nota alta en actitudes. tablas. las notas múl- tiples requieren no sólo una clara distinción de los aspectos que cada una representa. si la formulación de las preguntas adolece de algu- na ambiguedad. si los exámenes proporcionan información sobre el fin para el que se proponen. Incluso algunos pro- fesores dedican alguna clase a realizar esta revisión conjuntamente como un medio más de practicar una evaluación formativa. si el grado de dificultad de las preguntas sobrepasa el límite aconsejable. procede tomar las decisiones oportunas. (cap. REVISiÓN Es práctica habitual el ofrecer una última oportunidad al alumno para que revise las valoraciones y decisiones que el profesor hizo de sus ejercicios y. se corre el peligro de desperdiciarlas con largas y estériles discusiones sobre los merecimientos de un punto arriba o abajo. etc. de lo contrario. si los resultados medios de los alumnos caen por debajo de lo esperado. cuadros. también la seguridad de que el profesor dispone de información válida y suficiente de todos ellos. * * * . es imprescindible planificar estas sesiones de revisión previamente con una información detallada sobre los errores detectados en las respuestas y sus posibles explicaciones. 15). sin embargo. pero tam- bién mucho más laborioso. u otras. etc. Aunque a primera vista puede parecer muy complicado.El proceso de la evaluación 281 Hasta aquí el largo camino que va desde planificar el examen hasta que se informa al alumno de sus logros y de las decisiones tomadas. El peligro es más bien que el proceso de la evaluación se convierta en una rutina que no tenga en cuenta las precisio- nes que intentamos recoger en este y en los anteriores capítulos. la verdad es que la mayoría de los profe- sores llegan fácilmente a automatizado. . . se modifican a la baja aquellos otros para los que su capacidad es limitada y. a partir de un análisis de su programación de referencia. la intervención más adecuada es también la Adapta- ción Curricular Individual pero eliminando Objetivos de Aprendizaje muy repetitivos. estamos ante un perfil de «necesidades educativas especiales» (n. por último. Adaptación de Acceso: Véase Adaptación Estratégica. Actitudes: Se tiene una actitud cuando aparecen pensamientos y sentimientos hacia cosas y personas que nos gustan o disgustan. asociadas a altas capacidades. es decir.e. como grado de univer- salidad. Estos objetivos que se incorporan constituyen el núcleo de la programa- ción del «aula de apoyo». concretos.e.. en la que los alumnos siguen una programación adaptada a su competencia. se eliminan aquellos Objetivos de Aprendi- zaje para los que el alumno no tiene capacidad. de ahí que las definiciones se consideren abstractas y los ejem- plos. atraen o repelen. Activación de la Información: Proceso mediante el cual se recuperan aque- llos Inclusores necesarios para manejar nuevas Informaciones. Para concretar esta medida. en contraposición a Concreto. cuya medida de intervención más adecuada es la Adaptación Curricular Individual (ACr). Glosario Abstracto: Se entiende. . modificando al alza los que están dentro de sus posibili- dades e incorporando Objetivos de Aprendizaje de cursos posteriores que estos alumnos puedan ya abordar. En el caso de alumnos con n.e.). por lo que una actitud implica componentes cognitivos (conocimientos).e. no tiene suficiente Capacidad. Adaptación Curricular Individual: Cuando el grado de aprender del alum- no es muy bajo. afec- tivos (sentimientos) y conductuales (acciones). se incorporan Objetivos de Aprendizaje de cursos anteriores que necesite repasar y reasimilar porque son Prerrequisitos para nuevos aprendizajes. aumentadas y hacedas crecer. los que definan el perfil de los estudiantes. para lo que se necesita que el sujeto pueda recibir la Información en buenas condiciones. etc. eliminando temas en algún área y formulando Objetivos de Aprendizaje con carácter más procedimental. Ajuste Emocional: Capacidad de un sujeto para autorregular y controlar de manera adecuada los estímulos del medio. como no se produce interacción entre la infor- mación nueva y la ya adquirida. en consecuencia. por su parte. Por este motivo. Adaptación Grupal: Es una adaptación con un carácter más abierto. la medida de intervención más ajustada es plantear una adap- tación general del Proyecto Curricular. pues. y la forma. equivale al Estilo de Aprendizaje del alumno. el desfase de conocimientos es muy importante en un grupo considerable de alumnos.284 La evaluación de aprendizajes Adaptación Estratégica: Se la conoce también como Adaptación de Acceso y. En este sentido. Las formas y grados de aprender van a ser. es decir. a su manera peculiar de abordar el conocimiento. Cuando en los últimos cursos de la educación obligatoria. que trata de ajustar el currículo según diferentes criterios. Adaptación Curricular Grupal: Se conoce también como Diversificación Curricular. Con las medi- das de adaptación cognitiva y afectiva. Ajuste Social: Capacidad de un sujeto para interaccionar con fluidez en la relación con los demás. dando lugar a que éstos puedan tener mayores o menores dificultades en su aprendizaje y. pueda manejada e integrada en sus estructuras de conocimiento para. De ahí que hablemos de Estrategias para desarrollar no sólo Habilidades cognitivas. así. se tratará de ayudar a que el alumno llegue en las mejores condiciones posibles a los Objetivos de Aprendizaje mediante el entrenamiento estratégico oportuno. como No significativa. El grado equivale a las Capacidades del alumno. cada fragmento o unidad de información .). a que puedan precisar propuestas curriculares más o menos adaptadas. Adaptación Individual: Es el ajuste entre los grados y las formas de aprender de un estudiante y la propuesta educativa elaborada para su curso y nivel. Aprendizaje Memorístico: Información que está poco o nada relacionada con los «conceptos previos» existentes en la Estructura Cognitiva del aprendiz. sino también habilidades de apoyo al aprendizaje y habilidades de autorregulación y control. concretadas tanto en sus Habilidades cognitivas como de apoyo al aprendizaje. comunicación alternativa. lenguaje Braille. las Adaptaciones Estratégicas van desde medidas de adaptación cognitiva y afectiva (entrenamiento en habilidades yestrate- gias) hasta medidas de adaptación material (eliminación de barreras arqui- tectónicas. como son la inteligencia predominante del alumno o sus conocimientos previos. Aprender: Es ampliar las ideas previas. a veces impropiamente. dispuesta para ser aplicada en nuevos procesos de aprendizaje. Banco de Actividades: Es un conjunto de actividades y tareas ordenadas por habilidades y niveles de dificultad. Autocontrol: Es la Capacidad para regular.Glosario 285 tiene que almacenarse arbitrariamente en la estructura cognitiva.LRU. debe distinguirse entre aprender memorísticamente (no signifi- cativamente) y aprender de memoria. ya que los nuevos conocimientos pueden estar más o menos relacionados con más o menos conceptos inclusores y su aplicación puede llegar a hacerse de manera más o menos independiente. sobre todo. como afirma Reigeluth. Aprendizaje Significativo: Información que está relacionada con los Con- ceptos Base o Inclusores que han sido convenientemente activados y que. a la noción más humanamente defendible de la supervivencia de todos» y así adquieran un carácter más inclusivo. Atención Selectiva: Habilidad para discriminar sin error. por ejem- plo. Atención a la Diversidad: Es el modelo educativo fundamentado en una con- cepción plural de la educación que pretende que los Proyectos de Centro. Está muy condicio- nada por variables perceptivas que dificultan la fijación. Mejora cuando uno mismo es capaz de planificarse. o ítems. en especial en las etapas de educación obligatoria. por tanto. Se puede aprender algo de memo- ria con algún grado de significatividad. Como es natural. Banco de Pruebas: Es un archivo de preguntas. Está muy condicionada por variables emocionales que dificultan la autorregulación y el control. Aptitudes: Perfil de Capacidades que presenta un sujeto y que configura su nivel intelectual.etc. Calidad Educativa: La calidad referida a la educación alude al modo de ser de un Sistema que reúna las tres características siguientes: • Descripción y diseño claro de lo que se pretende conseguir. Axiología: Análisis y valoración de la conducta desde el punto de vista de los Valores. aquellas situaciones que presentan algún condicionante desde el punto de vista emocional. Se aprende de memoria algo que hay que recordar de la misma forma que en el mensaje original. con el fin de alcanzar unos Objetivos de Aprendizaje. . unas siglas como LOGSE. Atención Sostenida: Habilidad para mantener la concentración todo el tiem- po que exija la tarea. está integrada y forma parte de la Estructura Cognitiva del aprendiz. de la noción darwinista de la supervivencia del más apto. dominarse y reforzarse. De todas maneras. el aprendizaje significativo admite grados. válidas para compro- bar con fiabilidad la consecución de un repertorio de Objetivos de Apren- dizaje. «pasen. que posibilitan tratar cognosciti- vamente a distintos ejemplares como miembros de una misma clase de objetos. La eficacia de los proce- sos y de los resultados educativos se manifiesta en la integridad de su planteamiento. una abstracción. en la vida del otro. psicomotriz y cognoscitivo. regla. válida para todas las especies y casos particulares de sonetos. Valorar: Formular juicios de Valor. Desde un punto de vista clásico asociativo. por ejemplo. de algún modo.286 La evaluación de aprendizajes • Proceso a seguir para alcanzar los Objetivos propuestos. etc. circunferencia. tanto en los procesos como en los resultados. Competencia Curricular: Conjunto de conocimientos necesarios para domi- nar la programación de un curso o nivel. por parte del receptor. en la coherencia de su realización y en la eficacia de los resultados. generalización. sucesos y símbolos. la más completa es la propuesta por Bloom. en sentido estricto. Conceptos: Son representaciones Abstractas y universales. Capacidades: Son el conjunto de disposiciones de tipo gen ético que. los conceptos. cuyas principales categorías son: Reconocer (memorizar): Reproducir una información tal y como fue pre- viamente almacenada en la Estructura Cognitiva. soneto. Comprender: Traducir o interpretar la Información recibida. acciones. energías y circunfe- . Aplicar: Usar una abstracción (principio. de estas últimas. La bilateralidad de la comunicación es una necesidad del proceso educati- vo que se sustenta en una acción recíproca que presupone la alternancia de emisor y receptor de modo que uno participa. Comunicación Educativa: Supone un proceso formal intencionalmente per- fectivo que requiere.) para resolver un caso concreto. una vez desarrolladas a través de la experiencia. por parte del comunicante. dan lugar a las Habilidades inte- lectuales. Carácter Propio: Recoge la inspiración peculiar de la tradición educativa de un centro y de sus opciones pedagógicas. • Operaciones necesarias para introducir las modificaciones oportunas. el acto de comprender el mensaje transmitido y. Analizar: Fragmentar una información para hacerla más clara y explícita. la emisión del mismo. almacenadas en la mente y que gozan de cierta estabilidad. Se han propuesto diversas clasificaciones o taxonomías de capacidades de los ámbitos afectivo. La comunicación educativa va más allá de los límites impues- tos por la simple instrucción (comunicar para enseñar) y llega a lo más profundo de la personalidad humana (comunicar para formar y educar). energía. Sintetizar: Deducir o «inventar» algo. ofrecen una representación única. No es un don excepcional poseído por unos pocos talentos. Los hay más o menos semejantes al «prototipo». Esta habilidad está muy condicionada por aspectos perceptivos. Así. sino una cualidad que todos los hombres poseen en uno u otro grado. Al conjunto de estas caracterís- ticas necesarias y suficientes de un concepto. Diferenciación Progresiva: Expresión usada por Ausubel para referirse a la organización j~rárquica de las estructuras de conocimiento. no todos los ejemplos de un concepto son bue- nos «prototipos» del mismo. A veces. una vez activados y convertidos en Inclusores.Glosario 287 rencias. Conceptos Base: Conceptos previos científicamente correctos. Según esta concepción clásica. se podría discutir si la piedra en el borde de una mesa es mejor «prototipo» de energía potencial que un muelle comprimido. Diversificación Curricular: Véase Adaptación Curricular Grupal. sirven como punto de apoyo para organizar los nuevos conocimientos. Criterios de Promoción: Son las normas que condicionan el paso de un cur- so. por lo que. inde- pendientemente del método. para presentar un concepto. Dicho de otra forma. Contenido: En la acepción de contenido científico.) y generalizaciones (conceptos. criterios. se utiliza también para significar los contenidos de la enseñanza. cuando se habla de «bloques de contenido». se le conoce como rasgos definitorios. etc. por lo que el hecho de que algo encaje dentro de una categoría no es una cuestión de todo o nada. sino más bien de gra- do. los conceptos se aprenden por discriminación entre los diversos elementos del objeto o fenómeno y la posterior abstracción de sus elementos comunes. No coincide con la deducción. procedimentales yactitudinales». válidos y valio- sos que. principios y teorías) propios de una materia o área del saber. de un ciclo o de una etapa a la siguiente. Control Estimular: Habilidad para discriminar los elementos básicos de un conjunto. métodos (convencionalismos. En la bibliografía se encuentra a veces el término conceptos con el signifi- cado de «contenidos conceptuales». deben tenerse en cuenta estos diferentes niveles de «bondad» de los ejem- plos. sinónimo de Objetivos de Aprendiza- je cuya capacidad es la memorización o la comprensión. Creatividad: Es la Capacidad de la persona para realizar «innovaciones valio- sas». de tal manera que todos los ejemplos del concepto tienen esos atributos y ningún «no-ejemplo» los posee. . clasificaciones. «contenidos conceptuales. Concreto: Véase Abstracto. la Información queda estructurada jerárqui- camente. puesto que inducción y deducción se refieren a la secuencia de adquisición de conocimientos. son los datos (términos y hechos). y aquí se postula que. jerárquica- mente estructurado. el alumno. Educación no Formal: Se refiere a toda aquella actividad organizada. Educación Personalizada: Alude explícitamente a la persona humana como sujeto de educación. propician en éstos un aprendizaje cooperativo. requieren cierto grado de actividad metacognitiva. Estilo de Aprendizaje: Es el conjunto de Estrategias Cognitivas y de estrategias de apoyo que utiliza individualmente cada alumno a la hora de aprender. Responde a un aprendizaje inclusivo que suele provocar niveles de procesamiento con cierto grado de significatividad. Escuela Inclusiva: Véase Escuela Comprensiva. Escuela Comprensiva: Conocida también como Escuela Inclusiva. en lugar de recibir la Información elaborada por el profesor. que se extiende desde los primeros años de vida has- ta la Universidad y que tiene por objeto la consolidación de las destrezas básicas. Debido a su intencionalidad. Educación Reglada: Es aquel tipo de educación que surge de la reflexión racional y técnica a fin de organizar las actividades proyectadas al perfec- cionamiento de los educandos desde instituciones formalmente orienta- das a esa finalidad. Estrategias: Son una guía de acciones conscientes e intencionales dirigidas a la consecución de una meta. su asistematicidad. una organización que no está explícitamente presente. que. trata de ofrecer a todos «lasmismas oportu- nidades para ser diferentes». así como los Contenidos culturales fundamentales.288 La evaluación de aprendizajes Educación a Distancia: Es un Sistema de comunicación bidireccional o multi- . en los materiales que se le proporcionan. educativa. sistemá- tica. «descubre». inconsciencia y procedencia de diversos agentes sociales. . Enseñanza Expositiva: Método por el que el profesor presenta un Contenido informativo de tipo conceptual. que atiende necesidades formativas específicas a grupos particulares de población. para que el alumno lo relacione con sus Conceptos Base. direccional. la presentación de las ideas fundamen- tales que constituyen la parte más esencial de lo que se va a enseñar. Epítome: Es. produciendo así su pro- pio conocimiento hasta llegar a integrado. según Reigheluth y Stein. Educación Informal: Es el influjo perfectivo que recibe la persona caracteriza- do por su carencia de intencionalidad. a través de unas «Formas Primarias y Secundarias». es aquella que. sin educar en la igualdad. organizado en su forma final. separados física- mente del estudiante. Enseñanza por Descubrimiento: En la Enseñanza para el Aprendizaje por Descubrimiento. realizada fuera del Sistema oficial. Educación Formal: Es todo Sistema Educativo institucionalizado. basado en la acción sistemática y conjunta de recursos didácti- cos con el apoyo de una organización y una tutoría. Consta de registros sen- soriales. por la otra. adquiriendo así un valor que se suma al de su publicación en una revista. con vistas a una posterior toma de decisiones. a la mayor visibilidad que adquiere una investigación gracias a su circulación pública y. por un parte. en algunas ocasiones. lo que comporta una recogida de Infor- mación para emitir después un juicio de Valor codificado en una califica- ción. por parte de los lectores. Por lo general. Este proceso sanciona dicho conocimiento convirtiéndolo en conocimiento certificado. la percepción de la competencia y las atribuciones internas. Evaluación Formativa: Es una evaluación permanente para determinar el gra- do de adquisición de cada objetivo. así. para así eli- minar la subjetividad. moti- var) necesarios para iniciar y mantener todo proceso de aprendizaje. es decir. Se desarrollan cuando las tareas potencian el interés. Memoria de Trabajo o memoria a corto plazo y Memoria Perma- nente o a largo plazo. comprender. seleccionadas por consideradas más apropia- das para conseguir ciertos objetivos o fines. llevan a cabo. apli- car. Estrategias de Apoyo al Aprendizaje: Procesos conscientes (atender. Estructura Cognitiva: Es aquella donde se produce el procesamiento. de manera semejante. Estrategias Motivacionales: Son las que predisponen al estudiante a apren- der. es un proceso de eva- luación de los resultados de una investigación que emergen en campos concretos del conocimiento. respectivamen- te. los revisores no conocen el nombre de los autores. Este valor corresponde. el profesor o los alumnos. Estrategias de Autorregulación: Son las que se ocupan del control personal de los procesos cognitivos. como sus causas y. poder reajustar y «optimizar» los logros y el proceso de enseñanza-aprendizaje. analizar. conocimiento que ha sido sometido a una crítica rigurosa por especialistas en el área. Estrategias Metacognitivas: Son las que favorecen el control consciente de la actividad mental. valorar críticamente) necesarios para poner en práctica una Habilidad cognitiva. a la percepción. siem- pre que existan los esquemas previos apropiados. cuyos juicios son transmitidos al editor. que deter- minan su originalidad y calidad. y detectar tanto los aspectos no asimi- lados. Estrategias Metodológicas: Se refieren a la ejecución planificada y deliberada de aquellas actividades que. la Evaluación por Pares es realizada por árbitros anónimos.Glosario 289 Estrategias Cognitivas: Procesos conscientes (memorizar. . Evaluación por Pares: Sinónimo de Arbitraje Científico. sintetizar. Evaluación: La Evaluación Educativa es la medida o comprobación del grado de consecución de los Objetivos. de la cali- dad sancionada por miembros calificados de la comunidad científica. Este contenido se puede concre- tar en datos. tanto la incorporada de nuevo como la que se añade. métodos y generalizaciones. se representan gráficamen- te las conexiones entre las distintas partes del guión. además de utilizar de manera minu- ciosa las Estrategias de la Enseñanza Expositiva para transmitir la Infor- mación. además del orden lógico de la materia. En ambos casos. como todo Contenido científico considerado objeto de estudio. se entiende que la forma proporcionada. tanto de manera cons- ciente como automática. poniendo así de manifiesto una primera aproximación a la secuencia que se va a seguir en el proceso de instrucción. Instrumentos de Evaluación: Son todos aquellos recursos que. Se distinguen varias clases de inclusión. en diferentes situaciones. también sobre el profe- sor o el currículo) en relación con el resultado del aprendizaje. subordinada derivativa o de ampliación. Las finalidades relativas a los alumnos tendrán continuidad en los Objetivos Generales del Proyecto Curricular de cada etapa. en el contexto educativo. es preciso contar con la capacidad potencial necesaria y con el dominio de ciertas Estrategias que lleven al éxito. . aunque menos frecuentemente. Ideas Previas: Conocimientos iniciales que poseen los alumnos antes de comenzar un proceso de instrucción o de enseñanza-aprendizaje para alcanzar unos determinados Objetivos de Aprendizaje. y de la que se sigue una toma de decisiones ejecutiva. Finalidades Educativas: Son los Objetivos Generales de un centro que con- cretan el Carácter ProPio en cuanto a lo que pretendemos en relación con toda la Comunidad Educativa. Hypertexto: Herramienta didáctica que. supraordinada y de simple relación. Grafo: Como variante de «mapa conceptual». a veces implícita. permiten medir el grado de consecución de los Objetivos de Aprendizaje. Información: Se entiende. cuando accede a una nueva Información. Formación: Significa cada uno de los pasos en el proceso de desarrollo y per- feccionamiento de la personalidad. subor- dinada correlativa o de modificación. a saber.290 La evaluación de aprendizajes Evaluación Sumativa: Es la evaluación final que emite un juicio sobre el alumno ea veces. Habilidades: Son las Capacidades puestas en práctica. También expresa el hecho de dar for- ma a lo informe o facilitar la adquisición de una nueva forma a lo ya forma- do. Para conseguir ser hábil. presenta al alumno los Contenidos progresivamente diferencia- dos con el fin de que los encaje adecuadamente en sus estructuras de conocimiento previas. Inc1usor: Es un concepto previo que se activa en la Estructura Cognitiva del aprendiz. reflejado en una calificación globalizada de un repertorio de objetivos. son acciones perfectivas. es la simbolización de un guión donde. Objetivo de Aprendizaje: Es un Objetivo que se puede evaluar directamente a través de algún indicador observable. en donde se reflejan las metas a alcanzar en cada materia del currículo. sistemas de creencias y aspiraciones de una comu- nidad que constituyen. estéticos. En algunos Sistemas Educativos. Cada método abarca. económi- cos. . Método: Plan que realiza el docente tras considerar el conjunto de decisiones tomadas respecto de la presentación y transmisión del conocimiento. en orden a la promo- ción. Unos valores son terminales porque tie- nen sentido en sí mismos. como el español. establecen una jerarquía. Objetivo de Ciclo: Es el período de toma de decisiones. Cada valor se rige por el grado de preferibilidad o de no indiferencia que le corresponde. un orden de prelación valioso. Multicultural: Situación en la que coexisten diversas culturas en cuanto con- junto de ideas. Memoria de Trabajo (MT): Es un elemento de la Estructura Cognítiva donde la Información se organiza en un breve plazo antes de integrada en la Memoria Permanente. es de dos cursos escolares. una acción cognos- citiva. de carácter disciplinar. y otros son instrumentales porque son medio para conseguir otros. Memoria Permanente (MP): Es la parte de la Estructura Cognitiva donde se integra la Información a largo plazo para posteriormente poder recupe- rada. consideradas más apropia- das para conseguir ciertos Objetivos o fines. psicomotriz o afectiva sobre una realidad concreta. por ejemplo. Línea Base: Es la formada por el nivel de conocimientos que configuran el estado inicial del alumno. las Estrategias de enseñanza-aprendizaje. etc. en la Educación Primaria del actual Sistema Educativo español. Hay valores útiles. aunque los centros tienen la facul- tad de matizados. La promoción personal de una sensibilidad axiológi- ca y de una clara conciencia valorativa es la culminación necesaria de una verdadera educación humana. Objetivos de Área: Son los Objetivos Generales. Metodología: Trata los Métodos de Enseñanza Expositiva y por Descubri- miento. se formulan en primera instancia en el currículo oficial vigente. las bases culturales de su edu- cación. Valores. Objetivo: Es una Capacidad sobre un Contenido. es decir. morales.Glosario 291 Jerarquía de Valores: Los Valores son múltiples. man- tienen relaciones de valor. Entre sí. en cada una de ellas. por una parte. religiosos. intelectuales. pues. de modo que el cumplimento de uno debe prevalecer sobre el otro. esto es. y en relación también con las tareas que los alumnos han de realizar para conseguir determinados objetivos. vitales. de Área y de Ciclo. obviamente más económicos. en donde se reflejan las metas a alcanzar a través de las diferentes materias de cada Etapa. pero claramente diversificada con materias específicas para cada grupo de alumnos según sus intereses. Capacidades y nivel de competencia. dando cabida a las peculiaridades que presentan los alumnos. permite enriquecer y equilibrar el currículo. pero en el que la capacidad. Se suele iniciar en los últimos cursos de la educación obligatoria. por supuesto. de carácter interdisciplinar. es decir. organizadores secuenciales. una Capacidad que el individuo realiza sobre un Contenido. aunque no debiera impedir estudios futuros. Supone una elección que.. en los bachilleratos. supone una serie de materias que se pueden ofrecer con distintos fines. cuya solución está en la explicación que se va a dar . organizadores previos. Su con- creción se puede hacer mediante la implantación de itinerarios rígidos. sino a tra- vés de Objetivos de Aprendizaje. planteando las áreas configuradas por especialidades. como respuesta a laAtención a la Diversidad en la Educación Secundaria Obligatoria y. o teniendo en cuenta un planteamiento más acorde con la propuesta de las «inteligencias múltiples». En el Sistema Educativo español. Preconceptos: Son concepciones erróneas que distorsionan los nuevos apren- dizajes y suelen estar en la base de no pocos fracasos académicos. de ahí la necesidad de una orientación adecuada. Convie- ne detectados cuanto antes para sustituidos por los científicamente correctos a través del «cambio conceptual». que requiere mayo- res recursos y se fundamenta en el principio de la personalización curricular. alcanzar los Objetivos de Etapa por vías dife- rentes a las previstas en las materias básicas o realizar actividades que orien- ten la elección de los estudios posteriores y el paso a la vida activa. Los organizadores secuenciales son en realidad organizadores previos para el resto del proceso de aprendizaje.292 La evaluación de aprendizajes Objetivos de Etapa: Son los Objetivos Generales. los condiciona. Objetivo General: Es un Objetivo. Optatividad: Ésta. Pregunta Problema: Estrategia motivacional que consiste en presentar un caso. Los Objetivos Generales se clasifican en Objetivos de Etapa. un enigma. no se puede evaluar directamente. aunque los centros tienen la facultad de matizados de acuerdo con sus Finalidades Educativas. Opcionalidad: Ésta se puede considerar como una variante más comprometida de la Optatividad y trata de dar respuesta a la inteligencia predominante de cada alumno y a su nivel intelectual. Organizadores: Son estructuras de conocimiento relacionadas entre sí a nivel interno. en la Formación Profesional yen los estudios superiores. tales como desarrollar alguna de las «inteligencias múltiples» que no aparecen en el currículo básico. ofreciendo una enseñanza con materias comunes para todos. es decir. se formulan primero en el currículo oficial. etc. y externo. al ser muy amplia o el contenido muy extenso. los Objetivos de Aprendizaje. Proyecto Curricular: Se deriva de las Finalidades referentes a los alumnos y consta de los Objetivos de Etapa. Objetivos de Área y Objetivos de Ciclo. proposición. Secuencia de los Temas en Cursos. finalmente. Para ello. Puede llamarse también hipótesis. en un número finito de pasos. a la solución de un problema. que no tie- nen por qué resolver íntegramente un problema. Criterios de Promoción (entre etapas. síntesis y valoración crítica. previa elabora- ción mental acompañada a veces de una construcción material. identificando lo que sucederá como resultado de un cambio dado (el efecto). Procesos Algorítmicos: Series de operaciones elementales que llevan. Relación de Contenidos y Capacidades y. o por qué sucede algo (la causa). Proyecto de Centro: Véase Proyecto Educativo. Principio: Es una relación entre Conceptos. Generalmente los principios. describen causas o efectos. manifestar su creatividad y originalidad. que ha de organizar sus propios conocimientos. de modo que posteriormente se secuen- cien e integren en una Unidad Didáctica. Procesos Heurísticos: Operaciones de búsqueda no elementales. Guión de los Contenidos Científicos. Programación de Aula: Es donde se formulan. análisis. coherente y comunicable. Son sinó- nimos de contenidos procedimentales. ciclos y cursos). regla. etc. ley. Procedimientos: Son los Objetivos de Aprendizaje que tratan de desarrollar Capacidades de aplicación. se suelen proponer los siguientes pasos: Explicitación de Temas. seleccionar lo más importante. integrando en un todo armónico los elementos de su respuesta. Prueba Objetiva: Son aquellas pruebas en las que el alumno. Prueba Libre: Lo específico de estas pruebas es la libertad de expresión del alumno. Formulación de los Objetivos de Aprendizaje. elige la respuesta entre una serie de alternativas que se le proporcionan. Prerrequisito: Es un Concepto previo teóricamente necesario para abordar una nueva Información. . Programación: Es el conjunto de metas y Objetivos de distinta consideración. y también las teo- rías (relación entre principios). a partir del currículo oficialvigen- te. Proyecto Educativo: Es el marco general de referencia que vertebra un Cen- tro Educativo y lo hace realidad organizada y culturalmente significativa explicitando sus opciones y aspiraciones de una manera clara. Prueba de Elección Múltiple: Son pruebas en las que el alumno debe selec- cionar sólo una de entre un conjunto de posibilidades limitadas.Glosario 293 posteriormente con alguna de las Estrategias propias de la Enseñanza Expositiva. sobre todo. supone una construcción dinámi- ca del conocimiento. separa- ción. por lo que tendrá que hacerse superficialmente y en un nivel abstracto. Es. Reglamento de Organización y Funciones (ROF): Conocido también como Reglamento de Régimen Interior (RRI). Reconciliación Integradora: Es la secuencia expansiva de los Organizadores de conocimiento a través de los «conceptos-puente» y de las oportunas aplicaciones intermedias. previa a la integración en la Estructura Cognitiva. en ellas el alumno califica la formulación de una proposición como verdadera o falsa.294 La evaluación de aprendizajes Prueba Verdadero/Falso: Se conocen también como «respuestas de dos alter- nativas». Registro Sensorial: Elemento de la Estructura Cognitiva que recoge los estí- mulos informativos que llegan del exterior y los traslada a la Memoria de Trabajo. diferencia. Sentido Crítico: Es. un esfuerzo por parte del sujeto por activar los Inclu- sores adecuados para poder manejar la nueva Información que se está procesando. métodos o generalizaciones) que va de lo simple a lo complejo (más partes y más relacionadas secuen- cialmente. Se relaciona con la Habilidad para fijar estímulos en la Memoria Permanente. Se distingue del Sumario en que éste se refiere a las ideas que se van a tratar posteriormente. Es la secuencia lógica de una Información (datos. Secuencia Didáctica: A veces se habla de «secuencia elaborativa». Se opone a la universalidad. Respuesta Emocional: Se relaciona con la respuesta adaptativa o de evitación que muestra la persona ante estímulos externos estresantes. Este número de ideas suele ser considera- blemente amplio. cuantitativa y cualitativa. Reconocimiento de la Información: Capacidad de identificar correctamen- te un elemento informativo sin error. Resumen: Recopilación de todas las ideas que se han tratado a lo largo de una exposición. Singularidad: Es una cualidad de la persona que implica distinción. El resumen puede ayudar a la organización final de la Información. la «expresión madura de la específi- ca cualidad del hombre de ser principio de sus acciones. según Ibáñez-Martín. desagrada- bles o nocivos. en virtud de la cual. Recepción Activa: Supone mantener los receptores sensoriales bien dispues- tos. lo que supone amplitud e inclusión). lo que repercute tanto en su actividad intelectual como en el ejercicio de su voluntad». recoge la estructura organi- zativa de un centro. . cada ser per- sonal es diferente a los demás. Reglamento de Régimen Interior (RRI): Véase Reglamento de Organiza- ción y Funciones. En la práctica. el Cognitivismo y el Constructivismo. estrategias didácticas y organización. en grupos (grandes. Team Teaching: Es una manera de organización que afecta a los alumnos. pequeños). Es hacer una interpretación de los conflictos suscitados en la Pregunta Problema. Básicamente son el Conductis- mo. Teorías del Aprendizaje: Son los modelos o paradigmas que sustentan cada modo peculiar de entender el aprendizaje. Valores). Sistema: Es una realidad compleja en la que sus partes y elementos. ambiente. A través de las síntesis periódicas. Técnica Didáctica: Conjunto estructurado y secuenciado de pasos derivados de una selección de Estrategias suficientemente validada en la práctica. diferencia- dos. el alumno es consciente en todo momento de la estructura informativa y de la importancia de cada parte individual de conocimiento respecto a otras partes relacionadas. o de aso- ciaciones de la conducta con sus consecuencias (contingencia). órdenes y reglamentos de distinto orden que establecen las autori- dades académicas. Sumario: Es la presentación previa de todas las ideas que se van a tratar poste- riormente en una exposición. Para el . La síntesis final es una especie de recapitulación o repaso rápido en el que se muestra cómo la explicación del tema responde a la pregunta o proble- ma inicial. propia de la taxonomía de Bloom. Se distingue del Resumen en que éste se refiere a las ideas que ya se han tratado. una vez que el material se apren- de de memoria y se recuerda sin error. medianos. el apren- dizaje se da a través de asociaciones simultáneas (contiguidad). entre otras. Un Sistema Educativo se caracteriza por la coherencia entre sus fines. se relacionan entre sí para alcanzar una finalidad común. según las exigencias de las actividades de enseñanza-aprendiza- je.Glosario 295 Síntesis: Estrategia para relacionar e integrar ideas. Sistema Educativo: Es no sólo el ordenamiento legal. Sobreaprendizaje: Es el proceso por el que. de determinadas tareas que facilitan la eva- luación mutua. consolidando así los objetivos propuestos. Actitudes. y a los profesores quienes se responsabilizan. determinado por las leyes. El número de ideas del sumario suele ser considerablemente amplio. que se ponen en práctica en función de lograr las metas deseadas. la selección de Estrategias de enseñanza y de aprendizaje. conteni- dos (conocimientos. Se entiende también por síntesis la Capacidad de deducir y crear. en equipo. se vuelve a estudiar repetidamente. Para el Conductismo. divi- diéndolos. por ejemplo observación en el aula. por lo que tendrá que hacerse super- ficialmente y en un nivel Abstracto. Hay que distinguir entre síntesis de proceso o periódicas y síntesis de conjunto o final (efecto «zoom» de la Teoría de la Elaboración). sino también la concepción educativa que conlleva. 296 La evaluación de aprendizajes Cognitivismo. Valor: Es el carácter de preferible que tienen unas cosas sobre otras. con un carácter claramente intencional. con cambios no sólo cuantitativos. el Constructivismo subraya un aspecto del «Cognitivismo». el aprendizaje es un proceso de modificación interno. a saber: Programación. la continua reconstrucción de los aprendizajes mediante una interna actividad por parte del alumno con el fin de poder atribuir nuevos significados a las ideas previas. también cualitativos. Unidad Didáctica: Es una fórmula para organizar la práctica de la enseñanza y el aprendizaje incluyendo las distintas partes del proceso de enseñanza- aprendizaje. entre la información que procede del medio y un sujeto acti- vo. . y que se produce como resultado de otro proceso interactivo. en este sentido. Por último. es decir. Tranfer: Se produce cuando un aprendizaje determinado sirve y favorece a otro u otros aprendizajes. constituyen «el orden de lo preferible». Los valo- res. Metodología y Evaluación. Y (1975). (1981). Metodología de la observación en las Ciencias Humanas. «Ethical principIes of psycholo- gists and code of conduct». México: 'lIillas. «La observación como metodología básica de investigación en el aula». Barcelona: PPD.Referencias bibliográficas 297 Referencias biliográficas AM:ERI(::AN FEDERATION OF TEACHERS. A.): Prácticas escolares.). Madrid: Cátedra (3' ed. Manual de prácticas de observación. La dinámica de los grupos pequeños. y MARTÍN.1. (1987). . Observación en el aula. M. T. 644-648. Técnicas pedagógicas de la dinámica de grupo. Sáenz (ed.M. 292-333). Propuestas de Proyectos Curriculares y de investigación-acción. 1. M.M. Vol.51. M. T. (1985). M. Madrid: Pirámide. T. En O. (ed. ANGUERA. J. De: AFT. Barcelona: Guix. NATIONALCOUNCIL ON MEASUREMENTIN EDlJCA:TION& NATIONALEDUCATION ASSOCIATION (1990). ANGUERA. Carrobles (eds. En R. T. Standards for tea- chers competence in educational assessment of students. T. ANGUERA. Buenos Aires: Kapelusz. Washington. Fer- nández Ballesteros y J. ANZIEU. ANGUERA. ANGUERA. (1991b). ANGUERA. Buenos Aires: Kapelusz. Alicante: Marfll. ANTUNES.) (1991a). (1975). C. Fundamentación (1). D. T. AMERICAN PSYCHOLOGICAL ASSOCIATION (1992).): Evaluación conductual: Metodolo- gía y Aplicaciones (págs. American Psychologist. «La Observación (I): Problemas metodológicos». (1983). Metodología observacional en la investigación psi- cológica. S. Contemporary Educational Psychology. BELMONTE. R 1. BOUvAR.298 La evaluación de aprendizajes y LATORRE. NewYork: The Free Press. La Práctica de la Evaluación en la Enseñanza Secundaria Obli- gatoria. B. Baltimore. G. (1994). Bilbao: Mensajero (2' oo. (1952). Aplicación al Área de Ciencias Experimentales. 137-172. BARKER.(1975). T. BELL. BLOOM. Pro- blemas y preguntas. MD: Hopkins University Press. Paris: Gaut- 1.D. <<A comparison of clifficultyand discrimination values of selected true-false item types».Barcelo- Psicología educativa. HASTING. A.. London: Batsford Academic and Educational. 1972). S. «Standard setting: the next generation». A (1984). Un punto de vista cognitivo. Y MADAUS.A. Investigación educatilla. (1974).Evaluación del aprendizaje. BERELSON. (1992). Madrid: Morata (orig. México: los procesos Barcelona: Pai- recherche action dans l'institution educative.]. (1996).) de Examinadores Conocimiento. An Introduction to Applied Linguistics: Approaches and Methods in Language Teaching. . S. Madrid: Escuela Española. (1981). Content analysis in communications research.). T.35-40. B. Y OLAIZOLA.(l992). «Modelos de Pruebas para la Evalua- Obietivos en el Área de Geología y Biología en el Bachiller Científico». La Docimología. Buenos Aires: Troquel (orig. (1981). Los contenidos actitudinales en el currículo de la Reforma. 203-242.M. «A consumer's guide to setting performance standards on crite- rion-referencedtests». Y EBEL. 7. A. Review of Educational Research. BLOOM. B.R. BONBOIR. (ed. 1971). 56(1). Aguide to criterion-referenced test construction. ) BRINCONES.]ournal 01Educational Measurement.L.).Referencias bibliográficas 299 BRAVO. Manual de Evaluación Educativa. B. «LaevaluaciónconvencionaJ los nuevos modelos de evaluación auténtica».WE. 16. «Essayexaminations». G. Educational Measurement: Issues and practice. una ciencia crítica de la educación. Madrid: La Muralla (orig. 1989). «Evaluación 1.J. Social Research.M. YFERNÁNDEZ DEL VALLE. (1990). 20-31. G. 12(Supl. Madrid: CARRASCOSA. E. Politécnica. CASANOVA. (1992). 85-90. Madrid: Centro Nacional de Recursos para la Educación Especial. C. COHEN. CBASE. MEC.Journal 01Currículum Studies. Madrid: ICE de la Univ.): Educational Measurement. COFFMAN. ClZEK. 1. Madrid: La Muralla. M.yMANION. des en el aprendizaje research: ten years». Psicothema. 1. 265-305. La evaluación curricular del alumno». En R. COLLlER. (1991). 15. Barcelona: Oikos-Tau (orig. (1997). Investigación Educativa.J.A.M. 1. Sevilla: Alfar. COLAS. (1979).P. Dinámica de grupos y educación.A.(1982). (1996). «United States Indian administration as a laboratory af ethnic rela- tions». Thorndike (ed. (2000).J. . 39-42. CONTRERAS MUÑOZ. 21 (1). CARRASCO. L. «Setting passing scores». «El (comp. «The impact ofachievement expectations and handwriting qua- lity on scoring essay tests».Y BUENDIA. et al. 12. (1991). Técnicas y recursos para el desarrollo de las clases. Los exámenes. CIRIGLIANO. (1990). (1945).): Lecciones Madrid: Universidad Autónoma. Métodos de Investigación Educativa. (1969). y VILLAVERDE. En El alumno con retraso mental en la escuela ordinaria. Barcelona: Laertes. 1964). ElProfesor Universitario y la Evaluación de los Alumnos.(1971). DC: American Council on Education (2nd ed. Buenos Aires: Humanitas. CUFFORD.Washington. (1990). J. 1. A. Lexington. México: 'frillas (orig. A Y GUSTAFSON. EBEL. D. DUNN-RANKIN. (1979). Bue- EDWARDS. (1957). 1991). Journal 01 Edu- cational Measurement.KNEZEK. n.300 La evaluación de aprendizajes E. New York: Apple- ton-Century. A. Applied Psychological Measurement. Madrid: Morata. Integrado de Procesado de Tests». ÁLVAREZ. La investigación-acción en educación. P. A Personal View. Madrid: ICCE.v. y SOLER. nosR. El cambio educativo desde la investigación-acción. Ebel (ed. (1969). R. 453-456.S. W (1988). . EBEL. J.. ILL: Scott. Aula Abierta. (1986). «Are true-false items useful?" En R.L. Assessing student achievement: A pro- CSE Monograph Series in Evaluation. A. ALGUERO. EISNER. A History 01Psychological Testing. A. 1971). G. 321-325. 215-239. P. 74.J.C. (1970). y HERMAN.): Practical pro- blems in educational measurement. Madrid: Morata. DUBOIS. S. EBEL. (1968). R. 5. técnicas de medición de actitudes. L. GARCÍA. Guadalupe D. 3(4). estudiar.AL. VANDE VEN. A (orig. NEIRA. WALLACE. The Art 01 Educational Evaluation. G.. A. L. (1977).H. London: LEA.Aires: L. Fundamentos de la medición educacional. L. «Blind guessing on objective achievement tests». London: The Falmer Press. L. R. DOWNEY. y ZHANG. (1975). Flenview. YFRISBIE. Group Techniqueslor Prog- Planning. México: Limu- 1972).Heath. Scaling methods. (2004). BRUGOS. Los Ange- of California-Los Angeles. CA: Stanford University Análisis elemental de encuestas. 11. Stanford. A. Foreman and Co. «Item-options weighting of achievement tests: Comparative study of methods». E. (1980). Techniques 01 Attitude Scale Construction. Individual Differences in Learntng AfJUltv as Variables. MA: D. Boston: Allyn Bacon. GLASER.]. (1992). Madrid: Aguila (orig. & THOMPSON. 1973).]. «A personal view of curriculum-based assessment». Valencia: INCIE-ICE. Manual TTl. Morata. CALERO. FlDALGO. (1973). GICKLING. GARCÍAVIDAL.]. CAMPLLONCH. 131(29). Madrid: Anaya. Las condiciones del aprendizaje. Hillsdale.. GAGNÉ. 52.]. GAGNÉ. C. «Instructional Technology and the measurement of learning outcomes: some questions». Buenos Aires: Kapelusz. El Currículo: Una Reflexión sobre la práctica. NY: LEA. (1992). GIMENO SACRISTÁN. L. Madrid: UPCO. M. E. V y ESPEJO. (1983). (1981). M. GARCÍA-MENDOZA. 'A. E. M. Y BELCH1. 205-218. (1988). Madrid: INCIE. FERNÁNDEZ BALLESTEROS. . E. ICE de la Universidad de Oviedo. (1996).]. Historia del mundo contemporáneo. true-false: A comparison of reliabilities and rrent validities». B. La dinámica de la entrevista enfunción del tutor. Madrid: Eos. y SOLER. American Psychologist. (1993). E.. Madrid: Uni _ roblemas referentes a la medida de la creatividad>. R. 1. (1971). 1985). Psicothema. R. Evaluación e Informe Psicope- dagógico.]. Sus princi- pios. Problemática y Perspectivas. En]. (2003). Teoría de la Enseñanza y Desarrollo del Currículo. Y BRIGGS. La planificación de la enseñanza. V (1985). (1973). A. in between.1033-1055 FREDERIKSEN. (1976). (1963)..519-521. FERNÁNDEZ-BALLESTEROS. Mono- grafía núm.EPA. R. MISLEvy' R. N. (1991). La medida de la creatividad: Tipos de Instrumen- tos. Madrid: UNED. Y GONZÁLEZ MANJÓN. Madrid: Consejo Superior de Investigaciones Científicas. Madrid: Eos . FERNÁNDEZ DE CASTRO. GORING. Procedimientos para aprender a aprender. P. 23 de Aula Abierta. GIL. .278-284. (1994). Psicodiagnóstico. La «Ratio studiorum».A (1982). La Enseñanza Programada. (1970)..]. Manual de mediciones y evaluación del rendimiento en los estudios.(1975). O. México: 'frillas (orig. Exceptional Children.A. and? in polytomous items». GÓMEZ. 10.Joumal ofEducationalMeasurement. GONZÁLEZ-ROMÁ.297-304. «Multiple-choice vs. Madrid: MEPSA. A. eral y Aplicada.. D. y GARCÍA. ]. 15. 1.Evaluación del Potencial del Aprendizaje. Muñiz (coord. Barcelona: Vicens Vives.R. GIMENO Madrid:SACRISTÁN. D.18. A.): Psicometría. Testtheoryfor . M. y BEJAR. FERNÁNDEZ GARRIDO. P. Tomo 1. El Sistema Educativo de la Compañía dejesús. (1991). P.Referencias bibliográficas 301 FERNÁNDEZ. Banco de Pruebas. (1980). Física. R. «Testing the midcl1e response categories not sure. «Funcionamiento diferencial de los ítems». F. NJ: Lawrence Erlbaum. avances técnicos y aplicaciones». 1976). responses on subseql. KEELING.302 La evaluación de aprendizajes learning. Washington. c. M. México: Kapelusz (orig. (1968). Journal of entre la physique du physicienet la Pedagogie. (1984). HilIsdale. Questioning strategies and techniques. 65-70. HOWELL. 1980). (1983). (1993). and treatment of test anxiety». D. P. Columbus. En :Psicometría.EnL. 5. ofEducationalResearch. México: Trillas (orig.19-29.H.. NARAYANA. (1991). Current Movementand lnstructional Methodology. 47-77. en la enseñanza. México: 'lliIlas Valladolid: ICE evdluatingalternatives to tradi- quality of preceding.observa- evaluación. ]OINT COMMITTEE ON TESTING PRACTICES (1988). «Predicting grades from below chance test sco- JournCfIofEducational Measurement.Ú~l1tresponses ta an essay question». HUNKINS. D.YSETIADI. p. OHIO: Merrill. Bastan: Allyn & Bacon. Bastan: Allyn & Bacon. effects. H. One participants . 20. .): Currículum Handbook. y ROGERS. B. CA: Sage. Curriculum-based(waluationfor special and remedial education. HOOVER. H. W y WAINER. c. (1981). H. B. 1960-1980. Toma de decisiones en la gerencia. ERrC Document Reproduction Service P. B. HUGHES. SWAMINATHAN.33. K. Evaluación y Medición en Id Escueld. «values Education. YruCK. J.P. (1977). Relationship between free-response and choice-type tests of achievement: A review oJthe literature. «Correlates. 58(1). «Effectsofachievement expectations and handwriting quality on scoring essays». HUBER. (1987). Madrid: Universitas. causes. Differential item functioning. (1972). Rubin (ed. México: 'frillas Aprovechamiento. H..: APA. Journal of Educational Measure- ment. The Disciplines. Fundamentals of Newbury Park. Developing Values». P. y MOREHEAD. M. (1996). Code offair testing practices in education. K. 45-53. «Construcción conceptas básicos. 1963). MADDOX. (1989). (1977). «A Technique for measurement of attitudes». (1969). (1988). El nuevo directivo KRIPPENDORFF. (1980). MANNING. F. MANN. UNN. G. B. 1962). M. El Currículo: más allá de la teoría de la reproducción. (1971). 61. 163-167.19. H. (1948). Tesis Doctoral no publicada.]. (1973). (1932). (1988).Referencias bibliográficas 303 KEMMIS. Newcomb y E. (1947). New York: MacMillan. Schools Council Research Studies. A. Alexander (eds. W A. Evaluación de los aprendizajes. The Psychological Corporation. En T. 10(3).Psychol. (1845). 1. México: liillas (orig. NJ: Lawrence Erlbaum. «The development of scales to measure junior school children's atittudes». Cuadernos de Salud Pública. (1920). (1952). K. B. R.October. McDONALD. Psychology for teaching. Barcelona: Oikos-Tau (6aed. 140. Madrid: CinceL LEFRANCOIS. y ROSENSTOCK. An introttuc'tion Beverly Hills. K (1946). P. E. Theory into Practice. Evaluation in currículum development: twelve case studies. S. F. E. January. LUNN. CA: Wadsworth (6thed. «Boston Grammar and Writing Schools».. Br.44-53. Educational measurement.Educ. LOREE. «The need for study strategy training». Common SchoolJoumal. Archives of Psycho- log)!. joumal of Educational Research. R. LEWIN. Applications of item response theory to practical testing prob- lems. 7. B. R. (1970). K.39. K. LORD. Madrid: Morata (orig. R. ~~'lr TREGOE. Cómo estudiar. McGUIRE. Rinehart and Wmston. 64-71. «Group decision and Social change». Har- tley (eds.~. S. KEP~. Elaboración de escalas de actitudes y psicofisica clásica. LAFOURCADE. (1971). McDONALD. London: MacMillan Education. Weinstein. MACKEACHIE. A study of a technique for improving tests. <<Act 2. (1980). University of Chicago. New York: Academic Press.): Learning and study strategies. UKERT.147-153. 1. Goetz y P. «Construction and use of written simulations».W J (1988). Belmont. 1968).). (1976). HilIsdale.j. «The Evaluation of The Humanities Curriculum holistic approach». E. LEWIN.): Readings in Social Psychology. New York: Holt. H. B. LEWIN. Formulación Operativa de ObjetivosDidácticos.D. CA: Sage Publications. McCAll. 1986). M. «Fee tions. (1983). Humanities Currículum Project. T. C. C. A. R. (1977). Content analysis. MAGER.34-46. . M. Madrid: Maro- va (orig. E. En C.) (orig. <<ANew Kind of School Examination». H. (coord. MUÑIZ.lntroducción a la Teoría de Respuesta a los Ítems.490-497.) (1996).]. 9-14.(2004). ORDÓÑEZ. Tbe measurement oi Meaning. Madrid: Pirámide. 2(2). (1970). D.]. (2003). . «New Guide. G.) (orig. 16. ¡oumal oi Educational Measurement. J.65-77.]. Aprendiendo a aprender. En ACordero (coord.]. V y PRIETO. 1966). Tomo 3. Teoría Clásica de los Tests.):La Evaluación Psicológica en el año 2000. R. 1984). MUÑIZ.. Banco de Pruebas. G. C. J. Monografía núm. NERICI. Madrid: Universitas. V y PRIETO. MUÑIZ. (eds. Archidona. Madrid: Pirámide.j. infor11Ultizados. 3. Madrid: TEA. D. MUEllER. B.) (1998). Fundamen- tos y aplicaciones. P. 14. SUCI. Psicometría.].J. G. San Sebas- MARTÍNEZ.. NOVAK.].(1993).) (1999).MARTÍNEZ. PONSODA. (1988).Tarbíya.I. ICE de la Universidad de Oviedo. OLEA. R J. Medición de Actitudes en Psicología y Educación. OSGOOD. OLEA.304 La evaluación de aprendizajes San Francisco: To11Ulde deci- New Bases teóricas de la Evaluación Educativa. YWASSER. y GOWIN.Metbodology. (l997a). (eds. 23 de Aula Abierta. MUÑIZ. Madrid: Pirámide. V (1977).] (2006). (1997b). (1995).y MUÑIZ.lines for Developing Items». Hacia una Didáctica General Dinámica.81-98.R]. (1988). Barcelona: Martínez Roca (orig. (1957). «Implications of changing answers on objective test items». y TANNENBAUM. Buenos Aires: Kape- lusz (2' ed. y MUÑIZ. G.. Madrid: Pirámide.. «Directrices para la construcción de Psicotbema.D. «Aspectos éticos y deontológicos de la Evaluación PSicológica». J.«La evaluación de la creatividad: Revisiónycrítica». Urbana. OLEA.j. PONSODA. Ill: University of Illinois Press. Evaluación basada en criterios. México: Grupo Editorial Iberoamérica (orig. En D. «Specifying the damain of content or behaviors». W J. (1989). R.): Aguide to criterion-referenced test construction. 1978). G. J. Boston: Kluwer Academic Publishers. M. Glass (eds.A. (1968). R. (1971). (1984). Vocabulaire de la psychologie.) (2005). «Educational evaluatian by adversary proceedings». PHELPS. Reudd (eds. Hamilton et al. (1991). M. Cómo resolver problemas y tomar decisiones sistemáticamente. «Do new and ald type examinations measure different ental functions?» School and Society. (1974). «Evaluatian as Illumination: A new appro- novative programmes». (1998). evaluación y toma de deci- siones. 1. PHILUPS. 1974).): School evaluation: Thepolitics and process. H. New York. Anual Congress of American Educational Research Asso- ciation. . OWENS. RSON. (1968). 1989). van der Linden y C. Evaluación y medida del rendimiento escolar. Zaragoza: Servicio de Publicacianesde la Univ. Salamanca: Anaya. M. (2000). y BAKER.e. Y RAMOS.20(2). Examens et Docimologie. Educational Measurement: 'ractice. and otherformats. Tomo 2. Paris: PUF. PIERON. 23 de Aula Abierta. E. 246-248. .): Computer adaptive tes- 'eory and practice. E. «Application of adversary proceedings ta educational evaluatian and decision making». En H. Defending standardized testing. F. (eds. PETERSON. (2001).Referencias bibliográficas 305 OSTERIlND. Constructing test items: Multiple-Choice. D. ICE de la Universidad de Oviedo. Buenos Aires: Paidós (orig.. J. y YATES.. S.P. En House (ed. S.B. PARLETT. En W J. NJ: Prentice Hall. A Berk (ed. Madrid: Rialp. Baltimore: Johns Hapkins. New York: Appleton c. Diagnóstico.): Contemporary problems in Research in Higher Education. e use of sound in computerized tests». London: MacMillan Education.J. W J.): me. S. H. Englewood Cliffs. «Audio computer-based tests: An initial frame. y ARGUELLES. New York: McGraw-Hil 7). Performance. DAVEY. París: PUF. OWENS. T. Evaluación y Educación. POPHAM. Baston: Kluwer Academic Publishers. Química. (1976). Berkeley: McCutchan. R. DA. Constructed-Re- sponse. R. (ed. W J.. Madrid: Magisterio Español (orig. (1992). de Zaragoza. POPHAM. PIDGEON. The clinical study of social behavior. «Innovative item types for campute- . POKRAS. 5-15. (1969).T Y PASHLEY. «Evaluating innovatians in teaching». Banco de Pruebas. AERA. (1972). A. (1978).». Análisis de Ítems de Opción Múltiple. D. (1973). 24. PIERON. (1926). PÉREZ JUSTE. Systematic Instruction. POPHAM. D. London: LEA. T R. Y SOLER. (1970). Monografía núm. (1994). J. Butcher yE. . En R. R. G. POMES. E. e. Performance assessment: Panacea or pandora 's box? Rockville. Barcelona: PPU. NJ: Prentice Hall (2nd ed.tial weithing of individual item responses on the predictive validity and reliability of an aptitude test». RODRÍGUEZ DIÉGUEZ. El Sistema Educativo de la Compañía de jesús.March.306 La evaluación de aprendizajes POSNER. Madrid: TEA. (1969). (1990).) (1999).jour- nal of Educational Measurement. 1970). J. F. D. their influence on language. (2002). B. 11- 13. RENOM. Madrid: Narcea. 17AO.J. «Wait-tÍme and reward as instructional variables. «Effects of c1iscourse and response mode on the meas- competence». RODRÍGUEZ NElRA.C. Revista Española de Pedagogía. 6. logic and fate control: Part one-Wait time». 93-96.): La Evaluación Psicológica en el año 2000. C. joumal of Research on Science Teaching. G. Zaragoza: ICE de la Universidad de Zaragoza. D. aplica- «Análisis de un (1980). 1. Didáctica General.]. Cordero (coord. en edición Gil. E. (1993). Measurement in today's schools. C. W (1969). R«etos y Perspectivas de los Tests Adaptativos Informatizados». 415-438. Aula Abierta.): Psi- aptitudes». Madrid: CinceL RODRÍGUEZ NElRA. 1. 11. (1980). Testsadaptativos computerizados: fundamentos y aplicaciones. Science and Children. (1999). 3-14. Y WHITE. PerfilesEducativos. Teoríasy modelos de enseñanza.241-258. ROWE. EnJ. 19. «Algunas consideraciones sobre la Evaluación en el "Proyecto para la Reforma de la Enseñanza"». (1981). Englewood Cliffs. Posibilidadesy lími- tes. (1947). Curriculum-based assessment: Testing what is taught. Lérida: Milenio. 6. Silence and Sanctions». EnJ. J. «Instrumentos para la investigación y desarrollo del currículo: Aportaciones potenciales a la ciencia cognoscitiva». Criteriospara una evaluaciónformativa. SALVIA. 54. RODRÍGUEZ NElRA. T. M. lnstitutio Studiorum (1598). J. El discurso y la práctica en Evaluación. 1. M. ROWE. NewYork: MacMillan.81-94. (1979).) (orig. 50. (1980). SABERS. En A. B. .Muñjz (ed. (1992). T. «Science. Madrid: UPCO. SABIRÓN. ítems». Aprende a estudiar. Objetivos y Evaluación. «The effect of differel1. ROSS. C.). (1974). y HUGHES. Barcelona: Herder ( 4a ed. (1997). (dir. G. (1982). RENOM. ROSALES. T. ROWNTREE. La Studiorum».journalofEducationalMeasurement. «Estructura y límites gnoseológicos de la investigación- acción crítica». «Nápoles: Tarquinio Longo». 523-540.) (orig.363-368.]. New York: Russell Sage Foundation. 1985). «Atheoreticalstatement of responsive evaluation». EvaluativeResearch: Principlesand Practice in Public Service and Social Action Programs. En E. D. . (1988).educativa».. Phi Delta Kappan. R.lnfancia Aprendizaje. (1989). Barcelona: Paidós (orig. (1988). 5-14. 1962). Investigación y desarrollo del Currículo. (1967)." ed. STIGGINS. 8(2). (1966). «The countenance of educational evaluation». Assessment ofperson. Washington. Englewood Cliffs. A.R. TABA.5. MI: Evaluations Center.]. STAKE. Elaboración del Currículo. 1981). STALNAKER. (1987). 1. (1977). (1967). «The essaytype examination».J). Kalamazoo. Buenos Aires: Troquel (orig. P.L. E. Evaluación sistemática. (1967). «The methódology (1942). STENHOUSE.•(1967).1. R. F. Classroom Questions. . (1975). STIGGIN5.D. S. 19-22. A. N. M. SUNDBERG. FRISBIE. SANTOS GUERRA.ySHINKFIELD. 2. 6. R. Univ. «Revitalizing classroom assessment: The highest instrUctional priority». Program evallliltion: Particularly responsive evaluation. (1966). <<Insidehigh school grading practices: Building a researchagenda». november. E. STUFFLEBEAM. Studies in Ed- ucational Evaluation. Linquist Educational Measurement. «Patología de la evaluación. «The use and abuse of evaluation in Title IlI». Theory into PractiCe. (1974).M. Madrid: Morata (2. J.A. STUFFLEBEAM. 126-133. A. June.Appraising and recording student progress. DC: American Council on Education. 143-158. J. Westem Michigan. SUCHMAN. 41. D.· Occasio-nal Paper. (1976).Referencias bibliográficas 307 SANDERS.H. Educational Measurements: Issues and Practice. NJ:Prentice Hall. N. 69. E. YGRISWOLD.Teachers 68. (1987). Guíateóri- ca y práctica. 75. 57. . Madrid: Narcea. VANDER UNDEN.R. Edu- cational Measurements: lssues and Practice. Applied Measurement in Education. november. (ed. ERIC Clearinghouse on Tests. S. 343-372.). R. TYLER.A. W. ERIC/TM Report No. 1. C.1. Tbeory ang practice. An lntroduction to the Tbeory of Mental and Social Meas- urements. (1996). WARD. Exceptional Children. TRYON. S.¡relnellt 'Attitti. «Technological innovations in large scale assess- ment». 1. 4.Service No. NJ. NT: Lawrence Erl- baum. G. E. A. A. Banco de Pruebas. THURSTONE.) (2000). Cit- izen Action in Education. C. Guía práctica para profesores.J. Measurement and Evaluation in Psychology and Education. (1982). Buenos Aires: Lanturo (orig. Monografía núm.337-362. 1). Chicago: Rand McNally: VAN DER UNDEN.de. Contract grading.. 1. Baston: Kluwer Academic Publishers. H. «The measurement tre:Uelnellt Review of Educational Research. Measurement and Evaluation. 15. 8(2). Columbia University: THORNDIKE. «Classroom standard setting and grading practices». W. Madrid: Narcea (3a ed. W. Princeton. B. R. TERWILUGER. E. (1964). Bilbao: Deusto. (1967). (1975). (1947).3C 308 La evaluación de aprendizajes TAYLOR.). «The citizen as jurist: A new evaluation». E. y LUENGO. Kappan. (1969).. E. Pensamiento y Lenguaje. TUCKER. Diseño y Desarrollo Currícular. .J. NewYork: Teachers College Press. Tomo 4. ZENISKY. Computer adaptive testing. 1. YCHAVE. 1. J. «Curriculum-based assessment: introdlucl:iorl». 23 de Aula Abierta. Hillsdale. A. Fundamentos de organización y dirección general. WOLF.1. (1980). (1980). 50.Delta.-(1904). Stake (ed.. «Changing concepts of educational evaluation».(1974). YSIRECI. ZERILU. YTIKUNOFF. 1962).A. M. A new evaluation method».52.): Perspectives of currículum evaluation (AERA Monograph Series Curricu- lum Evaluation. (1989). J.of Educ. (1997). L. WOLF. 1950). New York: Springer. G. 185-187. (2000). ICE de la Universidad de Oviedo. J. ZABAIZA. M. (1978). TERESA. (1985). En R. VYGOSTSKY.H.4~' (1981). ERIC Document Reproduc- tion.) (1990). 1. YHAGEN. WAINER. Colaborative DC: National Inst. (1989). Computer-adaptive testing. ED 198 152. y GLASS. Madrid: Santillana (orig. W. 15-19. W. TYLER.Chicago: Uni- versity of Chicago Press. S. (1973).R. Ph¡. Measz. december. Evaluación.. Handbook of Modern ltem Respanse Tbeory. 1. THURSTONE. Principios Básicos del Currículo. TE~!::'~9. NewYork: John WIley & Sons (3rd ed.199-204.E. (eds. Matemáticas . «frial by jury. Vocationallnterest Schedule. NewYork: Psychological Cor- poration. .THORNDIKE.


Comments

Copyright © 2024 UPDOCS Inc.