ECRP

Facebook

Enviar comentarios
a la Editora de ECRP.

          
Share View this page in English InicioContenido de todos los númerosContenido de número actual
Vol. 9 No. 2
©Derechos de autor reservados 2007

Los efectos en la calidad de las clases de la evaluación auténtica e impulsada por resultados

Rena Hallam
Universidad de Tennessee

Jennifer Grisham-Brown, Xin Gao y Robyn Brookshire
Universidad de Kentucky

Sinopsis

Veintiséis clases preescolares de Head Start participaron durante un año en una intervención destinada a enlazar el Marco de Resultados del Niño en Head Start con prácticas de la evaluación auténtica. Los maestros en clases de un programa preliminar y de la intervención implementaron un método de evaluación que incorporaba el uso de un instrumento de evaluación basado en currículos, el desarrollo de portafolios alineados con los Resultados del Niño de Head Start de uso obligatorio, y la integración de los datos de esta evaluación a la planificación instructiva para niños individuales y para clases. Durante el período de la intervención, las clases de comparación siguieron utilizando el método de evaluación adoptado por el programa local de Head Start, el cual incluía el uso de un instrumento normalizado de evaluación y un formulario de planes de lecciones desarrollado por esta agencia. Las clases del programa preliminar y de la intervención mostraron mejoras significativas en ciertas dimensiones de la calidad de las clases, según las medía el Early Language and Literacy Classroom Observation Toolkit (ELLCO, o Sistema de Observación del Lenguaje y la Alfabetización en las Clases), aunque las clases del grupo de comparación no exhibieron ningún cambio en la calidad. Se discuten las implicaciones para la práctica.

Introducción

Ha llegado a ser muy común la aplicación de las normas a los programas de educación como medida de responsabilidad (National Child Care Information Center, 2006; Scott-Little, Kagan y Frelow, 2003). En el ámbito del cuidado y educación de niños pequeños, este énfasis en las normas se percibe frecuentemente como contrario a las prácticas apropiadas al desarrollo y puede encaminar mal los programas de modo que utilicen prácticas de evaluación que no se recomiendan para los niños pequeños (Meisels, 2000; Neisworth y Bagnato, 2004). El presente artículo describe un proyecto patrocinado con fondos federales que utiliza el Marco de Resultados del Niño en Head Start como la base de prácticas apropiadas y auténticas de evaluación integradas a la planificación instructiva para niños pequeños. Este modelo de la evaluación auténtica, impulsada por los resultados y conectada a la instrucción de la clase, se examina para determinar su efecto en la calidad de las clases en programas preescolares.

El énfasis creciente en la responsabilidad de los programas de cuidado y educación de niños pequeños ha iluminado la necesidad de volver a conceptuar los sistemas de evaluación dentro del ámbito de la educación de la primera infancia. Cada vez más los estados y entidades del ámbito desarrollan normas o resultados para niños entre el nacimiento y los 5 años de edad. El programa Head Start desarrolló en 2000 el Marco de Resultados del Niño para describir los resultados esperados para niños de 4 años para cuando salen del programa (U.S. Department of Health and Human Services, 2003). En respuesta a la iniciativa Buen Comienzo, Buen Futuro, los estados están desarrollando sus propios conjuntos de normas o resultados para niños. El Centro Nacional de Información para el Cuidado del Niño (NCCIC, o National Child Care Information Center) presenta una lista de 42 estados que tienen actualmente o están desarrollando normas para el aprendizaje infantil (NCCIC, 2006). Una declaración de posición en conjunto de la Asociación Nacional de Educación Infantil y la Asociación Nacional de Especialistas de la Primera Infancia en Departamentos Estatales de Educación (NAEYC y NAECS/SDE, 2003) menciona tanto los riesgos como los provechos de tales normas o resultados para el aprendizaje infantil. Los posibles peligros de articular normas o resultados para niños pequeños incluyen el impacto negativo en el currículo y un enfoque estrechado de las actividades instructivas para niños. Sin embargo, las normas pueden resultar provechosas al ayudar a los maestros y los programas a desarrollar expectativas más claras para los currículos y las metas del aprendizaje, facilitar la continuidad entre los grados escolares, y destacar maneras de apoyar a niños con necesidades especiales.

En la aplicación de normas del aprendizaje infantil o resultados para niños a los programas de cuidado y educación, el desafío principal es la posible falta de conexión entre los resultados y los procesos de evaluación apropiados para recoger datos que puedan utilizarse al nivel del programa. En particular, Head Start ha implementado un Sistema Nacional para Informar Datos (National Reporting System) que utiliza un proceso normalizado de evaluación para documentar los resultados de los niños (Rothman, 2005). Además, la escasez de instrumentos apropiados de evaluación para niños pequeños hace surgir un dilema en la implementación de métodos basados en normas en el cuidado y educación infantil. No obstante, la literatura sobre la evaluación en este ámbito recalca la dificultad de obtener información confiable y válida de niños pequeños en formatos de la evaluación normalizada (Bagnato y Neisworth, 1995; Rafoth, 1997). El uso apropiado de los instrumentos de evaluación también hace surgir preocupaciones. Muchos programas de cuidado y educación infantil utilizan instrumentos diagnósticos normalizados para propósitos de planificar la instrucción en vez del propósito clínico al que van destinado (Rafoth, 1997). En su conjunto, estas cuestiones enfatizan la dificultad de tratar las medidas obligatorias de responsabilidad en el ámbito del cuidado y educación de niños pequeños.

Se han enfatizado históricamente en dicho ámbito las estrategias naturalistas de evaluación, tales como la observación y las entrevistas de los padres y madres, como las maneras más apropiadas de recoger datos significativos de evaluación acerca de niños pequeños. Las prácticas que se recomiendan en la actualidad, tanto en la educación de niños pequeños como en la educación especial infantil, se enfocan en los métodos auténticos de evaluación. Tanto la Asociación Nacional de Educación Infantil (Bredekamp y Copple, 1997) como la División para Niños Pequeños del Concilio para Niños Excepcionales (Sandall, McLean y Smith, 2000) han establecido normas de guía para las prácticas de evaluación que son apropiadas para niños pequeños. Estas normas señalan la necesidad de métodos de evaluación que sean apropiados al desarrollo respecto a los propósitos, el contenido y los métodos que se utilizan. Cuando se realiza la evaluación para planificar el programa, esta debe mantener su carácter auténtica al realizarse de manera continua dentro de los contextos naturales de los niños y al producir información que sea útil al planificar para cada niño.

Sin embargo, se ha realizado muy poca investigación empírica de los procesos de evaluación auténtica. Se halla una excepción en las obras de Meisels y sus colegas. Meisels, Liaw, Dorfman y Nelson (1995) hallaron niveles moderados y altos de fiabilidad y niveles altos de validez de predicción en la lista de verificación sobre el desarrollo del Sistema de Muestras del Trabajo (Work Sampling System). Además, un estudio reciente sugiere que se ven efectos positivos en las calificaciones del logro de niños en lectura y matemática cuando los maestros evalúan el rendimiento con un sistema entretejido en el currículo (Meisels, Atkins-Burnett, Xue, Nicholson, Bickel y Son, 2003).

El modelo de intervención del presente estudio constaba del uso de métodos de evaluación auténtica alineados con el Marco de Resultados del Niño en Head Start. Específicamente, el proyecto LINK (Consorcio para Fomentar Enlaces entre la Evaluación, los Currículos y los Resultados para Aumentar el Logro Escolar de Niños en Programas de Head Start) fue un proyecto patrocinado con fondos federales que utilizó prácticas recomendadas de la evaluación de niños pequeños para documentar el logro de las normas de responsabilidad. El Sistema de Evaluación y Planificación (AEPS, o Assessment, Evaluation, and Planning System) para niños entre el nacimiento y el tercer cumpleaños, y de entre los 3 y 6 años de edad (Bricker, 2002) se utilizó en el otoño y en la primavera para documentar el progreso del desarrollo de los niños. El AEPS es un instrumento de evaluación basado en el currículo y diseñado para evaluar el desarrollo y aprendizaje de niños en seis áreas del desarrollo: motricidad gruesa, motricidad fina, comunicación social, comunicación, adaptación y cognición (Bricker, 2002). En el modelo del Proyecto LINK, la implementación del AEPS se orientó con el uso de protocolos basados en actividades. Específicamente, se desarrollaron seis protocolos que, en combinación con una entrevista con los padres de familia y una observación de la comunicación social del niño, constituyen el conjunto completo del AEPS. La información recogida del AEPS se utilizó entonces para desarrollar planes individualizados para todos los niños matriculados en clases de Head Start. Después del desarrollo de los planes individualizados, los maestros utilizaron los datos de las evaluaciones para orientar la planificación del currículo de la clase (véase la Figura 1). También se desarrollaron portafolios para todos los niños, según la orientación de los requisitos de los Resultados del Niño en Head Start además de las metas individualizadas de los niños.

Figura 1. Modelo de la intervención del Proyecto LINK.

Figura 1. Modelo de la intervención del Proyecto LINK.

Las clases de comparación del presente estudio siguieron los procedimientos actuales de la agencia para la evaluación de niños y la planificación de currículos. Los maestros de clases utilizaron el Perfil Diagnóstico del Logro y del Aprendizaje (Learning Accomplishment Profile-Diagnostic o LAP-D, 1992) para recoger datos de evaluación tres veces al año. También desarrollaron cada semana planes de lecciones utilizando el formato para planes de lecciones de la agencia local y recogieron datos de observación anecdótica acerca de cada niño de su clase. Las reglas de la agencia requerían que los maestros recogieran cada semana una anécdota sobre cada área de desarrollo para cada niño.

El Proyecto LINK se conceptuó como una intervención de dos años con un plan de evaluación de dos años: durante el primer año se examinó la calidad de las clases y durante el segundo, los resultados normalizados de los niños además de la calidad de las clases. El presente estudio describe los hallazgos preliminares del año preliminar y del segundo año de la intervención en el Proyecto LINK para examinar los efectos en la calidad de las clases de un proceso de evaluación auténtica e impulsada por los resultados.

Método

Participantes

El Proyecto LINK se desarrolló y se implementó en colaboración con un programa grande de Head Start que operaba en múltiples condados y constaba de 28 clases preescolares directamente dirigidas. Durante la fase de diseñar el proyecto, se determinó que no se incluiría en la implementación del proyecto a los maestros con menos de un año de experiencia. Por lo tanto, solo 26 clases participaron en el proyecto. Puesto que las clases se hallaban distribuidas en múltiples sitios, estas se escogieron según el sitio para evitar efectos de interferencia. Las 26 clases participantes se hallaban en 13 sitios distintos. Durante el primer año del proyecto se escogieron clases para el programa preliminar, en colaboración con la administración del programa Head Start. Ocho clases fueron escogidas por Head Start para participar en la fase preliminar de la intervención a fin de refinar los procesos de la intervención e informar el desarrollo del modelo. Las otras 18 clases preescolares directamente dirigidas en este programa concesionario de Head Start se asignaron al azar a grupos de la intervención y de comparación según el sitio y se clasificaron según su carácter urbano o rural. Las clases del programa preliminar recibieron la intervención durante el primer año y el segundo año de la intervención. Durante este período de dos años, no ocurrió ningún cambio en los maestros principales de estas clases. El grupo de la intervención participó solamente durante el segundo año, durante el cual se estudió la intervención. En la Tabla 1 se presentan datos que reflejan la información recogida durante el segundo año de la intervención.

Tabla 1
Datos descriptivos de las características de los maestros principales
Variable Programa preliminar
(n = 8)
Intervención
(n = 9)
Comparación
(n = 9)
Raza
Africano-americana 5 (62,5) 2 (22,2) 2 (22,2)
Caucásica 3 (37,5) 7 (77,8) 7 (77,8)
Nivel de educación
Escuela secundaria 1 (12,5) 1 (11,1)
Asociado de Artes 2 (25) 3 (33,3) 4 (44,4)
Licenciatura universitaria 5 (62,5) 5 (55,6) 4 (44,4)
Maestría 1 (11,1)
Años de experiencia
1–2 años
3–5 años 2 (25) 1 (11,1) 3 (33,3)
6–10 años 3 (37,5) 5 (55,6) 3 (33,3)
Más de 10 años 3 (37,5) 3 (33,3) 3 (33,3)

Descripción de la intervención

Al principio del año escolar los maestros principales, maestros ayudantes y coordinadores de servicios para niños (gerentes del programa en los sitios locales) asistieron a dos días de capacitación formal sobre el modelo del Proyecto LINK. La capacitación fue seguida por visitas semanales de asistencia técnica durante todo el año. El contenido de las sesiones de capacitación fue diseñado y enseñado por las investigadoras principales y un especialista en el desarrollo de portafolios al nivel preescolar. Los maestros recibieron la instrucción y oportunidades de practicar el uso del AEPS mediante los protocolos basados en actividades y diseñados específicamente para el Proyecto LINK. También se capacitó a los maestros para interpretar y utilizar los resultados de la evaluación del AEPS en el desarrollo de los planes individualizados de aprendizaje de los niños. Se enseñó el uso de un formulario de planes de lecciones diseñado específicamente para el proyecto, el cual se utilizaba en un proceso de conectar los resultados de evaluaciones individuales con los objetivos de aprendizaje del Marco de Resultados del Niño en Head Start. También se capacitó a los maestros en la formación de un sistema de portafolios para documentar los progresos continuos de los niños hacia las metas individualizadas y los resultados requeridos de Head Start.

La asistencia técnica fue provista por el personal del proyecto, que era compuesto por estudiantes graduados en educación de niños pequeños. En las visitas semanales se ofrecía una variedad de formas de apoyo, incluyendo la observación y los consejos, los materiales para apoyar la implementación del modelo, la ayuda con la tecnología, los recursos curriculares para maestros, y el análisis de problemas. Las visitas duraban aproximadamente una hora cada semana y variaban de acuerdo con la clase de ayuda que se ofrecía. Aunque se les proveía a todos los maestros una gama de opciones de ayuda, la cantidad de ayuda y los temas discutidos durante las visitas eran muy individualizados. Por ejemplo, puede que los maestros con más preparación en desarrollo infantil y con experiencias laborales más parecidas a los elementos del Proyecto LINK, recibieran más ayuda con los recursos, los consejos y la tecnología; pero que otros maestros con menos experiencia o conocimiento de fondo tal vez recibieran más modelos directos, observación y orientación sobre el uso de los múltiples elementos de la evaluación, la planificación de lecciones y la individualización.

Todos los maestros pudieron alcanzar al menos un grado adecuado de implementación del modelo. Se completaron evaluaciones del AEPS para cada niño en el otoño y la primavera utilizando protocolos basados en actividades. Se desarrollaron para cada niño en las clases un plan individualizado de aprendizaje, y los planes se actualizaron o se controlaron de forma regular. Se completaron cada semana planes de lecciones grupales y se creó un portafolio individual para cada niño en la clase, para recoger evidencia de sus progresos durante el año escolar.

Medidas

Se recogieron datos de las clases utilizando la Early Childhood Environment Rating Scale (ECERS-R, o Escala de Tasación de Ambientes del Cuidado de Niños Pequeños) (Harms, Clifford y Cryer, 1998) y la Early Language and Literacy Classroom Observation Toolkit (ELLCO, o Paquete para Observaciones del Lenguaje y la Alfabetización en Clases Preescolares) (Smith y Dickinson, 2002). La fiabilidad entre observadores se estableció en un 86,72% al nivel de 0,60 para la ECERS-R y en un 100% con un coeficiente kappa de 0,60 para el ELLCO. Se presentan a continuación descripciones de cada instrumento de medición.

La ECERS-R (Harms, Clifford y Cryer, 1998) es una medida ampliamente utilizada de la calidad de las clases. Está diseñada para evaluar programas grupales para niños de edad preescolar y de kindergarten, entre los dos años y medio y los cinco años de edad. La escala consta de 43 preguntas organizadas en 7 escalas subsidiarias (espacio y muebles, rutinas de cuidado personal, lenguaje y raciocinio, actividades, interacciones, estructura del programa, y los padres de familia y el personal). Las consistencias internas de las escalas subsidiarias de la ECERS-R se hallan entre 0,71 y 0,88, y la consistencia interna de todas las escalas es 0,92 (Harms, Clifford y Cryer, 1998).

El ELLCO (Smith y Dickinson, 2002) es un conjunto completo de instrumentos de observación, diseñados para describir el grado hasta el cual las clases les ofrecen a los niños el apoyo óptimo para su desarrollo lingüístico y alfabetización. El paquete completo abarca tres instrumentos independientes de investigación: una lista de verificación sobre el ambiente de alfabetización, una observación de la clase y una escala de tasación de las actividades de alfabetización. Se han examinado la fiabilidad y la validez de los tres instrumentos independientes. El alfa de Cronbach de 0,84 para la lista de verificación sobre el ambiente, el de 0,90 de la observación de la clase y el de 0,66 de la escala de tasación de las actividades muestran una consistencia interna que varía entre lo aceptable y lo bueno (Smith y Dickinson, 2002).

Procedimientos de la recolección de datos

Se observaron las clases de la intervención, del programa preliminar y de comparación al principio y al fin del año escolar 2004–2005 durante momentos programados para la observación. En el caso del grupo del programa preliminar, este fue el segundo año de implementación del modelo del Proyecto LINK puesto que lo habían utilizado de forma preliminar el año anterior. Los datos fueron recogidos por siete estudiantes para la maestría y el doctorado que se habían capacitado en la implementación de las medidas. Los datos de la ECERS-R (Harms, Clifford y Cryer, 1998) y del ELLCO (Smith y Dickinson, 2002) se recogieron durante el mismo período de observación, el cual duraba entre aproximadamente 2 y 4 horas. Los recolectores de los datos concertaron de antemano con los maestros las citas para hacer las observaciones. Los datos se anotaron en el programa SPSS 12.0 para el análisis.

Resultados

Se realizaron análisis descriptivos para la ECERS-R (Harms et al., 1998) y el ELLCO (Smith y Dickinson, 2002) para cada uno de los tres grupos. En la Tabla 2 se presentan los promedios y las desviaciones típicas de las calificaciones de los tres grupos (de la intervención, del programa preliminar y de comparación) en los exámenes preliminares y posteriores de la calificación compuesta de la ECERS-R y las tres escalas del ELLCO. Entonces se calcularon los grados de cambio de los tres grupos en todas las medidas de las escalas subsidiarias (Tabla 3). Luego se calcularon ANOVAS para examinar las diferencias en los grados de cambio entre los tres grupos. No se hallaron diferencias de significado estadístico relativas a la ECERS-R, pero sí se hallaron diferencias en la calidad del ambiente de lenguaje y alfabetización según la medía el ELLCO. Específicamente, se hallaron diferencias de significado estadístico entre los grados de cambio de la Lista de Verificación del Ambiente de Alfabetización del ELLCO, F(2, 23) = 4,82, p < 0,05, y la Observación de la Clase del ELLCO, F(2, 23) = 10,10, p < 0,01. Los análisis posteriores (post hoc) con Scheffe indicaron que los grados de cambio en la Lista de Verificación del Ambiente de Alfabetización del ELLCO del grupo del programa preliminar mejoraron más que el grupo de comparación. Este grupo también mejoró en la Observación de la Clase del ELLCO más que los grupos de la intervención y de comparación. El grupo de la intervención mejoró más que el grupo de comparación en la Observación de la Clase del ELLCO.

Tabla 2
Comparación de los promedios en el examen preliminar y el posterior respecto a la calidad de las clases
Variable Promedio M en el examen preliminar (SD) Promedio M en el examen posterior (SD)

Grupo del programa preliminar (n = 8)

ELLCO – Lista de Verificación del Ambiente de Alfabetización 22,38 (6,70) 33,50 (7,21)
ELLCO – Observación de la Clase 45,00 (5,78) 57,25 (4,89)
ELLCO – Escala de Tasación de Actividades de Alfabetización 3,75 (2,61) 6,13 (3,18)
ECERS-R – Calificación compuesta 4,57 (0,74) 5,28 (0,68)

Grupo de la intervención (n = 9)

ELLCO – Lista de Verificación del Ambiente de Alfabetización 27,56 (10,26) 29,44 (7,50)
ELLCO – Observación de la Clase 47,89 (11,68) 56,11 (6,57)
ELLCO – Escala de Tasación de Actividades de Alfabetización 6,11 (2,21) 7,78 (2,39)
ECERS-R – Calificación compuesta 4,81 (0,43) 5,24 (0,47)

Grupo de comparación (n = 9)

ELLCO – Lista de Verificación del Ambiente de Alfabetización 28,78 (7,81) 26,56 (9,61)
ELLCO – Observación de la Clase 50,89 (5,26) 48 (8,70)
ELLCO – Escala de Tasación de Actividades de Alfabetización 6,22 (2,05) 5,22 (2,22)
ECERS-R – Calificación compuesta 4,43 (0,45) 4,97 (0,28)
Tabla 3
Promedios de los grados de cambio en la calidad de las clases
Variable Intervención M
(SD)
Preliminar M
(SD)
Comparación M
(SD)
F
ELLCO – Lista de Verificación del Ambiente de Alfabetización 1,89 (6,37) 11,13 (8,32) –2,22 (11,49) 4,82*
ELLCO – Observación de la Clase 8,22 (7,89) 12,25 (6,25) –2,89 (7,42) 10,10 **
ELLCO – Actividades de Alfabetización 1,67 (3,35) 2,38 (4,17) –1,0 (2,18) 2,54
ECERS-R – Calificación compuesta 0,44 (0,66) 0,71 (0,85) 0,54 (0,64) 0,32
* p < 0,05.
** p < 0,01.

Discusión

El uso de las normas en los programas de educación infantil requiere la planificación cuidadosa y la reflexión sobre una amplia gama de prácticas del programa, entre ellas la evaluación de niños, la planificación e implementación de currículos, y los modos de informar datos. El modelo que describe el presente estudio permite que las prácticas recomendadas de evaluación de niños orienten estos procesos a la vez de tratar las normas de responsabilidad. Sin embargo, el estudio tenía la intención de examinar un modelo de evaluación auténtica e impulsada por resultados y su impacto en la calidad de las clases, y especialmente en el ambiente de lenguaje y alfabetización en vista del enfoque intensificado en la instrucción del lenguaje y la alfabetización y los requisitos correspondientes del Marco de Resultados del Niño en Head Start.

Los hallazgos del estudio sugieren que un método de evaluación auténtica puede tener impactos positivos en el ambiente de lenguaje y alfabetización. Se hallaron diferencias en la observación de las clases del ELLCO (Smith y Dickinson, 2002) para tanto el grupo del programa preliminar como el de la intervención. No obstante, no se detectaron con la ECERS-R diferencias significativas entre las observaciones preliminares y posteriores. Debe señalarse que al principio todas las calificaciones promedias de la ECERS-R fueron menores que 5,0 (el cual indica la “buena” calidad) y que los grupos del programa preliminar y de la intervención tuvieron al final del año calificaciones cerca de 5,0 (5,28 y 5,24 respectivamente) mientras que el grupo de comparación tuvo al final una calificación de 4,97. Puesto que la ECERS-R mide la calidad de los programas con un énfasis en la calidad estructural, no es extraño que no se hallaran diferencias.

La ECERS-R no se enfoca en la calidad de la instrucción y enfatiza muy poco la instrucción de la alfabetización (Dickinson, 2002; Stipek y Byler, 2004). Las calificaciones de los exámenes preliminares y posteriores del ELLCO sugieren que se puede mejorar la instrucción en cierta área de aprendizaje (como el lenguaje y la alfabetización) al proveer una intervención enfocada en la evaluación de niños en relación con las normas y/o dicha área. Esta mejora en la calidad, relacionada con el uso de la evaluación auténtica, es compatible con los hallazgos de Meisels et al. (2003), quienes hallaron que el uso de un método de evaluación basado en el rendimiento y entretejido al currículo mejoró los resultados de niños de la escuela primaria, según los medían las calificaciones en exámenes estandarizados de logro. Se necesita más investigación sobre este tema para analizar cómo influye el uso de métodos de evaluación auténtica en la planificación del currículo preescolar de parte de los maestros, así como el impacto subsiguiente de los mismos en los resultados de los niños.

Hay que interpretar con cautela los resultados del presente estudio. Se recogieron datos de un programa concesionario grande de Head Start, por lo que estos no se pueden generalizar a otros tipos de programa de cuidado y educación de niños pequeños. Además, los grupos del programa preliminar y de la intervención experimentaron la intervención durante cantidades distintas de tiempo. Específicamente, las clases del programa preliminar habían participado durante dos años en la intervención aunque el grupo de la intervención había participado durante solo un año. Esta discrepancia puede explicar el que los datos indicaran que el grupo del programa preliminar progresó más que el de la intervención. Aquel grupo tuvo más tiempo para asimilar el modelo del Proyecto LINK, aprender sobre él e implementarlo. Se necesitan realizar estudios adicionales del impacto de la evaluación auténtica en la calidad de las clases con muestras más grandes y de una mayor diversidad de programas, maestros y niños. Además, en vista de los recursos limitados del proyecto, no resultó posible que los estudiantes graduados desconocieran el grupo de tratamiento al que pertenecía cada clase. Pese a estas limitaciones, los resultados del estudio sugieren que el uso de la evaluación auténtica en las clases preescolares puede representar un paso importante para mejorar la calidad de las clases y la planificación de los currículos.

A medida que el movimiento de responsabilidad por el progreso de los alumnos se vaya desarrollando e influyendo en los programas de cuidado y educación infantil, hay que examinar de forma sistemática el valor potencial de los métodos de evaluación auténtica. Tales métodos les ofrecen a los programas preescolares una medida para implementar las prácticas recomendadas en la evaluación de niños a la vez de seguir tratando la necesidad creciente de documentar los resultados de los niños.

Referencias

Bagnato, Stephan J., & Neisworth, John T. (1995). A national study of the social and treatment “invalidity” of intelligence testing in early intervention. School Psychology Quarterly, 9(2), 81-102.

Bredekamp, Sue, & Copple, Carol (Eds.). (1997). Developmentally appropriate practice in early childhood programs (Rev. ed.). Washington, DC: National Association for the Education of Young Children.

Bricker, Diane (Ed.). (2002). AEPS: Assessment, evaluation, and programming system for infants and children: Vol. 2. Test: Birth to three years and three to six years (2nd ed.). Baltimore, MD: Brookes.

Dickinson, David K. (2002). Shifting images of developmentally appropriate practice as seen through different lenses. Educational Researcher, 31(1), 26-32.

Harms, Thelma; Clifford, Richard M.; & Cryer, Debby. (1998). Early childhood environment rating scale (Rev. ed.). New York: Teachers College Press.

Learning accomplishment profile—Diagnostic edition. (1992). Lewisville, NC: Kaplan Early Learning.

Meisels, Samuel J. (2000). On the side of the child: Personal reflections on testing, teaching, and early childhood education. Young Children, 55(6), 16-19.

Meisels, Samuel J.; Atkins-Burnett, Sally; Xue, Yange; Nicholson, Julie; Bickel, Donna DiPrima; & Son, Seung-Hee. (2003). Creating a system of accountability: The impact of instructional assessment on elementary children’s achievement test scores. Education Policay Analysis Archives, 11(9). Retrieved March 7, 2007, from http://epaa.asu.edu/epaa/v11n9/

Meisels, Samuel J.; Liaw, Fong-ruey; Dorfman, Aviva; & Nelson, Regena Fails. (1995). The work sampling system: Reliability and validity of a performance-based assessment for young children. Early Childhood Research Quarterly, 10(3), 277-296.

National Association for the Education of Young Children (NAEYC) & National Association of Early Childhood Specialists in State Departments of Education (NAECS/SDE). (2003). Early childhood curriculum, assessment, and program evaluation. Retrieved March 7, 2007, from http://naecs.crc.uiuc.edu/position/pscape.html

National Child Care Information Center. (2006, May). Selected state early learning guidelines on the Web. Retrieved March 7, 2007, from http://nccic.org/pubs/goodstart/elgwebsites.pdf

Neisworth, John T., & Bagnato, Stephan J. (2004). The mismeasure of young children: The authentic assessment alternative. Infants and Young Children, 17(3), 198-212.

Rafoth, Mary Ann. (1997). Guidelines for developing screening programs. Psychology in the Schools, 34(2), 129-142.

Rothman, Robert. (2005). Testing goes to preschool: Will state and federal testing programs advance the goal of school readiness for all children? Harvard Education Letter, 21(2), 1-4.

Sandall, Susan; McLean, Mary; & Smith, Barbara. (2000). DEC recommended practices in early intervention/early childhood special education. Longmont, CO: Sopris West.

Scott-Little, Catherine; Kagan, Sharon Lynn; & Frelow, Victoria Stebbins. (2003, June). Standards for preschool children’s learning and development: Who has standards, how were they developed, and how are they used? Greensboro, NC: SERVE. Retrieved March 7, 2007, from http://www.serve.org/_downloads/publications/Standards2003.pdf

Smith, Miriam W., & Dickinson, David K. (2002). User’s guide to the Early Language and Literacy Classroom Observation toolkit. Baltimore, MD: Brookes.

Stipek, Deborah, & Byler, Patricia. (2004). The early childhood classroom observation measure. Early Childhood Research Quarterly, 19(3), 375-397.

U.S. Department of Health and Human Services, Administration on Children, Youth, and Families/Head Start Bureau. (2003). The Head Start path to positive child outcomes. Washington, DC: Author.

Información de las autoras

La Dra. Rena A. Hallam es la directora ejecutiva del Centro de Investigación y Práctica del Aprendizaje Infantil y profesora auxiliar del Departamento de Estudios de Niños y Familias en la Universidad de Tennessee en Knoxville. Ha servido en una capacidad administrativa en programas de cuidado infantil y de Head Start. Sus intereses de investigación se centran en las cuestiones sistemáticas relacionadas con la calidad de los programas de cuidado y educación de niños pequeños, con un enfoque especial en los niños que viven en la pobreza. Específicamente, ha estudiado las transiciones, las evaluaciones y la responsabilidad, la preparación del personal de la educación infantil, y las iniciativas estatales para mejorar la calidad del cuidado infantil.

Rena Hallam, Ph.D.
Assistant Professor
Interim Executive Director
UT Early Learning Center for Research and Practice
Department of Child and Family Studies
1215 W. Cumberland Avenue, Room 115
Knoxville, TN 37996-1912
Teléfono: 865-974-8499
Fax: 865-974-2742
E-mail: rhallam@utk.edu

La Dra. Jennifer Grisham-Brown es profesora asociada del Programa Interdisciplinario de Educación de Niños Pequeños en la Universidad de Kentucky (UK), donde da cursos al nivel sub-graduado, graduado y doctoral. También es la directora de la facultad del Laboratorio de la Primera Infancia de la UK, programa inclusivo para bebés y niños de hasta 5 años de edad que sirve como el sitio principal de capacitación para el programa de certificación en la educación de niños pequeños de la UK. Los intereses de investigación de la Dra. Grisham-Brown incluyen la evaluación auténtica, la calidad de programas y las intervenciones que apoyen la inclusión de niños pequeños con discapacidades en programas comunitarios. Ella ha investigado estos temas con el respaldo de numerosas concesiones estatales y federales y ha sido autora o coautora de artículos sobre los mismos temas.

Jennifer Grisham-Brown
University of Kentucky
Department of Special Education and Rehabilitation Counseling
229 Taylor Education Building
Lexington, KY 40506-0001
Teléfono: 859-257-8943
Fax: 859-257-1325
E-mail: jgleat00@uky.edu

Robyn A. Brookshire estudia para el doctorado en el Departamento de Estudios de Niños y Familias en la Universidad de Tennessee en Knoxville. Sirvió de la coordinadora del proyecto de la investigación en Head Start descrito en el presente artículo. Sus experiencias anteriores incluyen dar clases de educación especial en centros de enseñanza media y trabajar con adolescentes que estaban en peligro. Recibió la maestría del Programa Interdisciplinario de Educación de Niños Pequeños en la Universidad de Kentucky.

Robyn A. Brookshire
University of Tennessee
Department of Child and Family Studies
1215 W. Cumberland Avenue
Knoxville, TN 37996-1912
E-mail: rbrooks8@utk.edu

Xin Gao es coordinadora de investigación del Proyecto de Evaluación Kids Now en la Universidad de Kentucky. Trae a su puesto actual una preparación extensa en educación de niños pequeños y muchos años de práctica profesional en la evaluación de clases y de niños. También es estudiante doctoral en el departamento de Estudios de Familias y se enfoca en la educación de niños pequeños. Sus intereses de investigación incluyen la evaluación al nivel preescolar, la alfabetización y el desarrollo lingüístico de niños, y la evaluación de clases.

Xin Gao
College of Education, University of Kentucky
Department of Special Education and Rehabilitation Counseling
229 Taylor Education Building
Lexington, KY 40502
Teléfono: 859-257-7391
Fax: 859-257-1325
E-mail: xgao2@uky.edu