Cómo citar:

How to cite:

Contreras, Gloria (2014). Caracterización del curriculum evaluado en matemática en sexto año básico. Un estudio descriptivo en Valparaíso, Chile.  RELIEVE, v. 20 (2), art. 4DOI: 10.7203/relieve.20.2.4295

     

This article in English version

 

  Hits:  Hit counter - Contador de visitas Visitas  

CARACTERIZACIÓN DEL CURRICULUM EVALUADO EN MATEMÁTICA EN SEXTO AÑO BÁSICO. UN ESTUDIO DESCRIPTIVO EN VALPARAÍSO, CHILE

[Curriculum Characterisation Assessed in Sixth Grade Mathematics: A Descriptive Study in Valparaiso, Chile]

 

  In article in pdf format

por / by

En formato artículo en pdf

 
 

Article record

About the authors

Print this article

Contreras, Gloria (gcontrer@ucv.cl)

Ficha del artículo

 Sobre los autores

Imprimir el artículo

 

 

Abstract

    This article  presents the main results of the investigation  Curriculum Characterisation Assessed in Sixth Grade Mathematics: Guidelines for the Initial and Continuous Training of Teachers, which aims to describe and analyse what is being evaluated in sixth grade mathematics and how, in the region of Valparaiso, Chile.  A total of 103 written mathematic tests conducive to grading from 27 educational institutions were analysed.  A group of codes refers to both the formal aspects and mathematical contents, while mathematical skills were applied to these tests and respective questions (2,516).   Researchers conclude students are mainly required to provide close and unique answers, which evaluate the memorization and solution of exercises in a mechanical way, and the coverage level of the curriculum prescribed by the Ministry of Education is low, where most mathematical contents and abilities are below the sixth grade level.

 

Resumen

   Este artículo pretende dar cuenta de los principales resultados de la investigación denominada Caracterización del curriculum evaluado en sexto año básico en matemática: orientaciones para la formación inicial y continua de profesores y profesoras, cuyo objetivo principal fue describir y analizar lo que se evalúa y cómo se evalúa en matemática en dicho nivel en la región de Valparaíso, Chile. Se analizaron 103 pruebas escritas de matemática conducentes a calificación, pertenecientes a 27 establecimientos educacionales. A dichas pruebas, y a sus respectivas 2516 preguntas, se les aplicó un conjunto de códigos referido tanto a aspectos formales como de contenidos y habilidades matemáticas. Se concluye que mayoritariamente se demanda del estudiante una respuesta cerrada, única, en que se evalúa la memorización y resolución de ejercicios de forma mecánica, y que el nivel de cobertura del curriculum prescrito por el Ministerio de Educación es bajo, encontrándose muchos contenidos y habilidades matemáticas de niveles inferiores al sexto básico.  

Keywords

 Assessment of learning, mathematics, assessment impact, written tests, grading

 

Descriptores

 Evaluación del aprendizaje, matemática, impacto de la evaluación, pruebas escritas, calificación. 

 



Comentar este artículo


Artículos relacionados:

Lopez, A. (2013). Alineación entre las evaluaciones externas y los estándares académicos: El Caso de la Prueba Saber de Matemáticas en Colombia.


Volumen 20, n. 2


     La evaluación del aprendizaje puede afectar de distintas maneras a los estudiantes, pudiendo influir en su autoestima, en su motivación al aprendizaje y en su actitud hacia el docente. En particular, afecta profundamente el aprendizaje ya que, con más fuerza aún que la enseñanza, envía poderosos mensajes acerca de la disciplina que se evalúa, dado que por su intermedio se relevan y enfatizan ciertos conocimientos, habilidades y actitudes por sobre otras.

Comments to this article


Lopez, A. (2013). Alignment between standardized assessments and academic standards: The case of the Saber Mathematics Test in Colombia


Volume 20, n. 2  


   A este respecto, es importante señalar que distintas modalidades de evaluación estimulan en los alumnos distintas formas de preparar su estudio, y por lo tanto de comprometerse con el conocimiento, como a su vez promueven distintas percepciones sobre sus capacidades. Sus estrategias dependen de factores tales como el interés en la materia, la naturaleza de su motivación académica y sus percepciones de aquello que será demandado en las evaluaciones. Por otra parte, las diversas maneras de preguntar del profesor demandan distintas formas de responder y así como el conocimiento no es independiente de la manera en que el profesor lo enseña en clases, tampoco es independiente de la manera en que lo evalúa.

   Diversos estudios concluyen que para los estudiantes la evaluación es la forma más clara y directa de conocer las auténticas intenciones de sus profesores, es decir, la evaluación hace significativo el currículum (Gulikers, Bastiaens, Kirschner & Kester, 2006; Entwistle, 2000; Goñi, 2000; Scouller, 1998; Thompsom & Falchikov, 1998). Esto quiere decir que los aprendizajes que no se evalúan difícilmente se desarrollan ya que los estudiantes desplazan su atención y esfuerzo hacia aquellos contenidos y habilidades que son objeto de evaluación.

   Las revisiones más importantes sobre la influencia de la evaluación señalan, por una parte, el valor de la evaluación formativa para mejorar los aprendizajes en estudiantes de distintos niveles de escolaridad, con especial énfasis en la retroalimentación en sus diversas modalidades (Black & Wiliam, 1998). Por otra parte, Crooks (1988) en una revisión sobre evaluación formal e informal, destaca que la influencia puede ser positiva al largo, mediano y largo plazo bajo ciertas condiciones ayudando al estudiante a focalizar sus esfuerzos en aquello que es más importante, a monitorear sus propios progresos y desarrollar habilidades de autoevaluación, a motivarlos hacia el aprendizaje, a desarrollar estrategias de estudio, e incluso percepciones sobre la propia habilidad y sobre el éxito o fracaso futuro.

   Otro grupo importante de investigaciones pone el énfasis en la relación entre las características de la evaluación percibidas por los estudiantes y sus enfoques de aprendizaje. Establecen que la forma de evaluar influye en la manera en que enfocan los estudios y, por lo tanto, en el desarrollo de sus aprendizajes. Específicamente, los procedimientos de evaluación que son percibidos como inapropiados por los estudiantes tienden a fomentar en ellos enfoques de aprendizajes superficiales (Struyven, Dochy & Janssens, 2005). Por ejemplo, Scouller (1998) en un estudio cuantitativo encuentra diferencias significativas en la percepción de los estudiantes respecto de dos distintos tipos de pruebas escritas: establece que los estudiantes pueden emplear un enfoque superficial cuando preparan un examen de alternativas múltiples y uno profundo para una tarea de ensayo, ya que la última promueve un contexto de aprendizaje más apropiado y deben demostrar habilidades comunicativas de un mayor nivel.

   Algunos autores plantean que, en un escenario ideal, al enfrentarse a una tarea o pregunta de evaluación, los estudiantes ponen en juego un repertorio de conocimientos y habilidades de distinto tipo e interaccionan con el contenido y forma de la tarea o pregunta, de acuerdo a las exigencias que demanda la respuesta (Shavelson, Ruiz-Primo, Li, & Cuauhtemoc, 2003; Camilloni, Basabe & Feeney, 2009). Sin embargo, conscientes de su fundamental importancia para su vida presente y futura, comienzan tempranamente a desarrollar estrategias de sobrevivencia relacionadas con la calificación, más específicamente con cómo responder correctamente ante los procedimientos de evaluación. Tang (1994), denomina backwash a este efecto adaptativo que les producen a los estudiantes las distintas tareas de evaluación y sus niveles de exigencia, concluyendo que una de las secuelas es la búsqueda de pistas que les puedan ayudar a obtener un mejor rendimiento. 

La influencia de los procedimientos de evaluación en el aprendizaje 

   Técnicamente un procedimiento de evaluación es cualquier medio por el cual se recoge la información que interesa sobre el aprendizaje de los estudiantes. El posterior análisis de dicha información, a partir del contraste con los criterios de evaluación, permitirá emitir un juicio tanto sobre la calidad del aprendizaje como de la enseñanza y tomar decisiones con fundamento  (Himmel, Olivares y Zabalza, 1999). No obstante, cualquier discusión sobre los procedimientos de evaluación no puede realizarse teniendo sólo en cuenta el punto de vista técnico, ya que las etapas de diseño, construcción, aplicación y posterior corrección están cargadas de subjetividad.

   Así, la forma en que el profesor presenta las tareas o preguntas a sus estudiantes, el contenido disciplinario que evalúa, el formato de evaluación que escoge, e incluso las ponderaciones y escala de calificación escogida, si es que va a calificar, no constituyen elementos neutros o vacíos puesto que están íntimamente relacionados con las concepciones sobre sus estudiantes, la disciplina que enseña, el aprendizaje, la enseñanza en general y la evaluación en particular. A su vez, los estudiantes se relacionan con los procesos de evaluación desde sus propias concepciones, las que han construido en sus trayectorias escolares.

   Las pruebas escritas parecen ser en muchos países los procedimientos de evaluación más frecuentemente aplicados en las áreas humanista y científica (Barberá, 2002). En Chile, las pruebas escritas que se aplican son generalmente construidas y aplicadas por los propios profesores, situación que podría considerarse ventajosa, ya que de esta manera hay más posibilidades de resguardar la coherencia entre lo que se enseña y lo que se evalúa (validez instruccional). No obstante, las más utilizadas son las de tipo objetiva y cuestionario, con preguntas cerradas o semicerradas, que se enmarcan en lo que podríamos denominar una evaluación más bien tradicional y de orientación técnica, produciéndose un salto cualitativo entre las concepciones generales del currículum y la práctica evaluativa concreta (Barberá, 2002).

   Específicamente, en el área de matemática se encuentra una tendencia a diseñar las pruebas escritas con preguntas que vayan de lo más “fácil” a lo más “difícil”, es decir, a graduarlas en orden ascendente de acuerdo al nivel de exigencia cognitiva. Por ejemplo, las primeras preguntas están referidas a aspectos que se aprenden de memoria, después vienen aquellas en que hay que hacer cálculos y finalmente se hacen preguntas de aplicación, comúnmente denominadas “problemas” (Yañez, Castro, Castillo, Catalán & González,  2008).  

  A nivel latinoamericano, la investigación conducida por Beatriz Picaroni en aulas de primaria en diversas áreas disciplinarias en ocho países, caracteriza los procesos de evaluación en matemática como un conjunto de tareas asociadas al reconocimiento de algunos nombres y características, en especial en geometría; en que la aplicación es significada como ejercitación mecánica, más propia del cálculo aislado y sin contexto real. Esta situación disminuye la posibilidad de los niños de resignificar sus conocimientos en situaciones diferentes y adaptarlos a nuevos requerimientos (Picaroni & Loureiro, 2010).

   De la misma forma, en una investigación en España con estudiantes y profesores que imparten docencia en la etapa secundaria o en la básica, Remesal (2006) concluye que los docentes en su mayoría consideran que el foco de la evaluación del aprendizaje matemático debe estar en el resultado final, acorde con una concepción de la matemática como ciencia exacta, siendo mayormente los profesores de primaria quienes sostienen estas concepciones. En particular, trabajan en un alto porcentaje con problemas matemáticos que tienen una estructura narrativa del tipo “Datos-pregunta que pone en relación dichos datos”; seguidos de otras actividades denominadas problemas, pero que en realidad responden a la estructura de pregunta directa. Destaca la ausencia total de tareas complejas, poco definidas y amplias en que el alumno debe formular la situación a resolver e interrelacionar sus conocimientos matemáticos con los de otras disciplinas. 

Problema de investigación

   Las investigaciones citadas concluyen que las pruebas escritas, tal como son usadas en la práctica, se limitan a evidenciar un aprendizaje preferentemente memorístico; no consideran que para que el conocimiento se pueda utilizar necesita estar interrelacionado conceptualmente, pues esta es la forma en que se estructura el conocimiento, y no exigen que el estudiante relacione esos conocimientos ni con sus aprendizajes previos ni con aspectos de la vida real. Finalmente, afectan las concepciones de los estudiantes sobre la naturaleza del conocimiento disciplinario y la forma en que éste se construye.

   Dada la importancia y efectos de la evaluación del aprendizaje, en particular en el área de matemática, en que dicho proceso se realiza preferentemente a través de pruebas escritas, se diseñó una investigación descriptiva cuyo objetivo principal fue caracterizar el currículum que se evalúa y la forma en que se evalúa en sexto año básico en matemática, en establecimientos educacionales de la región de Valparaíso, Chile. Como objetivos específicos se propusieron, en primer lugar, analizar los contenidos y habilidades que se evalúan y califican a través de los procedimientos evaluativos escritos; luego, determinar y analizar el grado de coherencia existente entre el curriculum prescrito por el Ministerio de Educación y el curriculum evaluado; y finalmente, determinar y analizar las formas en qué se evalúa y califica el aprendizaje matemático a través de los procedimientos de evaluación escritos.

   Se escogió el área de matemática debido a que las habilidades involucradas, tales como resolver problemas, representar, modelar, argumentar y comunicar, tienen un rol importante en la adquisición de nuevas habilidades, construcción de aprendizajes disciplinarios y en la aplicación de conocimientos para resolver los problemas propios de la matemática (rutinarios y no rutinarios) y de otros ámbitos (Ministerio de Educación, Marco Curricular 2011). Se decidió desarrollar este estudio en el último grado de la Enseñanza General Básica, por ser el nivel en donde se culmina una etapa de la enseñanza formal, y, por lo tanto, los estudiantes estarían logrando todos los objetivos de aprendizaje que se esperan de todo el nivel básico en el sector de educación matemática. 

Método 

Población y muestra 

   Los documentos objeto de investigación en este proyecto fueron definidos formalmente como: los procedimientos de evaluación escritos, o pruebas escritas, en diversidad de formatos y extensión, diseñados y aplicados por docentes de diferentes establecimientos de la región de Valparaíso que se usan para recoger información del aprendizaje de los estudiantes de sexto año básico en matemática y que conducen a una calificación. 

Aunque el muestreo debió realizarse sobre los documentos, esto no pudo llevarse a cabo dado que no se conocía la población total de pruebas escritas. Por esta razón, se decidió que el curso de sexto básico sería la unidad muestral a partir de la cual se seleccionarían las pruebas escritas. Para conocer el número de sextos básicos en la región, se accedió al listado de colegios del Ministerio de Educación en su página de internet[1], que informaba un total de 883, constituyendo éste el número de la población original. 

  El número definitivo de la población surgió una vez que se aplicaron los siguientes criterios. Primero, se trabajaría con cursos de sexto básico simple, es decir, se excluirían aquellos de recintos carcelarios, establecimientos para niños con capacidades especiales, hogares de acogida, nivelación de estudios y educación de adultos. Segundo, se eliminarían los cursos de establecimientos educacionales rurales, como también aquellos ubicados en zonas peninsulares, como Isla de Pascua, por representar un contexto no abordable logísticamente con los recursos propios de esta investigación.

   Una vez eliminados dichos establecimientos, y en consecuencia los cursos respectivos, se constituyó una población de 791 cursos de sexto básico. Considerando un nivel de confianza de 95%, un error de 5%, una proporción p = 0.1 y su complemento 1- p = 0.9, se obtuvo una muestra global de 122 cursos. 

   De estos 122 cursos se solicitarían las pruebas escritas conducentes a calificación, aplicadas el 1º semestre en matemática. Considerando que cada profesor aplicaría en promedio cuatro pruebas escritas al semestre, la muestra definitiva se calculó en 488.

   El diseño para la selección correspondió a un muestreo por conglomerados bietápico estratificado. Los estratos definidos correspondieron a la división política de la región de Valparaíso en sus seis provincias (Los Andes, Petorca, Quillota, San Antonio, San Felipe y Marga Marga). La tabla 1 dispone del número de cursos o unidades muestrales seleccionadas por estrato, quedando todos ellos proporcionalmente representados. 

Tabla 1. Distribución de cursos por provincias

Estratos (Provincias)

Número de cursos

Valparaíso

59

Los Andes

4

Petorca

6

Quillota

13

San Antonio

10

San Felipe

9

Marga Marga

21

Total

122

   Para seleccionar los cursos se conformó una base de datos Excel que disponía los estratos (provincias), los colegios y el número de cursos de sexto básico en cada uno de ellos. Con el apoyo de un programa estadístico se realizó una selección al azar. 

Procedimiento

   En primer lugar se tomó contacto con los establecimientos educacionales cuyos cursos habían sido seleccionados para la muestra. Se pidió autorización a los directores y posteriormente a los docentes de matemática de sexto básico, obteniendo las pruebas aplicadas con calificación el primer semestre 2012. Se pidió a los docentes que firmaran un protocolo de consentimiento informado en que, además se les preguntaba por su modalidad de titulación y el marco curricular con el que trabajaban (Bases Curriculares 2012, Ajuste Curricular Revisado 2011 o ambos).

   Se presentaron algunas dificultades para recoger las pruebas escritas, siendo la principal el que muchos establecimientos educacionales se negaron a participar; en menor medida algunos docentes comprometieron sus pruebas, pero después no las enviaron, y  otros entregaron solo algunas pruebas y no todas. En estos casos se buscaron escuelas de reemplazo con el mismo procedimiento de selección al azar ya mencionado, pero las dificultades se repitieron.

   En la práctica se obtuvo un total de 103 pruebas escritas, provenientes de 27 establecimientos educacionales distintos. Aunque la cifra fue menor a lo definido, la poca variabilidad de las pruebas hizo pensar que nueva información no cambiaría sustancialmente los hallazgos.

   Para su análisis se construyó un libro de códigos, es decir, un conjunto de clasificaciones definidas previamente, cuya descripción incluye la definición, reglas de aplicación y de no aplicación, como también ejemplos.

    Los códigos formales, que fueron aplicados por estudiantes de magister en educación, estuvieron referidos a:

  • Tipo de pruebas.

  • Tipo de preguntas.

  • Tipo de instrucciones (tiempo a emplear, material a usar, formas de contestar, puntajes, conversión del puntaje a nota, entre otros).

  • Formas de ponderación aplicadas a las preguntas.

  • Modalidad de transformación de la puntuación a una nota definitiva y, por lo tanto, los requerimientos para aprobar o no el desempeño de un estudiante y concluir si la calificación refleja el aprendizaje).

  • Registro de los errores presentes en las preguntas de distinto tipo (selección múltiple, verdadero y falso, de respuesta abierta, entre otros).

   Por su parte, los códigos relativos a habilidades, contenidos, habilidades y nivel de exigencia del área matemática en cada pregunta, fueron aplicados por jueces expertos en didáctica de la matemática. Estos códigos estuvieron referidos a:

  • Habilidades presentes en el programa de matemática de sexto básico 2011, prescrito por el Ministerio de Educación.
  • Contenidos y aprendizajes esperados presentes en el programa de matemática de sexto básico 2011, prescrito por el Ministerio de Educación.
  • Nivel de exigencia de cada pregunta de acuerdo a la clasificación de habilidades TIMMS 2011 Matemática[2].

Resultados 

   Una clasificación muy utilizada para el sistema escolar en Chile se relaciona con su dependencia administrativa y financiera. Tradicionalmente las escuelas se dividen en municipales, que son establecimientos públicos de propiedad y financiamiento estatal y administrados por las municipalidades del país; particulares subvencionadas,  de propiedad y financiamiento privado, pero que reciben un financiamiento estatal por cada alumno matriculado y que asiste a clases; y las particulares pagadas, que son establecimientos de propiedad, administración y financiamiento privados (Roco, 2010). Actualmente los establecimientos municipales constituyen el 45%, los particulares subvencionados el 50% y los particulares pagados el 5% [3].

   Un elemento necesario de destacar es que existe en el país una tendencia a asociar calidad de los aprendizajes con dependencia administrativa, a partir de un análisis muy simplista de los resultados de la principal prueba estandarizada que se aplica anualmente (Sistema de medición de la Calidad de la Educación, SIMCE). Esta percepción lleva a suponer que los procesos de enseñanza, aprendizaje y evaluación, entre otros, se desarrollan con características distintivas de acuerdo a las distintas dependencias, situación que presenta matices en el caso de esta investigación.

   El número de pruebas por dependencia de los establecimientos escolares se dispone en la tabla 2. Como se observa, la mejor disposición a facilitar las pruebas escritas correspondió a establecimientos de dependencia particular subvencionada. 

Tabla 2. Frecuencia y porcentaje del número de pruebas por dependencia

Dependencia

Frecuencia

Porcentaje

Municipal

16

15,5

Particular pagada

6

5,8

Particular subvencionada

81

78,7

Total

103

100

   El acceso a establecimientos particulares pagados así como a los de carácter municipal fue más difícil. En los primeros por la reticencia a entregar sus pruebas escritas, y en los segundos por el proceso burocrático para conseguir autorizaciones con el fin de solicitar el material.

   En total, de los establecimientos mencionados, se obtuvieron datos de 27 profesores que representaban a los 27 colegios, quienes además de ceder sus pruebas, aportaron evidencia complementaria sobre sus perfiles profesionales. Una evidencia complementaria está referida a su titulación: 15 de estos profesores son básicos con mención en matemática, siete de ellos son básicos generalistas y los cinco restantes son de enseñanza media matemática.

   Si se considera la titulación de los profesores que aportaron las pruebas para su análisis, segregada por dependencia, se obtiene que los docentes básicos con mención matemática, fueron los que más instrumentos entregaron a revisión y que la mayoría de ellos son de la dependencia particular subvencionada. La información se dispone en la tabla 3. 

Tabla 3. Frecuencia y porcentaje del número de pruebas aportadas por dependencia y titulación

Tipo de titulación

Municipal

Particular pagado

Particular subvencionado

Total

 

Frecuencia

%

Frecuencia

%

Frecuencia

%

Frecuencia

%

Básico generalista

--

--

6

21,4

22

78,6

28

100

Básico con mención matemática

16

27,1

--

--

43

72,9

59

100

Enseñanza media matemática

 

 

 

 

11

100

11

100

Sin información

 

 

 

 

5

100

5

100

   Total

16

15,5

6

5,8

81

78,7

103

100

   Otro dato que aportaron los profesores fue el curriculum de matemática con el cual estaban trabajando: con el ajuste curricular, con las nuevas bases curriculares, o con ambos. La información se dispone en la tabla 4. 

Tabla 4. Frecuencia y porcentaje del número docentes por dependencia y currículum de matemática.

Dependencia

Curriculum matemática

Ajuste curricular

Ambos ajuste y bases

Bases curriculares

Sin información

 

Frecuencia

%

Frecuencia

%

Frecuencia

%

Frecuencia

%

Municipal

3

33,3

1

12,5

1

20

--

--

Particular pagada

0

0

1

12,5

0

0

--

--

Particular subvencionada

6

66,7

6

75

4

80

 

 

Total

9

100

8

100

5

100

5

100

   Como se observa, un tercio de los profesores estaba trabajando, al menos hasta el 1º semestre 2012, con el ajuste curricular, seguidos por un grupo que trabajaba con ambas modalidades de curriculum.  

a)   Tipo de pruebas y preguntas 

   Las pruebas que se recogieron presentaron muy poca variación en su formato, siendo clasificadas sólo en tres tipos: cuestionario (de respuesta semicerrada), objetiva (de respuesta cerrada) y combinada (mixtura de las dos anteriores). No se encontraron pruebas de otro tipo, por ejemplo, de ensayo. La tabla 5 dispone la distribución. 

Tabla 5. Frecuencia y porcentaje del tipo de pruebas y cantidad de preguntas que las componen.

Tipo de prueba

Pruebas obtenidas

Total de preguntas

 

Frecuencia

Porcentaje

Frecuencia

Porcentaje

Combinada

56

54,4

1589

63,1

Cuestionario

31

30,1

606

24,1

Objetiva

16

15,5

321

12,8

Total

103

100

2516

100

    La tabla 6 dispone la composición de las pruebas en función de la frecuencia y porcentaje de preguntas. Se aprecia que las preguntas encontradas fueron en su mayoría de tipo cuestionario, seguidas por aquellas de respuesta cerrada, es decir, de selección múltiple, verdadero y falso, términos pareados y completación. No obstante esta distinción, se puede afirmar que las preguntas tipo cuestionario están construidas de tal manera que también dan lugar a respuestas cerradas. Esto no solo porque se pide exclusivamente la respuesta correcta sin considerar su desarrollo, sino también por las estrategias y operaciones matemáticas involucradas.  

Tabla 6. Frecuencia y porcentaje de preguntas por tipo de prueba

 

Tipo de prueba

 

Combinada

Cuestionario

Objetiva

Tipo de pregunta

Frecuencia

%

Frecuencia

%

Frecuencia

%

V -F

90

5,7

0

 

0

 

Cuestionario

844

53,1

606

100

0

 

Selección Múltiple Simple

507

31,9

0

 

321

100

Completación

126

7,9

0

 

0

 

Términos pareados

22

1,4

0

 

0

 

 

1589

100

606

100

321

100

b)   Escala de calificaciones

 En términos de nivel de exigencia para obtener nota mínima, el punto de corte tiende a coincidir en las diferentes pruebas. Los resultados se muestran en la tabla 7.

Tabla 7. Frecuencia y porcentajes de aparición de distintos niveles de exigencia según el tipo de prueba.

Nivel de exigencia

Tipo de prueba

 

Combinada

Cuestionario

Objetiva

 

Frecuencia

Porcentaje

Frecuencia

Porcentaje

Frecuencia

Porcentaje

70%

2

3,6

5

16,1

 

 

65%

5

8,9

1

3,2

 

 

60%

47

83,9

18

58,1

15

93,8

50%

1

1,8

4

12,9

 

 

Sin información

1

1,8

3

9,7

1

6,2

Total

56

100

31

100

16

100

   Se aprecia que el nivel de exigencia más común en pruebas de matemáticas corresponde a un 60%, sin mucha diferencia entre los tipos de pruebas.  

c)   Errores cometidos en las preguntas 

   Otras categorías interesantes están referidas a algunos aspectos formales de las preguntas analizadas y que afectan la posible respuesta del estudiante induciéndolo a error. Entre ellas se encuentran la falta de instrucciones, falta de espacio para responder, poca claridad en las imágenes, mala redacción, falta de datos, resultado poco realista, trampas con las palabras. El gráfico 1 muestra el porcentaje encontrado de dichos errores en el total de preguntas. 

Gráfico 1. Porcentaje de aparición de errores generales en las preguntas.

   Como se aprecia, el error más común es falta de instrucciones (44%), seguido de falta de espacio para responder (38%), indicaciones poco claras (35%) y enunciados inverosímiles (35%).  

   A continuación se presentan ejemplos de preguntas en que se identificaron algunos de estos errores, acompañado de la respectiva descripción de la categoría.  

No hay instrucciones sobre cómo contestar. Categoría general para todas aquellas preguntas que no señalan formalmente cómo debe responder el alumno. Error encontrado en un 44% de las preguntas revisadas.  

   Ejemplo. No se hace una pregunta propiamente tal. El estudiante debe suponer que lo que se busca es el valor del número, que denominará como incógnita posteriormente.

Imagen 1- Ejemplo de error en la pregunta: faltan instrucciones 

Enunciado inverosímil. En esta categoría se agrupan todas aquellas preguntas en que el enunciado es inverosímil, demasiado artificial, imposible o absurdo. Error encontrado en un 35% de las preguntas revisadas.  

   Ejemplo. Posiblemente los estudiantes ya habían sido expuestos a ejercicios como este en clases, en que parece haber una intención de hacer más entretenido o lúdico su desarrollo. No obstante, se trata de un contexto tan artificial que puede producir confusión.

  

Imagen 2- Ejemplo de error en la pregunta: enunciado inverosímil

Indicaciones poco claras. Las indicaciones para resolver el ejercicio son poco claras en el sentido matemático, ya sea porque usa un lenguaje poco apropiado; porque en el enunciado se anuncia una cosa pero luego se pide otra, o porque se omite información clave. En todos los casos se ve afectada la respuesta del alumno. Error encontrado en un 35% de las preguntas revisadas.  

   Ejemplo. Se pide al alumno que calcule el interés, pero en realidad la tarea consiste en calcular precio de venta. 

Imagen 3- Ejemplo de error en la pregunta: resolución de problemas: poca claridad

Mala redacción. La redacción de la pregunta dificulta comprender qué es lo que debe hacer el estudiante, dando lugar a distintas interpretaciones y, por lo tanto, a diferentes respuestas. Error encontrado en un 19% de las preguntas revisadas.  

   Ejemplo. Se pregunta por la "diferencia entre los hermanos", cuando lo que se pide es la diferencia entre sus pesos. Además, la respuesta correcta es 0,11 Kg, sin embargo este resultado no se encuentra y debe suponerse que la alternativa correcta es la letra b, pero le falta la coma decimal.  

Imagen 4- Ejemplo de error en la pregunta: resolución de problemas: mala redacción

Faltan datos. En este caso se consideran preguntas en las que faltan datos de diverso tipo, por ejemplo, números o dibujos o símbolos, para responder adecuadamente y, por lo tanto, afectan la respuesta. Error encontrado en un 10% de las preguntas revisadas.  

   Ejemplo. Pregunta de selección múltiple simple con 4 alternativas, entre las que se supone hay tres distractores y sola una respuesta correcta. Como no se indica ni con palabras ni con números que acompañen la figura, de qué tipo se trata (rectángulo o cuadrado), las respuestas pueden ser varias, entre las cuales están 2 de las 4 alternativas presentadas. 

Imagen 5- Ejemplo de error en la pregunta: resolución de problemas: faltan datos

Resultado poco realista. Se agrupan aquí aquellas preguntas que dan origen a resultados pocos viables, poco realistas o imposibles. Error encontrado en un 6% de las preguntas revisadas.  

   Ejemplo. Es bastante obvio que ninguna de las alternativas presentadas, aunque entre ellas se encuentre aquella que da respuesta a la operación matematica involucrada, guarda relación con el contexto que le fue presentado al alumno. En este tipo de ejercicios el alumno procede, con razón, de forma mecánica sin considerar el contexto en el cual se inserta la tarea. 

Imagen 6- Ejemplo de error en la pregunta: resolución de problemas: resultado poco realista

   En las pruebas recogidas desde colegios de dependencia municipal, el error más común es la falta de instrucciones, mientras que en el caso de los particulares subvencionados lo es la ausencia de instrucciones junto a la redacción de enunciados inverosímiles. En el caso de los particulares pagados, el error más típico son las indicaciones poco claras, pero la poca cantidad de pruebas no permite asumir una orientación clara.  

d)   Habilidades matemáticas 

   De acuerdo a lo planteado por el MINEDUC, hay 4 habilidades centrales para el nivel de sexto básico que los estudiantes deben desarrollar en matemática (numeradas del 1 al 4 respectivamente): Resolver problemas, Argumentar y comunicar, Modelar, y Representar. Cada una de estas habilidades se divide en subhabilidades y son éstas las que han sido consideradas como códigos. 

  Se detalla el número de clasificaciones realizadas. 

  •  3 preguntas clasificadas en 1.1 Resolver problemas: Interpretar y discutir sobre la información que se dispone en una situación problemática. 

  •  7 preguntas clasificadas en 1.2 Resolver problemas: Identificar información relevante en el estudio de  situaciones problemáticas y distinguirla de la que no lo es. 

  •  14 preguntas clasificadas en 1.3 Resolver problemas: Reorganizar la información disponible para abordar situaciones problemática dadas en diversos contextos. 

  •  10 preguntas clasificadas en 1.8 Resolver problemas: Resuelve problemas en diversos contextos que requieren reorganizar la información disponible (a su vez dividido en contexto numérico o geométrico).  

  •  60 preguntas clasificadas en 3.2 Modelar: Traducir expresiones de lenguaje natural a lenguaje matemático y viceversa. 

  •  46 preguntas clasificadas en 4.1 Representar: Usar representaciones pictóricas como diagramas, esquemas y gráficos, para expresar ideas y/o razonamientos, cantidades, operaciones entre números y/o  relaciones entre objetos matemáticos. 

  •  11 preguntas clasificadas en 4.2 Representar: Realizar la tarea matemática en una misma representación.

   La información desplegada en el gráfico 2 es bastante evidente: las habilidades matemáticas correspondientes a sexto básico (Programa 2011) que son representadas en las preguntas de las pruebas analizadas son poquísimas. El 94% corresponde a subhabilidades que no son del nivel, seguido de un bajísimo 2,4% correspondiente a la subhabilidad Traducir expresiones de lenguaje natural a lenguaje matemático y viceversa. 

Gráfico 2. Habilidades evaluadas 

   En pruebas de colegios de dependencia municipal, apenas un 5% de todas las preguntas contiene alguna subhabilidad reconocible de sexto básico. Respecto de pruebas de colegios particulares subvencionados, se encuentra el mismo porcentaje, solo un 5% de las preguntas mide subhabilidades del nivel. En el caso de pruebas de colegios particulares pagados, un 11% de las preguntas corresponde a subhabilidades del nivel de sexto básico.  

e)   Contenido matemático 

  De acuerdo a lo planteado por el MINEDUC 2011, hay 4 grupos de contenidos a tratar en el nivel de sexto básico (numerados del 1 al 4 respectivamente): Unidad 1 Semestre 1, Números y álgebra I; Unidad 2 Semestre 1 Números y álgebra II; Unidad 3, Semestre 2 Geometría; Unidad 4 Semestre 2, Datos y azar. No obstante señalar el semestre, los establecimientos educacionales pueden tratar estos contenidos de acuerdo a lo que estimen conveniente. Al igual que en el caso de las habilidades, se asignaron códigos a los contenidos de cada uno de estos cuatro conjuntos. 

Se detalla el número de clasificaciones realizadas. 

  • 579 preguntas fueron clasificadas en 1.1 Números y álgebra I: Multiplicación y división de fracciones positivas y decimales positivos. 

  • 43 preguntas fueron clasificadas en 1.2 Números y álgebra I: Razón como cociente entre cantidades. 

  • 151 preguntas fueron clasificadas en 1.3 Números y álgebra I: Porcentaje: equivalencia  entre  porcentaje,  fracciones  y  meros  decimales;  determinación  de variaciones porcentuales. 

  • 49 preguntas fueron clasificadas en 2.1 Números y álgebra II: Uso de potencias de base y exponente natural para representar grandes números. 

  • 50 preguntas fueron clasificadas en 2.2 Números y álgebra II: Multiplicación y división de potencias. 

  • 45 pregunta fueron clasificadas en 2.3 Números y álgebra II: Ecuaciones de primer grado con una incógnita. 

  • 30 preguntas fueron clasificadas en 2.4 Números y álgebra II: Expresiones algebraicas en diversos contextos. 

  • 30 preguntas fueron clasificadas en 3.1 Geometría: Cálculo de ángulos interiores y exteriores en polígonos. 

  • 16 preguntas fueron clasificadas en 3.1 Geometría: Suma de ángulos interiores y exteriores en polígonos. 

  • 13 preguntas fueron clasificadas en 4.2 Datos y azar: Medidas de tendencia central: media, moda y mediana. 

  • 2132 preguntas no pudieron ser clasificadas.

Gráfico 3. Contenidos evaluados   

   Como ocurre con las habilidades matemáticas, el gráfico 3 permite corroborar que también en este caso, los mayores porcentajes de contenidos reconocidos no son propios del nivel, con casi el 60% de las preguntas. Entre los contenidos que sí son del nivel, los con mayor porcentaje de aparición general son la multiplicación y división de fracciones y decimales positivos, con 23%, porcentajes con 6%, y en mucha menor medida, multiplicación y división de potencias y uso de potencias de base y exponente natural, con 2%. 

   Si se analiza el total de preguntas al interior de su dependencia se aprecia que a nivel municipal, un 30% de las preguntas reflejan contenidos correspondientes a sexto básico, mientras que  el restante 70% son preguntas con contenidos de otros niveles. Al tomar el nivel particular pagado, el 22% evidencia contenidos del nivel y el resto de las preguntas refleja contenidos de otros niveles escolares. En el caso de los establecimientos particulares subvencionados, de su total, un 45% refleja contenidos del nivel, y las restantes preguntas corresponden a contenidos de otros niveles. Es claro que son las pruebas en el área particular subvencionada las que mejor reflejan los contenidos prescritos. 

f)   Aprendizajes esperados    

De acuerdo a lo planteado por el MINEDUC 2011, hay cuatro grupos de aprendizajes, asociados a los contenidos anteriores, que se espera que los estudiantes desarrollen cada semestre en el nivel de sexto básico en matemática (numerados del 1 al 4 respectivamente): Unidad 1 Semestre 1, Números y álgebra; Unidad 2 Semestre 1 Números y álgebra II; Unidad 3 Semestre 2, Geometría; Unidad 4 Semestre 2, Datos y azar. 

A continuación se detalla el número de clasificaciones realizadas. 

  • 72 preguntas fueron clasificadas en 1.1 Números y álgebra I: Identificar regularidades en la multiplicación y la división de un número decimal por 10, 100 ó 1.000.  

  • 96 preguntas fueron clasificadas en 1.2 Números y álgebra I: Calcular en forma escrita y mental multiplicaciones y divisiones de fracciones. 

  • 65 preguntas fueron clasificadas en 1.3 Números y álgebra I: Relacionar las fracciones impropias con números mixtos. 

  • 3 preguntas fueron clasificadas en 1.4 Números y álgebra I: Demostrar que comprenden la multiplicación y la división de decimales. 

  • 6 preguntas fueron clasificadas en 1.6 Números y álgebra I: Demostrar que comprenden las razones, utilizando material concreto, en forma gráfica y simbólica.  

  • 33 preguntas fueron clasificadas en 1.7 Números y álgebra I: Demostrar que comprenden porcentajes (en el ámbito de los números naturales) con material concreto, gráfica y simbólicamente. 

  • 34 preguntas fueron clasificadas en 1.8 Números y álgebra I: Establecer la relación que existe entre porcentajes y su expresión como fracción o decimal y aplicarla en la resolución de problemas. 

  • 156 preguntas fueron clasificadas en 2.1 Números y álgebra II: Expresar potencias de base 10 y exponente natural y aplicarlas en situaciones diversas.  

  • 34 preguntas fueron clasificadas en 2.2 Números y álgebra II: Identificar regularidades al multiplicar y dividir potencias de igual base y exponente natural. 

  • 6 preguntas fueron clasificadas en 2.4 Números y álgebra II: Reconocer ecuaciones de primer grado con una incógnita en el ámbito de los números naturales y verificar la igualdad. 

  • 12 preguntas fueron clasificadas en 3.1 Geometría: Demostrar que comprenden los ángulos.

  • 1999 preguntas no pudieron ser clasificadas.

   Se observa en el gráfico 4 que, como ha sido la tendencia en esta revisión, lo más común es la identificación de aprendizajes que son ajenos a sexto básico. Casi el 80% de los aprendizajes esperados corresponde a otros cursos.  

   Si en cambio se busca denotar los aprendizajes esperados del nivel, entonces a nivel general destacan los aprendizajes expresar potencias en base 10 y exponente natural y cálculo y multiplicación y división de fracciones.  

Gráfico 4. Aprendizajes esperados

   Respecto de la dependencia de los colegios, se puede decir que en las preguntas provenientes de los colegios municipales, un 18% de ellas evidencian aprendizajes esperados para sexto básico. En la dependencia particular pagada, el porcentaje de preguntas que responden a aprendizajes esperados del nivel equivale a apenas un 13%. Para los particulares subvencionados, las preguntas acordes con los aprendizajes esperados ascienden aproximadamente a un 23% del total en esa dependencia.  

g)   Demanda cognitiva 

   En esta dimensión se pretende identificar el nivel más alto de exigencia cognitiva que mide la pregunta, usando la clasificación TIMMS 2011 Matemática. Esta clasificación considera los siguientes niveles Conocimiento, Aplicación y Razonamiento (numerados del 1 al 3 respectivamente), y cada uno se subdivide a su vez en otros niveles. 

   El detalle es el siguiente: 

  • 403 preguntas fueron clasificadas en 1.1 Recordar: Recordar definiciones; vocabulario; unidades; hechos numéricos; propiedades de los números; propiedades de las figuras planas; convenciones matemáticas. 

  • 153 preguntas fueron clasificadas en 1.2 Reconocer/Identificar: Reconocer objetos matemáticos, por ejemplo formas, números, expresiones y cantidades; reconocer o identificar entidades matemáticas que sean equivalentes. 

  • 1246 preguntas fueron clasificadas en 1.3 Calcular: Conocer procedimientos algorítmicos para +, -, x,: o una combinación de estas operaciones con números naturales, fracciones, decimales y enteros; números aproximados para estimar cálculos; llevar a cabo procedimientos algebraicos de rutina. 

  • 82 preguntas fueron clasificadas en 1.4 Recuperar: Recuperar información de gráficos, tablas y otras fuentes; leer escalas simples. 

  • 75 preguntas fueron clasificadas en 1.5 Medir: Usar instrumentos de medición; elegir unidades apropiadas de medida. 

  • 44 preguntas fueron clasificadas en 1.6 Clasificar/ordenar: Clasificar o agrupar objetos, figuras, números, expresiones e ideas según propiedades comunes; tomar decisiones correctas con relación a la pertenencia a una clase; ordenar números y objetos según sus atributos. 

  • 4 preguntas fueron clasificadas en 2.1 Seleccionar: Seleccionar o usar un método o estrategia eficiente para resolver problemas en los que haya un algoritmo o método de solución conocido. 

  • 12 preguntas fueron clasificadas en 2.2 Representar: Representar información y datos matemáticos en diagramas, tablas, cuadros o gráficos y generar representaciones equivalentes para una entidad  relación matemática dada. 

  • 10 preguntas fueron clasificadas en 2.3 Modelo: Generar un modelo apropiado, como una ecuación, figura geométrica o diagrama para resolver un problema de rutina. 

  •  310 preguntas fueron clasificadas en 2.5 Resolver problemas de rutina: Resolver problemas estándar similares a los que se encuentran en clase; pueden pertenecer a contextos conocidos o ser puramente matemáticos. 

  •  16 preguntas fueron clasificadas en 3.1 Analizar: Determinar y describir o usar relaciones entre variables u objetos en situaciones matemáticas y hacer inferencias válidas a partir de información dada. 

  •  2 preguntas fueron clasificadas en 3.4 Justificar: Proporcionar pruebas de la validez de una acción o de la verdad de un enunciado mediante referencia a propiedades o resultados matemáticos. 

  •  3 preguntas fueron clasificadas en 3.5 Resolver problemas no rutinarios: Resolver problemas enmarcados en contextos matemáticos o de la vida real de los que es muy poco probable que los estudiantes hayan encontrado ítems similares; aplicar procedimientos matemáticos en contextos poco conocidos o complejos. 

  •  156 preguntas no pudieron ser clasificadas en estas categorías. 

     Coherente con los análisis anteriores, se evidencia en el gráfico 5 una demanda cognitiva baja, en que el 80% de las preguntas se encuentra en el nivel Conocimiento, particularmente en el subnivel Calcular con casi 50%, seguido por un 16% de Recuerdo (de nombres, definiciones, medidas, entre otros). El nivel de Aplicación apenas alcanza al 13% y el de Razonamiento no alcanza al 1%.    

Gráfico 5. Demanda cognitiva

   Respecto de posibles relaciones estadísticas entre habilidades, contenidos y aprendizajes evaluados y las variables modalidad de titulación, dependencia de los colegios o tipo de curriculum trabajado, no fue posible establecerlas debido a que la mayoría de las preguntas no pudo ser clasificada en el nivel de sexto básico. Por ejemplo, solo 150, de 2516 preguntas, pudieron ser clasificadas como habilidades de dicho nivel, proporción que no permitía establecer una tendencia respecto de las variables mencionadas.

    Dado que la mayoría de las preguntas fue clasificada en uno de los tres niveles de la demanda cognitiva TIMMS, se calcularon las correlaciones entre dicha variable y modalidad de titulación, dependencia de los colegios y tipo de curriculum trabajado, encontrándose solo una pequeña correlación significativa con la dependencia del establecimiento educacional. El valor de 0,26 sugiere que hay una tendencia a hacer preguntas de más bajo nivel en los establecimientos de dependencia municipal que en aquellos de dependencia particular subvencionada y particular pagada. No obstante, dado el escaso número de pruebas de escuelas particular pagadas, esta conclusión se reduce solo a establecimientos municipales y particulares subvencionados. 

    Respecto de las habilidades, contenidos y aprendizajes evaluados en las pruebas analizadas, hay que recordar que los profesores entregaron pruebas del primer semestre 2012, existiendo la posibilidad de que muchos aspectos sean evaluados en el transcurso del 2º semestre 2012. Por otra parte, algunos docentes declararon estar usando las nuevas bases curriculares (2012), y otros, estar en transición entre el 2011 y el 2012.  

h)  El manejo disciplinario del contenido

   Aunque no era una dimensión o categoría preestablecida, se ha considerado importante destacar que 215 preguntas, es decir, el 8,5% del total, presentan errores relacionados con el dominio del contenido matemático por parte de los profesores. Estos errores son de diverso tipo y a continuación se presentan ejemplos y la discusión respectiva. 

   Ejemplo 1. La pregunta pretende medir  la comprensión del concepto de área de un polígono, sin embargo, tres de las alternativas no tienen relación con algún atributo de medida de la figura, sino más bien a atributos de elementos que componen la  figura: contorno de la figura, la superficie, altura y base de la misma. La única alternativa que se refiere a “medida” es la (B), pero no se refiere a la medida de la superficie, sino que a la medida de los lados de la figura. Las alternativas de respuesta son, en su totalidad, ambiguas. Pareciera haber una confusión conceptual entre el área del polígono (medida de la  superficie encerrada por el polígono) con la superficie encerrada por el polígono.   

Imagen 7- Ejemplo de error en la pregunta: resolución de problemas: confusión conceptual

    Ejemplo 2. El área del triángulo no se puede calcular, a menos que se supongan condiciones que no están dadas en la consigna ni en  la figura.  

Imagen 8- Ejemplo de error en la pregunta: resolución de problemas: faltan datos

    Ejemplo 3. En este caso, las medidas de los lados del triángulo presentado como esquema no son posibles.  

Imagen 9- Ejemplo de error en la pregunta: resolución de problemas: caso imposible

i)   Presencia de aprendizajes escritos a evaluar

   Expresar por escrito los aprendizajes que se van a medir en las pruebas es una característica deseable pues orienta tanto al profesor como al estudiante y, en términos ideales, dichos aprendizajes debieran coincidir con los objetivos educacionales propuestos por el MINEDUC. Si hay coherencia entre los objetivos propuestos, enseñados, aprendidos y evaluados, entonces algunos autores hablan de “alineamiento curricular”. 

   En esta categoría se pretenden analizar las pruebas en que se encuentran declarados estos aprendizajes, en relación a su grado de coherencia con lo que efectivamente están midiendo. De las 103 pruebas analizadas, 51 señalan por escrito cuáles aprendizajes pretenden medir, aunque han sido denominados de distintas maneras: objetivos, habilidades, capacidades, criterios, destrezas.  

   Respecto de la redacción, estos aprendizajes deben contar con algunas características para que efectivamente orienten la evaluación.  

a)     Deben redactarse en función del estudiante pues expresan un conjunto de habilidades y contenidos que debe desarrollar, producto de la enseñanza, y que deben ser objeto de evaluación. De las 51 pruebas, hay 7 en que esto no ocurre pues estos aprendizajes están expresados en función del docente, vale decir, se enuncia el propósito del docente a partir de la aplicación de la evaluación.  Ejemplo:  

Imagen 10- Redacción desde perspectiva del docente 

b)    Los aprendizajes declarados deben señalar, al menos, los contenidos y habilidades. De las 51 pruebas, hay 6 en que está presente solo uno  de estos dos elementos, o sencillamente ninguno de los dos está presente, por lo cual no exste claridad sobre lo que se espera que evidencien los estudiantes con la aplicación de la prueba construida. Ejemplo: 

Imagen 11- Redacción que no expresa contenidos o habilidades 

c)     Los aprendizajes deben expresarse con verbos respecto de los cuales exista un amplio grado de acuerdo sobre lo que involucran, ya que esto otorga claridad sobre lo que se espera que desarrolle y posteriormente evidencie el estudiante. De las 51 pruebas, hay 6 en que el aprendizaje es tan amplio que no es posible establecer un juicio sobre si los estudiantes lo han desarrollado o no. En el siguiente ejemplo se muestra solo un ejercicio, pero la prueba contiene varios del mismo estilo.  

Imagen 12- Redacción ambigua 

d)    De las 51 pruebas, hay 14 en que las preguntas miden habilidades inferiores a lo declarado en  los objetivos.  

En el ejemplo siguiente se aprecia que hay 3 objetivos de aprendizaje a medir, y un conjunto de ejercicios. Estos ejercicios no apuntan a ninguno de los 3 objetivos señalados ya que corresponden a la aplicación rutinaria de un algoritmo y, además, deben poner solo el resultado. El profesor no obtiene con esto evidencia de análisis, interpretación o resolución de problemas. Hay que destacar que los restantes ejercicios de la prueba son similares.

Imagen 13- Redacción que expresa  habilidades superiores a las evaluadas 

e)     Finalmente, de las 51 pruebas, se puede decir que solo 18 presentan coherencia entre lo que declaran que medirán y lo que efectivamente miden. Este número equivale al 17% del total de la muestra y a un 35% de las pruebas en las que se han declarado los aprendizajes. 

Discusión

   En este apartado se presentan las conclusiones de acuerdo a los objetivos específicos y luego, una discusión de carácter más general acerca de la calidad de los procedimientos de evaluación sometidos a análisis y sus implicancias.

   Respecto del primer objetivo específico, analizar los contenidos y habilidades que se evalúan y califican a través de los procedimientos evaluativos escritos, un primer aspecto a señalar es que las habilidades que deben demostrar los estudiantes en estas pruebas, corresponden en su mayoría a niveles inferiores al sexto básico y las que sí corresponden a dicho nivel representan una demanda cognitiva muy baja, referida a aspectos memorísticos y mecánicos. Por ejemplo, no se encontraron preguntas referidas a las habilidades explicar y fundamentar sus procedimientos y deducciones, o a evaluar estrategias de resolución desarrolladas y su pertinencia.

   El análisis de los contenidos y aprendizajes esperados entrega un panorama parecido en cuanto a que la mayoría no corresponde al sexto básico, en tanto que aquellos que sí son del nivel están concentrados en operaciones básicas con fracciones y decimales positivos. La demanda cognitiva TIMMS se concentra mayoritariamente en aspectos de recuerdo y cálculo.

   Respecto de otras características, se trata de tareas en que los estudiantes aplican sus conocimientos en forma parcelada y no integrada, siguiendo una rutina lineal establecida de antemano. Una gran porción se presenta descontextualizada y, cuando se presenta, esta contextualización no se relaciona con aspectos de su vida real, con el agravante de ser muy artificial, irreal o inexistente. Wiggins (1990) señala que idealmente las tareas de evaluación que se presentan a los estudiantes deben ser auténticas en el sentido que sean iguales o parecidas a como se presentan en la vida real o en el mundo laboral, ya que involucran retos y roles que ayudan a los estudiantes a ensayar las ambigüedades complejas del «juego» de la vida adulta y profesional Por lo tanto, debiera tratarse de un conjunto de tareas que refleje la complejidad del mundo real, para lo cual los estudiantes deben diseñar, organizar, discutir, aplicar, justificar, evaluar.

   Se puede afirmar que en las pruebas analizadas se significa a la matemática como un cuerpo objetivo, una realidad externa ya dada, en que las tareas tienen una respuesta correcta o incorrecta. Estas características afectan la validez de las pruebas ya que, por una parte, hay muchos procesos fundamentales de la matemática que no se están evaluando y, por otra, en las pruebas no se evalúa lo que los profesores declaran que van a evaluar. Por lo tanto, estamos en presencia de procedimientos de evaluación que mayoritariamente no nos permitirán levantar inferencias válidas respecto de lo que serán capaces de hacer los estudiantes (Popham, 2010).

   En una perspectiva actualizada de la evaluación en matemática, ésta es una instancia de aprendizaje para los estudiantes; las tareas exigen un nivel de reflexión superior, tratando sobre temas cotidianos pero complejos, que exijan la utilización integrada de diversos tipos de conocimientos, y además tiene un  cierto margen de apertura y permiten distintas respuestas (Borko, Mayfield, Scott, Flexer & Cumbo, 1997), considerando los errores como fuente de aprendizaje (Bainbridge, Ellis & Wolodko, 2003; Gearhart & Saxe, 2004). En esta investigación, se concluye que el tipo de preguntas, la escasa cantidad de problemas matemáticos y la nula presencia de preguntas tipo ensayo, ofrecen un panorama que no favorece ni el aprendizaje ni la enseñanza de la matemática. 

   Aunque estos análisis se han realizado solo sobre los procedimientos de evaluación escritos, particularmente pruebas, se puede pensar que son los que mayoritariamente usan los profesores para asignar calificaciones y que, por lo tanto, si hay habilidades, aprendizajes esperados y contenidos que no son objeto de pruebas escritas, tampoco se evalúan por medio de otros procedimientos.

   Respecto del segundo objetivo específico, determinar y analizar el grado de coherencia existente entre el curriculum prescrito por el Ministerio de Educación y el curriculum evaluado, se debe recordar que el referente para comparar fue el programa de matemática de sexto básico del año 2011, asignándose códigos a las subhabilidades, contenidos y aprendizajes esperados presentes en dicho programa y, que, además, se utilizó la clasificación de demanda cognitiva de TIMMS de matemática 2011.  

   El 94% de las preguntas evalúa subhabilidades que corresponden a niveles inferiores al sexto básico; el 60% de los contenidos evaluados no corresponde al sexto básico, encontrándose incluso contenidos de 1er básico; el 76% de las preguntas mide aprendizajes de niveles inferiores, y el nivel TIMMS evaluado de preferencia es Conocimiento.

    Por lo tanto se podría decir que a medida que transcurre el semestre hay, en general, una baja progresión en cuanto a contenidos, una muy baja progresión en los aprendizajes esperados, y casi nula en relación a las habilidades. Dicho de otra manera, se van cubriendo contenidos distintos, pero sobre las mismas habilidades rutinarias, lo cual da cuanta de un bajo grado de alineación curricular (Lopez, 2013).

    Para el tercer objetivo específico, determinar y analizar las formas en qué se evalúa y califica el aprendizaje matemático a través de los procedimientos de evaluación escritos, se puede concluir, en primer lugar, que la mayoría de las pruebas usadas son de tipo cuestionario, seguidas por las pruebas combinadas, compuestas por preguntas tipo cuestionario y preguntas cerradas de todo tipo y finalmente se encuentran las pruebas objetivas. Las preguntas son en su mayoría de respuesta cerrada, es decir, de selección múltiple, verdadero y falso, términos pareados y completación.

    Aunque se cuenta con un gran número de preguntas, puede decirse que, respecto de su formato, entre ellas son muy similares, y en algunos casos, iguales. En el enunciado se presentan los datos estrictamente suficientes y necesarios como para resolver la tarea, sin presencia de otra información, como ocurre en la vida real en que hay que seleccionar datos para resolver una situación problemática. Por lo mismo, se demanda una respuesta expresada en forma de números, más alguna unidad de medida. No hay tareas complejas, ambiguas, poco definidas y amplias en que el alumno debe formular el problema, seleccionar los datos de entre varios otros, resolver y evaluar su respuesta de acuerdo al contexto, por lo tanto, no se demandan explicaciones, argumentaciones o justificaciones

    Respecto del soporte comunicativo, la mayoría de las preguntas se realiza mediante un soporte verbal-numérico, seguido de soporte verbal-gráfico. En este último caso se trata de dibujos, no encontrándose gráficos.

    Sobre las instrucciones, en su mayoría se refieren a cómo se deben presentar las respuestas, lo que hace pensar que las restantes se dan de manera oral, o que hay una cierta rutina conocida por el alumno respecto del tiempo a emplear, materiales a utilizar, o consultas que se pueden realizar. No hay instrucciones referidas a que los alumnos busquen alguna información más allá de la que estrictamente se le da en la prueba en general y en cada pregunta. Un ejemplo de esto podría ser que le pidieran que busque información en el colegio, en el comercio cercano o inclusive en sus casas.

    La organización de los alumnos parece ser individual en todos los casos y, dado que en la mayoría no hay indicaciones sobre el tiempo a emplear y por la extensión de las pruebas, parecen estar diseñadas para ser aplicadas en un bloque de clases de una o dos horas pedagógicas. Salvo algunas excepciones, no se encuentran pruebas en que el estudiante deba autoevaluarse o coevaluar a algún compañero. Las tres excepciones encontradas referidas a la autoevaluación se centran en consultar al alumno sobre aspectos personales y no sobre su aprendizaje matemático.

    Queda la impresión, por el tipo de preguntas y respuestas esperadas, por las instrucciones y el poco o nulo espacio para que los estudiantes expresen por escrito su razonamiento, que los profesores no proyectan realizar procesos de retroalimentación, al menos al momento de corregir las pruebas. Al desconocer la naturaleza de los errores cometidos por sus estudiantes, se quedan sin una importante base para tomar decisiones fundamentadas.

    Respecto de los sistemas de calificación utilizados, en la mayoría de las pruebas se encontró una tendencia a asignar ponderaciones o puntajes más bien por agrupaciones de tipos de preguntas que por el tipo de aprendizaje o nivel de exigencia cognitiva involucrado en ellas. Por ejemplo, se encuentran grupos de preguntas de selección múltiple en que todas valen lo mismo, aunque las habilidades y contenidos que se evalúan sean diferentes. En los casos en que las pruebas contienen distintos tipos de preguntas, se pondera con más puntaje aquellas en que el estudiante debe escribir el desarrollo.

    La escala de calificación empleada de preferencia es la del 60%. Para esto los profesores deben contar con una tabla o programa que les permita transformar el puntaje a nota del 1 al 7, que es la escala oficial del sistema escolar a nivel país A este respecto es necesario señalar que en las pruebas no se establece condición alguna para alcanzar la nota mínima, más que sumar el 60% del total del puntaje. Dado que las preguntas se ponderan sin consideración al nivel de exigencia cognitiva, puede darse el caso que dos estudiantes pueden sumar este total, 60%, de maneras muy distintas, evidenciando por lo tanto aprendizajes distintos, pero obteniendo ambos la nota mínima 4.0. En este caso los 4.0 no son comparables.

    Lo anterior indica que, en general, las habilidades, aprendizajes esperados y contenidos presentes en el programa de sexto básico 2011 no son considerados como orientadores para la ponderación y posterior calificación, como tampoco lo son los aprendizajes que los mismos profesores han explicitado por escrito que van a evaluar. Se puede decir que el puntaje y la nota no otorgan mayor información sobre el aprendizaje de sus alumnos pues pareciera no haber relación explícita entre los puntajes y calificaciones que obtienen los estudiantes y ciertos niveles de aprendizaje conocidos y comprendidos por los profesores. Si bien es cierto, la escala utilizada de alguna manera implica niveles de aprendizaje, en la práctica parece tener vida independiente.

    Finalmente, la cantidad de pruebas sin espacio para responder, planteamientos un tanto inverosímiles o artificiales y en algunos casos alejados de la realidad del alumno, resultados poco realistas e incluso la falta de datos o problemas de redacción, indican que la fuente de la dificultad de muchas preguntas está fuera de las habilidades y contenidos matemáticos, e inducen al alumno a suponer qué tipo de respuesta espera el profesor respectivo, sin considerar si esa respuesta es adecuada al contexto en el que se inserta la pregunta. Como señala Barberá (1997), los estudiantes se quedan sin poder tomar decisiones y establecer relaciones significativas entre la pregunta, los resultados que obtienen y la información que se les entrega. Es decir, se promueve la tan criticada mecanización en la respuesta, la adaptación del alumno y su búsqueda de pistas por la respuesta correcta.

    En síntesis, se observa una marcada tendencia a desarrollar procesos de evaluación excesivamente tradicionales enmarcados en un enfoque técnico y, por lo tanto, desactualizado. Se podría afirmar que estamos frente a la evaluación comprendida como medición; que se usa preferentemente para calificar y no para modificar la enseñanza o el aprendizaje pues el docente no aprende de este proceso; en que el rol del estudiante es muy pasivo y por lo tanto, el aprendizaje es fuertemente dependiente del profesor; en que se promueve un conocimiento escolarizado y que provoca que al alumno le asigne un valor de cambio, en este caso la calificación, al aprendizaje. La impresión es que la evaluación se hace para que el profesor cumpla un trámite administrativo y  no tiene valor para el estudiante.

    Esta falta de conocimientos por parte de los profesores sobre nuevos enfoques de evaluación, en especial aquel con sentido formativo, les impide comprender su importancia y potencial para mejorar los aprendizajes, como también les impide tomar conciencia del efecto negativo que producen en los estudiantes los procesos de evaluación mal llevados.  

Referencias

Bainbridge, J., Ellis, M. & Wolodko, B. (2003). Writing to Succeed in Elementary School Mathematics. International Electronic Journal for Leadership in Learning, 7 (18). Disponible en http://www.ucalgary.ca/~iejll/volume7/bainbridge2.htm

Barberá, E. (1997).  La evaluación escrita en el área matemática: contenido y tendencias. Anuario de Psicología, 72, 21-41. Disponible en http://www.raco.cat/index.php/AnuarioPsicologia/article/viewFile/61344/96235?origin=publication_detail

Barberá, E. (2002). Evaluación escrita del aprendizaje (I): la evaluación como escenario educativo. Teoría y Didáctica de las Ciencias Sociales, 7, 25-36. Disponible en http://www.redalyc.org/articulo.oa?id=65200712

Black, P. & Dylan, W. (1998). Assessment and classroom learning. Assessment in Education, 5(1), 7 – 74.

Borko, H., Mayfield, V., Scott M., Flexer, R. & Cumbo, K. (1997). Teachers' Developing Ideas and Practices about Mathematics Performance Assessment: Successes, Stumbling Blocks, and Implications for Professional Development. Teaching & Teacher Education, 13(3), 259-278.

Camilloni, A, Basabe, L. & Feeney, S. (Septiembre 2009). Los formatos de evaluación de los aprendizajes y sus relaciones con las modalidades de estudio de los alumnos universitarios. Perspectivas de investigación y marcos de análisis. Ponencia presentada en el Primer Congreso Internacional de Pedagogía Universitaria. Secretaria de Asuntos Académicos de la Universidad de Buenos Aires, Argentina. Disponible en http://www.ungs.edu.ar/cienciaydiscurso/wp-content/uploads/2011/11/Camilloni-Basabe-Feeney-20091.pdf

Cortés, J. (2009). Tipos de evaluación e instrumentos de evaluación. Madrid: Cátedra.

Crooks, T. (1988). The impact of classroom evaluation practices on students. Review of educational research, 58, 428-481.

Entwistle, N. (November 2000). Promoting deep learning through teaching and assessment: conceptual frameworks and educational contexts. Paper presented at the TLRP Conference, Leicester. Disponible en http://www.etl.tla.ed.ac.uk/docs/entwistle2000.pdf

Gearhart, M. & Saxe, G. (2004). When teachers know what students know: integrating mathematics assessment. Theory into Practice, 43(4), 304-313.

Goñi, J. (2000). Los procedimientos seguidos en la evaluación en matemáticasAula de innovación educativa, 6(9), 93-94.

Gulikers, J., Bastiaens, T., Kirschner, P. & Kester, L. (2006) Relations between Student Perceptions of Assessment Authenticity, Study Approaches and Learning Outcomes. Studies in Educational Evaluation, 32, 381-400.

Himmel, E., Olivares, M. A. & Zabalza, J. (1999). Hacia una Evaluación Educativa. Aprender para evaluar y Evaluar para Aprender. Santiago: MINEDUC – PUC.

Lopez, A. (2013). Alineación entre las evaluaciones externas y los estándares académicos: El caso de la prueba Saber de Matemáticas en Colombia. RELIEVE, 19(2).  DOI: 10.7203/relieve.19.2.3024

MINEDUC (2011). Programa de Matemática sexto básico. Disponible en http://www.mineduc.cl

Picaroni, B. & Loureiro, G. (2010). Qué matemática se enseña en aulas de sexto año de Primaria en escuelas de Latinoamérica. Páginas de educación, 3(3), 29-60.

Popham, J. (2010). Everything school leaders need to know about Assessment. California: Corwin.

Remesal, A. (2006). Los problemas en la evaluación del área de matemáticas en la educación obligatoria: perspectiva de profesores y alumnos. Tesis Doctoral presentada en la Universidad de Barcelona. Barcelona: España.

Roco, R. (2010). Caracterización de los establecimientos educacionales en Chile: la necesidad de nuevas consideraciones. Ponencia presentada al Primer Congreso Interdisciplinario de Investigación en Educación, CIAE, Universidad de Chile y CEPPE, Pontificia Universidad Católica de Chile.

Scouller, K. (1998). The Influence of Assessment Method on Students' Learning Approaches: Multiple Choice Question Examination versus Assignment Essay. Higher Education, 35(4), 453-472.

Shavelson R., Ruiz-Primo M. A., Li, M. & Cuauhtemoc, C. (2003). Evaluating New Approaches to Assessing Learning CSE. Report 604. CRESST. Los Angeles. Disponible en http://www.cse.ucla.edu/products/reports/r604.pdf

Struyven, K., Dochy, F. & Janssens, S. (2005). Students' perceptions about evaluation and assessment in higher education: a review. Assessment & Evaluation in Higher Education, 30(4), 325 – 341.

Tang, C. (1994). Assessment and student learning: Effects of modes of assessment on students' preparation strategies. In G. Gibbs (Ed.) Improving student learning: Theory and practice. (pp. 151-170). Oxford, UK: Oxford Brookes University, The Oxford Centre for Staff Development. Disponible en http://teaching.polyu.edu.hk/datafiles/R126.pdf

Thompsom, K. & Falchikov, N. (1998). “Full on until the sun comes out”: The effects of assessment on student’s approaches to studying. Assessment and Evaluation in Higher Education, 23(4), 379 - 390.

Wiggins, G. (1990). The case for authentic assessment. Practical Assessment, Research & Evaluation, 2(2). Disponible en http://pareonline.net/getvn.asp?v=2&n=2

Yañez, V., Castro, A., Castillo, R., Catalán, C. & González, M.  (2008). Prácticas evaluativas de profesores de matemática de enseñanza media, con énfasis en la resolución de problemas, Investigaciones en educación, VIII(1), 105-124. Disponible en  http://dungun.ufro.cl/~mageduc/docs/rie_2008vol1.pdf 


 NOTAS


AGRADECIMIENTOS 

   Esta investigación es resultado del proyecto FONIDE F621115-2011, financiado por el Fondo de Investigación y Desarrollo en Educación del Ministerio de Educación de Chile. 

   Se agradece muy especialmente a Patricia López C., Pablo Cáceres S., Karen Nuñez V., Rocío Poblete S., Pamela Contreras B., Andrés Moya D. y Javier Santis T.

 


  

ABOUT THE AUTHORS - SOBRE LOS AUTORES

Contreras, Gloria (gcontrer@ucv.cl). Profesora en la Pontificia Universidad Católica de Valparaíso (Chile), la autora es profesora de Matemáticas y Física, magister en Evaluación Educativa y doctora en Ciencias de la Educación. Se especializa en evaluación del aprendizaje en el aula, en distintos niveles de escolaridad, con énfasis en el potencial formativo de la evaluación. También tiene como línea la evaluación de la docencia, tanto a nivel escolar como universitario. Su dirección postal es: Avenida El bosque 1290, Viña del Mar, V región, Chile.  Buscar otros artículos de esta autora en Google Académico / Find other articles by this author in Scholar Google

 


ARTICLE RECORD / FICHA DEL ARTÍCULO

Reference /

Referencia

 Contreras, Gloria (2014). Caracterización del curriculum evaluado en matemática en sexto año básico. Un estudio descriptivo en Valparaíso, Chile.  RELIEVE, v. 20 (2), art. 4DOI: 10.7203/relieve.20.2.4295  

Title / Título

 Caracterización del curriculum evaluado en matemática en sexto año básico. Un estudio descriptivo en Valparaíso, Chile. [Curriculum characterisation assessed in sixth grade in mathematics. A descriptive study in Valparaiso, Chile].

Authors / Autores

  Contreras, Gloria

Review / Revista

  RELIEVE  (Revista ELectrónica de Investigación y EValuación Educativa), v. 20 n. 2

ISSN

1134-4032

Publication date /

Fecha de publicación

 2014 (Reception Date: 2014 March 20 ; Approval Date: 2014 October 28. Publication Date: 2014 October 30)

Abstract / Resumen

     This article  presents the main results of the investigation  Curriculum Characterisation Assessed in Sixth Grade Mathematics: Guidelines for the Initial and Continuous Training of Teachers, which aims to describe and analyse what is being evaluated in sixth grade mathematics and how, in the region of Valparaiso, Chile.  A total of 103 written mathematic tests conducive to grading from 27 educational institutions were analysed.  A group of codes refers to both the formal aspects and mathematical contents, while mathematical skills were applied to these tests and respective questions (2,516).   Researchers conclude students are mainly required to provide close and unique answers, which evaluate the memorization and solution of exercises in a mechanical way, and the coverage level of the curriculum prescribed by the Ministry of Education is low, where most mathematical contents and abilities are below the sixth grade level.

     Este artículo pretende dar cuenta de los principales resultados de la investigación denominada Caracterización del curriculum evaluado en sexto año básico en matemática: orientaciones para la formación inicial y continua de profesores y profesoras, cuyo objetivo principal fue describir y analizar lo que se evalúa y cómo se evalúa en matemática en dicho nivel en la región de Valparaíso, Chile. Se analizaron 103 pruebas escritas de matemática conducentes a calificación, pertenecientes a 27 establecimientos educacionales. A dichas pruebas, y a sus respectivas 2516 preguntas, se les aplicó un conjunto de códigos referido tanto a aspectos formales como de contenidos y habilidades matemáticas. Se concluye que mayoritariamente se demanda del estudiante una respuesta cerrada, única, en que se evalúa la memorización y resolución de ejercicios de forma mecánica, y que el nivel de cobertura del curriculum prescrito por el Ministerio de Educación es bajo, encontrándose muchos contenidos y habilidades matemáticas de niveles inferiores al sexto básico.  

Keywords / Descriptores

  Assessment of learning, mathematics, assessment impact, written tests, grading

  Evaluación del aprendizaje, matemática, impacto de la evaluación, pruebas escritas, calificación. 

Institution / Institución

 Pontificia Universidad Católica de Valparaíso (Chile)

Publication site / Dirección

http://www.uv.es/RELIEVE 

Language / Idioma

Español & English version (Title, abstract and keywords in English & Spanish)

 

Volumen 20, n. 2

 

© Copyright, RELIEVE.  Reproduction and distribution of this article  is authorized if the content is no modified and its origin is indicated (RELIEVE Journal, volume, number and electronic address of the document).

© Copyright, RELIEVE.  Se autoriza la reproducción y distribución de este artículo siempre que no se modifique el contenido y se indique su origen (RELIEVE, volumen, número y dirección electrónica del documento).

[ ISSN: 1134-4032 ]

Revista ELectrónica de Investigación y EValuación Educativa

E-Journal  of  Educational  Research, Assessment  and  Evaluation

 

  http://www.uv.es/RELIEVE

 relieve@uv.es

Statistics  Free counter and web stats  Estadísticas