Debate del IIIer
Congreso Virtual de AIDIPE
(16-31-Octubre-2002)
EVALUACIÓN DOCENTE vs. EVALUACIÓN DE LA CALIDAD
Universidad
de La Coruña
Date: Wed, 16 Oct 2002 17:15:17 +0200
From: Miguel Muñoz <munoz@UDC.ES>
Estimados
compañeros/as:
Es
hora ya de comenzar con el congreso virtual de aidipe. Como coautor de la
ponencia que se nos encargó quiero animaros a que participéis con vuestros
análisis, interpretaciones, opiniones, ... y demás, que os parezca sobre el
tema elegido. Éste no ha sido por casualidad y viene a poner encima de la mesa
las preguntas que compañeros de la docencia y miembros de la comunidad
universitaria, han sacado a relucir durante muchas conversaciones académicas,
de pasillos, de sobremesa, de café,... durante muchos años.
A
las preguntas que se realizan al final de la intervención para fomentar el
debate:
los
autores tenemos nuestra propia opinión y que, seguramente, no es la de cada uno
de vosotros. Gracia a Dios no estamos cortados todos por el mismo patrón y
tenemos formas de entender las realidades que se nos presentan de manera
también diferente.
Estas
diferencias es el motor de la discusión y del intercambio de experiencias y
pareceres.
Espero
que esta ponencia os sirva, como nos sirvió a nosotros, para reflexionar un
poco más sobre el tema de la evaluación docente y, su relación con la
evaluación institucional (salvando las distancias entre una
y
otra como quedó dicho durante el desarrollo del trabajo.
Muchas
gracias de antemano por vuestras intervenciones que serán enormemente valiosas
y formativas y que este congreso sea un éxito merced de vuestras valiosas
intervenciones.
Jesús Miguel Muñoz Cantero
Date: Wed, 16 Oct 2002 14:53:40 +0200
From: "Francisco M. Aliaga" <Francisco.Aliaga@UV.ES>
Subject: 3CV: ¿Una para todos?
Hola aidiperos:
A partir de hoy se
pueden empezar a enviar comentarios y/o
preguntas sobre la ponencia del III Congreso Virtual de AIDIPE. Recordad que podéis encontrar el texto en http://www.uv.es/aidipe/CongVirtual3/Ponencia3.htm
Para abrir el fuego me
gustaría plantear una cuestión que es casi una duda filosófica. He visto que
además de una interesante revisión y puesta en común de los cuestionarios de
evaluación del profesorado a partir de la opinión de los alumnos. Que luego han
elegido los items más habituales y que los han pasado a una pequeña muestra,
procedente de distintas titulaciones, para ver sus cualidades y estructura
factorial.
En primer lugar tengo
algunas dudas sobre la validez aparente de algunos items (no es que los ponga
en duda, es que no lo tengo claro). Así, por ejemplo el item 40 "El nivel
de esfuerzo dedicado es elevado", además de no saber de quien es el
esfuerzo (del profesor o el alumno) me plantea el problema de si hacer algo con
esfuerzo es más propio de un buen profesor que de uno malo. Lo mismo con el
item 39 (si el alumno ha dedicado más esfuerzo que a otras asignaturas).
En algunos casos (item
34 -"imparte suficientes clases prácticas de pizarra" y 35
"suficientes clases prácticas) este tipo de items, muy particulares (se
refieren en general a algún tipo de prácticas muy concretas, no siempre
necesarias o convenientes-¿para qué quiere prácticas de pizarra un alumno de
informática, por ejemplo?) me plantea la duda de si la búsqueda de un único
cuestionario válido para todos los casos es conveniente. Muy probablemente, ser
un buen profesor exige estrategias docentes distintas en filosofía que en
cálculo matemático o en informática de gestión.
Es decir, no sé si debemos suponer hay un "rasgo
latente" (la "bondad de la docencia") común a todos o deberíamos
de suponer que hay factores distintos. Me gustaría oir algunas impresiones al
respecto.
--
*****************************************************************************
Francisco.Aliaga@uv.es
Departamento de Métodos de Investigación y Diagnóstico en
Educación
Universidad de Valencia (Spain)
*****************************************************************************
Date: Wed, 16 Oct 2002 12:05:12 -0400
From: Lourdes Sainz Leyva <lsainz@NTGESTA.CO.CU>
Subject: 3CV
Hola colegas:
Me parece muy buena la idea de este congreso virtual.
He accedido a la ponencia de partida del congreso cuyo tema es
bien importante.
La evaluación del profesorado constituye un tema delicado. La
evaluación educativa en general es un tema bien complicado. Y creo que en parte
porque a la evaluación se le han asignado funciones muy conflictivas. Pero creo sinceramente que la evaluación, de
cualquiera de los componentes educativos (aprendizaje, del alumno, institucional, del proceso, etc)siempre debe
ser ante todo FORMATIVA, EDUCATIVA, que contribuya realmente al mejoramiento
del objeto que se evalúa.
Muchos profesores rechazan este proceso de evaluación justamente
por lo poco que puede aportar al mejoramiento real, humano, de la persona
implicada. Como utilizar los resultados de tal evaluación es uno de los
aspectos a valorar y lograr que sean bien utilizados en pos de ese
perfeccionamiento que deseamos.
Otro de los problemas de la evaluación de los docentes es el
tipo de instrumentos que se utiliza para ello y como dicho instrumento puede
ser lo mas objetivo posible para lograr una información confiable.
Seguiremos intercambiando opiniones.
Y muchas gracias por la invitación al congreso y el esfuerzo de
los que se han implicado en tal actividad.
Lourdes Sainz
lsainz@ntgesta.co.cu
telef. 2054061
Ciudad Habana, Cuba
Date: Tue, 22 Oct 2002 10:42:26 +0200
From: Juan Carlos Tójar <jc_tojar@UMA.ES>
Subject: 3CV
Encantado de participar en
este foro. En primer lugar deseo felicitar a los compañeros de la Universidad
de la Coruña por la ponencia presentada.
Creo que se trata de un tema de gran relevancia en el ámbito
universitario, y que los profesores universitarios que nos dedicamos a la
investigación educativa , y en muchos casos además a la evaluación, no podemos
desaprovechar la ocasión para debatir sobre el mismo.
Habría muchas cosas que decir pero trataré de ser breve en esta
primera intervención.
Creo que no es gratuito insistir que evaluación de la docencia
no es sinónimo de evaluación del profesorado, aunque existan áreas comunes.
Tampoco es lo mismo identificar con las evaluaciones mencionadas anteriormente
la realizada únicamente mediante cuestionarios de opinión del alumnado. Los
autores de la ponencia plantean acertadamente las diversas técnicas de recogida
de información sobre la evaluación docente del profesorado, pero es verdad que
para la mayor parte del profesorado universitario (no experto en estas
cuestiones), la evaluación ha sido sinónimo de cuestionarios de alumnos.
Pienso que antes del primer plan nacional de la calidad, en
algunas universidades españolas -como en otras del resto del mundo-, se había comprendido esto, y se estaban
realizando experiencias muy interesantes que trataban de impulsar una
"cultura de la evaluación" (autoinformes del profesor, del
departamento, proyectos de mejora de la calidad docente,...). Probablemente son
las mismas universidades que se han tomado bastante en serio la
"evaluación de la calidad" (información y debate público sobre
evaluación, fuerte implicación institucional,...). Sin embargo el panorama no
es nada homogéneo, mientras que en algunas universidades se ha avanzado mucho,
y bien, en este terreno, en otras sólo se está "cumpliendo el
expediente" (pocas titulaciones incluidas en la evaluación, pocos
participantes de los diferentes sectores, manifiesto incumplimiento de plazos
en las pocas tareas emprendidas, escasa toma de decisiones,...). A lo mejor sería
interesante que cada uno expusiera el panorama de la universidad que tiene más
cerca.
En mi opinión ambos tipos de evaluación han de ser compatibles.
La evaluación de la calidad no está hoy por hoy concediendo la importancia que
tienen la docencia y los procesos de enseñanza-aprendizaje que una institución
de Educación Superior debe promover. En los planes nacionales, el peso de la
docencia es insuficiente frente a la gestión y a la investigación. La
evaluación docente de profesorado consigue por su parte una participación masiva de la comunidad
educativa en los procesos evaluativos y la conciencia de evaluar se difunde
mejor.
Espero opiniones a favor o en contra. Un saludo a los y las
participantes.
--
Juan Carlos Tójar
Universidad de Málaga
Date: Tue, 22 Oct 2002 10:18:50 -0400
From: pilar pestaña <pilar34@CANTV.NET>
Subject: aidipe3cv
Content
Buenos días, después de
una temporada desconectada de la red, he recibido los interesantes comentarios
de Miguel Muñoz y Juan Carlos Tojar, pero la ponencia a que se refieren no la
he conseguido, agradecería poder
hacerlo. Como el tema me parece buenísimo, me permito intervenir con un pequeño
granito de arena en la discusión. La
evaluación educativa es un constructo multifactorial -para mi-apasionante y
requiere de una gran precisión conceptual y metodologica, en el marco de las
bases ideológicas. Mucho se ha discutido
sobre él y en varias ocasiones las discrepancias han sido más debidas al enfoque ideológico de partida
que a otros aspectos. Pienso que para evaluar la calidad de la educación es
preciso primero tener bien claro y compartido que se entiende por educación y
qué por
calidad. En lo que respecta a la evaluación del docente, se pudiese concebir la importancia del
"factor docente" en todo este "paquete de calidad" en
función del valor asignado al rol del docente: en pocas palabras QUE ESPERAMOS
DEL DOCENTE en el contexto real y especifico de una institución.
El punto de vista del
estudiante, tradicionalmente considerado en la práctica casi como la única vía
de evaluar la "conducta docente", es un isumo (no el único, por
supuesto) que puede ser importante si
se tiene en cuenta que hay cosas que el estudiante NO PUEDE dilucidar (por ejemplo, Si el docente ha
planificado o no la clase y otras más que
conocemos bien los que hemos sido evaluados y evaluadores) pero hay
otras que el estudiante percibe y a las que les asigna relevancia desde su
punto de vista de "cliente". En este sentido, me gustaría enviar al
foro un pequeño trabajo -en versión piloto- que recoge dos aspectos: la
definición del "docente ideal" y la propuesta de un código de ética
para los docentes, ambos trabajos realizados con un reducido grupo es
estudiantes de noveno semestre de ingeniería Informática de la UNEG. Con un cordial saludo.
Pilar Pestaña de Martínez.
Universidad Nacional Experimental de Guayana, UNEG, Venezuela
Date: Wed, 23 Oct 2002 17:38:31 +0200
From: Miguel Muñoz <munoz@UDC.ES>
Subject: Re: 3CV
In-Reply-To: <jc_tojar@uma.es>
Lo que presenta Juan Carlos
es acertado.
En estos momentos en que ya vamos por el II PLan de calidad y en
el que la cultura de la evaluación por la calidad empieza a hacer mella en nuestras
universidades, parece que llega el momento en plantearnos realmente qué es lo que se quiere evaluar. El profesorado en
sus vertientes de docencia, investigación o gestión, o seguir manteniendo la
figura de la evaluación del profesorado como la evaluación de su docencia
solamente.
Parecería adecuado pensar que la evaluación del profesorado es
un conjunto de elementos en los que a evaluación a través de la opinión de los
alumnos es solamente un elemento más. Pero lo que queríamos plantear en nuestra
ponencia era la reflexión de si sobre este elemento tenemos también un consenso
de lo que entendemos por ello.
Date: Fri, 25 Oct 2002 12:34:22 +0200
From: Emelina López González <emelopez@UMA.ES>
Subject: 3CV
Hola, compañeros:
Agradezco la oportunidad de poder participar en este foro, en
especial a quienes lo hacen posible resolviendo los aspectos técnicos y, por
supuesto, a los autores de la ponencia. He disfrutado con la lectura del
trabajo, fundamentalmente porque este intento de poner en relación los
instrumentos empleados en la evaluación de las 17 universidades revisadas,
supone un esfuerzo importante, necesario y previo, para saber si se produce un
consenso en considerar la opinión de los alumnos como un elemento más de la
evaluación del profesorado. Tema, desde luego, peliagudo.
No voy a entrar en las cuestiones de contenido que se tratan
sobre evaluación de la docencia, evaluación del profesorado o la evaluación que
se desprende del II Plan de Calidad,
porque reconozco que sobre ello mucho debo aprender de los autores y de otros
también especialistas en el tema. Sin embargo, sí voy a sugerir algunas notas
sobre el instrumento que se elabora, y sobre los análisis de los datos que se
obtienen al aplicar este instrumento a alumnos de la Universidad da Coruña.
PRIMERO. Como los autores comentan en la página 15, para obtener
un cuestionario final que no esté compuesto de 90 ítems se debe adoptar un
criterio que permita seleccionar un menor número de ellos. Así, se decide que
el cuestionario contenga 40 ítems, donde constan aquellos que se repiten en
cuatro o más cuestionarios de las universidades. También se incluyen otros
ítems considerados interesantes para el análisis de la docencia del
profesorado. Seguramente éste criterio de "mayor frecuencia" o
"ser interesante" ha sido sopesado, pero también pudiera adoptarse
alguno que nos permita "lavarnos las manos" respecto a la posibilidad
de dejarnos llevar por una elección particular no deseable. Me refiero a que
bien puede adoptarse un criterio estadístico, y terminar seleccionando aquellos
ítems que en cada factor discriminen más a los sujetos, por ejemplo, aquellos
menos redundantes, o aquellos que presentan una carga factorial más elevada
(mayor contribución en la explicación del factor correspondiente: metodología,
programa, materiales, actitud del profesor, etc.). Es decir, la mayor presencia
de ciertos ítems en los cuestionarios de las universidades, no garantiza su
mayor relevancia en la explicación de los factores que interesan desde la
teoría existente sobre "evaluación del profesorado", subyacente en el
cuestionario que se aplica en cada universidad (si no he entendido mal, de eso
es de lo que se trata ¿no?).
SEGUNDO. En la mayor parte de los cuestionarios de las
universidades se aplica una escala de
Aunque reconozco que es una práctica habitual aplicar análisis
factoriales con datos de este tipo, en mi opinión no es la mejor opción.
Es más, estoy convencida de que es un error. El análisis
factorial de
componentes principales, que es el que aquí se emplea, requiere
de ciertos supuestos paramétricos, como la normalidad y homoscedasticidad de
las distribuciones de los ítems, o la presencia de relaciones lineales entre
ellos, y no es posible que éstas características se produzcan con el tipo de
escala que se trabaja. Bien es cierto que los autores del trabajo realizan los
test pertinentes para valorar la adecuación del análisis: la medida de
adecuación muestral y el test de Barlett. Este segundo, por ejemplo, valora la
significación de la matriz de correlaciones entre ítems en su conjunto, que
resulta significativa, pero con ello se valora sólo la presencia de
correlaciones no nulas, no el patrón de esas correlaciones (si están próximas a
cero, si no son lineales o si no son significativas). Además, la matriz de
correlaciones entre ítems que construye el análisis factorial es de relaciones
lineales. Se podría haber construido una matriz de correlaciones no
paramétricas y ésa utilizarla como matriz de entrada. Otra opción es usar el
mismo análisis factorial, pero en lugar de emplear la opción "componentes
principales", trabajar con estimación máximo verosímil (también
implementada dentro del análisis factorial en el SPSS).
Lo que realmente es una alternativa estupenda y que resuelve
todo lo anterior es el Análisis de Componentes Principales no Lineal, que
persigue los mismos objetivos que el análisis factorial de componentes
principales lineal, pero, sin embargo, nos permite tratar con variables
ordinales. En este análisis, se categorizan las respuestas a los ítems con el
mismo orden original de las variables observadas, es decir, se crean unas
puntuaciones óptimas o cuantificaciones categóricas, para cada una de las cinco
categorías de respuesta, respetando, por tanto, la naturaleza de la escala. Es
como una "cuantificación de la escala ordinal", convirtiéndola a una
escala con propiedades métricas.
Posteriormente, el análisis realiza una construcción de
componentes que revela los patrones de asociación entre los ítems (similar al
análisis factorial lineal, pero habiendo tratado las variables respectando su
naturaleza: no métricas y con relaciones no lineales). Además, tenemos la
tremenda ventaja de que el Análisis de Componentes Principales no Lineal se
encuentra implementado en el SPSS, dentro del módulo "Reducción de
datos" en la opción "Escalamiento óptimo". En la versión 11 de
SPSS figura como "Componentes Principales Categóricos" o CatPCA; en
versiones anteriores viene como PRINCALS.
TERCERO. Respecto al estudio de validez concurrente del
cuestionario, se realiza un análisis de regresión lineal múltiple, tomando como
variable respuesta el ítem 36 y las demás como predictores. Estamos en lo mismo
que en el punto anterior. La regresión lineal no se adecua a la escala de los
ítems. En la regresión lineal una unidad de cambio en el valor de cualquier
predictor debe siempre asociarse con un cambio específico en el valor del
criterio, y ésto no se produce con la una escala de
Hay varias opciones de regresión ordinal, todas ellas modelos
logit, es decir, obtenidos mediante una transformación de la distribución
logística: (a) una extensión de la regresión logística para el caso de variable
dependiente ordinal (se puede encontrar en Agresti, 1996); (b) el modelo logit
acumulativo; (c) el modelo logit con categorías de continuación y (d) el modelo
logit con categorías adyacentes (estos tres últimos están en O'Connell, 2000).
El problema lo encontramos a la hora de utilizar un software
cómodo y comprensible. En SPSS 11.0 tenemos la regresión ordinal dentro de la
opción "regresión"; sin embargo, no diferencia entre los distintos
modelos logit (si se trabaja empleando la sintaxis de SPSS, se consigue algo
más). Donde se puede realizar fácilmente y con unas salidas gráficas estupendas
es con el paquete SAS, aunque ya se que no tiene un uso generalizado en nuestro
ámbito, lamentablemente.
Resumiendo. Soy consciente de que hacemos lo que podemos en los
análisis de datos que se desprenden de investigaciones en ciencias humanas, en
educación, pero creo que hay que empezar a utilizar estas otras alternativas
que ya están implementadas, y que se han ido diseñando, precisamente, para
resolver el tratamiento estadístico de datos categóricos y ordinales, tan
frecuente, por otro lado, en nuestro ámbito de trabajo.
Las referencias que os he citado son:
Agresti, A. (1996). An
introduction to categorical data analysis.
O'Connell, A.A. (2000).
Methods for Modeling Ordinal Outcome Variables. Measurement and Evaluation in
Counseling and Development, 33, 170-193.
Emelina López González
Dept. Métodos de Investigación e Innovación Educativa
Universidad de Málaga
Date: Fri, 25 Oct 2002 15:31:38 +0200
From: Leonor Buendía <lbuendia@UGR.ES>
Subject: Re: 3CV
In-Reply-To: <emelopez@uma.es>
Content-Type: text/plain; charset=ISO-8859-1
Desde la Universidad
de Concepción, Chile, leo con satisfacción las propuestas de Emelina, se podría
matizar algo sobre los modelos Logit para el aspecto que tratamos, pero
comparto plenamente su propuesta y me alegra que la lista de AIDIPE sea una comunidad de
aprendizaje de aspectos metodológicos , entre otros.
Un saludo Leonor Buendia
Date: Mon, 28 Oct 2002 15:14:01 +0100
From: miquel <miquel.amador@UAB.ES>
Subject: 3CV
Apreciados compañeros
Quiero antes que nada felicitar a los compañeros de la
Universidade da Coruña, autores de la ponencia, por la aportación que nos hacen,
tanto en la fundamentación como en la recopilación de los distintos
cuestionarios que sobre evaluación de la labor docente usamos en las distintas
universidades.
En lo relativo al análisis, quisiera hacer algunas reflexiones
aunque, la verdad es que con la intervención de Emelina López, de la
Universidad de Málaga, no sólo me ha dejado sin argumentos sino que me ha
parecido altamente enriquecedora y me aporta una línea de reflexión que hasta
ahora no me había planteado y que me parece muy coherente y bien apoyada en los
planteamientos que hace. Creo que se presenta un estudio descriptivo
exhaustivo, que nos permite acercarnos a las tendencias (formulación de los
ítems) que se agrupan en torno a las
dimensiones que se señalan en la ponencia. El problema surge, a mi entender,
cuando pretendemos elaborar el "cuestionario ideal", seleccionando o
rechazando los ítems mediante criterios de mayor o menor frecuencia o porque
resultan de "interés" para completar el análisis, lo cual me parece
de difícil justificación. Es decir, entiendo que el estudio descriptivo nos
acerca a la realidad de las universidades que se han analizado, pero que otra
cosa es elaborar un cuestionario ideal basándonos en estos criterios.
Por ello, si bien es cierto que en la ponencia se hace un repaso
a los estudios de distintos autores en lo que se refiere a procedimientos y
estrategias de la evaluación docente, que ayudan a delimitar las dimensiones;
se echa en falta (quizás porque no exista tal aportación) alguna aproximación a
cuáles deberían ser los indicadores de calidad teóricos que habrían de
configurarse en torno a ellas, lo cual nos ayudaría a poder contrastarlo con
los modelos prácticos que se aplican en nuestras universidades y ver si las
formulaciones utilizadas se agrupan realmente en las dimensiones que abarcan
esos indicadores de calidad de la docencia.
Efectivamente, creo que hemos de replantearnos el hecho de que
los análisis que hemos venido utilizando, cuando aplicamos escalas de
categorización como si se tratara de escalas métricas, no es la mejor opción y
tendremos que corregir estos desajustes.
Miquel Amador
Departamento de Pedagogia
Aplicada
Universitat Autònoma de Barcelona
Date: Mon, 28 Oct 2002 14:37:50 -0300
Reply-To: Foro sobre Investigacion Educativa de la Asociacion AIDIPE
<AIDIPE-L@LISTSERV.REDIRIS.ES>
Sender: Foro sobre Investigacion Educativa de la Asociacion AIDIPE
<AIDIPE-L@LISTSERV.REDIRIS.ES>
From: Pablo Vain <vain@CAMPUS.UNAM.EDU.AR>
Content-Type: text/plain; charset="iso-8859-1"
ESTIMADOS COLEGAS:
Ante todo mis felicitaciones a Eduardo Abalde, Jesús M. Muñoz y
Paula Ríos de Deus, autores de la Ponencia del 3° Congreso Virtual de AIDIPE.
Luego, y dado que está directamente asociado al tema del
congreso, quiero contarles que la Comisión Nacional de Evaluación y
Acreditación Universitaria (CONEAU) de mi país (Argentina) ha editado en CD, el
trabajo de mi autoría La evaluación de la Docencia Universitaria: Un problema
complejo, seleccionado en la convocatoria para elaboración de materiales
teórico-metodológicos, organizada por dicho organismo.
El texto puede encontrarse en: www.coneau.edu.ar en el link
Publicaciones: o en www.coneau.edu.ar/VAIN.pdf
Como sé que hay quienes han tenido problemas de acceso al mismo,
aquel que esté interesado, puedo enviarle una versión en pdf al correo que se me indique.
En ese material, trabajo - entre otros conceptos - la diferencia
entre:
a) evaluar la Función Docencia, como una de las dimensiones de
la evaluación institucional universitaria (esto se acercaría la propósito del
PUC en España).
b) evaluar la actividad de cada docente, como parte de su
carrera académica.
En este segundo sentido, les comento que en nuestra Universidad
(la Universidad Nacional de Misiones) la evaluación supone los siguientes
momentos y actores:
ACCIÓN
DESCRIPCIÓN
RESPONSABLE
Informe del Docente
Los docentes
presentan, al finalizar un año académico, un informe en el que reseñan y
evalúan sus actividades de docencia, investigación, extensión o servicios,
gestión, etc.
Profesores o
Auxiliares Docentes
Informe del
Responsable de Cátedra
Los responsables de cada
cátedra evalúan las actividades de los docentes que las integran.
Responsable de
Cátedra
Informe del
Departamento
Los Directores de
Departamentos [1] evalúan las actividades de los docentes que los integran.
Director del Departamento
Informe de
Investigación y/o Extensión
Los organismos
pertinentes (Secretarías o institutos) que coordinan las actividades de investigación, extensión o servicios
presentan los informes de cada uno de los docentes.
Secretarías o
Institutos de investigación o de
extensión
Encuesta Estudiantil
Los alumnos regulares
de cada asignatura confeccionan la encuesta, referida a cada uno de los
docentes con los cuales han tenido actividad durante el cuatrimestre o año
correspondiente.
Secretaría Académica
de cada Facultad.
Evaluación Final
El Comité Académico
analiza las planificaciones, los informes, las encuestas y todo el material
adicional (programas de asignaturas, etc.), evalúa la actividad de los docentes
que le son asignados y emite un dictamen.
Comité Académico [2]
Date: Tue, 29 Oct 2002 21:27:47 +0100
Reply-To: Foro sobre Investigacion Educativa de la Asociacion AIDIPE
<AIDIPE-L@LISTSERV.REDIRIS.ES>
Sender: Foro sobre Investigacion Educativa de la Asociacion AIDIPE
<AIDIPE-L@LISTSERV.REDIRIS.ES>
From: Daniel Gonzalez <danielg@UGR.ES>
Subject: Re: 3CV
Estimados compañeros:
En primer lugar,
quiero sumarme a las felicitaciones ya manifestadas a los compañeros y
compañera de la Universidad de la Coruña por la ponencia elaborada para este
tercer congreso virtual de AIDIPE, ya que supone un gran esfuerzo manejar 17
cuestionarios de distintas Universidades españolas e intentar elaborar un único
cuestionario. Creo muy pertinente el tema desarrollado y de "rabiosa
actualidad".
En estos momentos en
la Universidad de Granada hay abierto un debate al respecto ¡¡delicado debate!!.
Me explico: hace unos días el Rector de nuestra universidad, anunció en prensa
que teniendo en cuanta y a través de un cuestionario (similar al utilizado en
otras Universidades y parecido al
usado en años anteriores en nuestra propia Universidad, años 1990,
1991, 1992, 1993) llamado cuestionario para la evaluación de la actuación
docente del profesorado, se evaluará al profesorado y ello repercutirá en
"los complementos docentes" (evaluación positiva más dinero). Este
cuestionario elaborado por el Vicerrectorado de Planificación, Calidad y
Evaluación Docente, se presenta en sociedad via correo electrónico, con el
procedimiento seguido en su elaboración y pidiendo sugerencias (poco se puede
hacer puesto que está prácticamente cerrado). Se producen algunas reacciones, que intento resumir 1) la Junta de Personal
Docente e Investigador (dice el texto, recogiendo el sentir de gran parte del
profesorado), manifiesta: a) ... se hace necesaria la elaboración de un
verdadero plan general de mejora de la calidad docente, b).... dispuesta a
participar en la discusión y el diseño de un plan de mejora de la calidad
docente, c) necesario un cambio en la denominación de los cuestionarios
"cuestionario para la evaluación del grado de satisfacción del alumnado de
la Universidad de Granada; d) .... se reconsidere todo el proceso de
elaboración de los cuestionarios. 2) Un grupo de profesores de psicometría en
una carta abierta al profesorado y un estudio realizado del cuestionario
reflexionan sobre: a) errores formales; b) ... sobre la validez y fiabilidad,
no pertinencia del alfa c) muestra utilizada.
Después de seguir
atentamente las aportaciones el congreso y lo que está ocurriendo en mi
Universidad, reflexiono y me pregunto:
1.
Creo necesaria la
evaluación de la docencia universitaria para mejorar la calidad de la labor
desempeñada por el profesorado.
2.
Un modelo evaluativo
basado en la aplicación de un cuestionario (40 item) es suficiente, o se hace
necesario establecer modelos de evaluación que partiendo de una autoevaluación
como un proceso reflexivo y participativo implique a todos los miembros para la
mejora de la calidad.
3.
Coincido con las
apreciaciones de la compañera Emelina y el grupo de profesores de psicometría,
en cuanto a la utilización del análisis factorial para variables categóricas,
los estudios de validez, elección de los 40 items. ¿"no forzamos a veces
demasiado los datos"?
4.
¿Cómo implantar una
"cultura de la evaluación", autoinformes del profesorado, del
departamento, ... ?
5.
¿Se evalúa realmente la
actuación docente del profesorado con el cuestionario o estamos midiendo el
grado de satisfacción del alumnado?.
6.
¿Prestamos suficiente
atención a la validez y fiabilidad del cuestionario?, tal vez no.
7.
¿Se desarrolla
adecuadamente el proceso de construcción de los instrumentos?
Un grupo de
profesores/as de MIDE estamos trabajando para intentar profundizar un poco en
el tema, y responder a los interrogantes que se nos plantean. Estamos
intentando implantar en un modelo reflexivo de gestión de la calidad en centros
educativos. Algunas tesis ya están realizadas y otras en curso.
Si disponemos de más
tiempo, y puesto que el debate sigue después del día 30 de octubre,
profundizaremos e intentaremos responder a estos y otros interrogantes planteados.
Date: Thu, 31 Oct 2002 17:34:29 +0100
From: "Francisco M. Aliaga" <Francisco.Aliaga@UV.ES>
Subject: "Fin" del 3CV y nuevos artículos en RELIEVE
Hola Aidiperos:
Ya sabéis que las fechas en las que estaba previsto
celebrar el Tercer Congreso Virtual de
AIDIPE han concluido. Eso no quiere
decir que no se pueda seguir intercambiando opiniones, informaciones y/o
proyectos. Se trata sólo de un límite arbitrario, en el que hemos reservado la
lista fundamentalmente para ese tema.
Ya sabéis que después de la presentación (los pasillos) también
se hacen comentarios e intercambios interesantes (a veces "los"
interesantes). El tema merece la pena. Quizá sería interesante que se comentara
cómo salen los resultados cuando se aplican otras técnicas analíticas, como
decía Emelina o ver la aplicabilidad en las distintas universidades.
En fin (que me enrollo yo sólo): que eso de que se acabó el 3CV
es sólo una forma de hablar y que se puede seguir con ello.
(... Borrado ...)
La ponencia del Congreso
aparecerá también, dado su interés,
próximamente publicada como artículo en RELIEVE, junto con las
intervenciones realizada como "reply" a la misma.
Saludos
Cisco
--
********************************
Francisco.Aliaga@uv.es
Departamento de Métodos de Investigación y Diagnóstico en
Educación
Universidad de Valencia (Spain)
********************************
Date: Mon, 4 Nov 2002 11:18:49 +0100
From: Miguel Muñoz <munoz@UDC.ES>
Subject: RE: [AIDIPE] "Fin" del 3CV y nuevos artículos en RELIEVE
En nombre de mis compañeros quiero agradeceros a todos los places
que nos habéis brindado a la ponencia presentada.
Creo que ha cumplido con el cometido que nuestro Sr. organizador
(D. Francisco) esperaba y, por supuesto, con los objetivos que nos habíamos
planteado con creces; pues nuevas visiones no ya sobre el contenido sino sobre
formas de análisis han sido expuestas y presentadas con cientificidad
demostrada. Gracias por haber leído nuestra intervención y por vuestra
colaboración. Es
justo.
Graciñas.
Jesús Miguel Muñoz Cantero
Eduardo Abalde Paz
Paula Rios de Deus.