Debate del IIIer Congreso Virtual de AIDIPE 

(16-31-Octubre-2002)

EVALUACIÓN DOCENTE vs. EVALUACIÓN DE LA CALIDAD

 

Eduardo Abalde, Jesús Miguel Muñoz y Mª Paula Ríos de Deus [1]

Universidad de La Coruña


Date:         Wed, 16 Oct 2002 17:15:17 +0200
From:         Miguel Muñoz <munoz@UDC.ES>

 

Estimados compañeros/as:

 

Es hora ya de comenzar con el congreso virtual de aidipe. Como coautor de la ponencia que se nos encargó quiero animaros a que participéis con vuestros análisis, interpretaciones, opiniones, ... y demás, que os parezca sobre el tema elegido. Éste no ha sido por casualidad y viene a poner encima de la mesa las preguntas que compañeros de la docencia y miembros de la comunidad universitaria, han sacado a relucir durante muchas conversaciones académicas, de pasillos, de sobremesa, de café,... durante muchos años.

 

A las preguntas que se realizan al final de la intervención para fomentar el debate:

 

·       ¿Podemos y debemos mantener los dos tipos de evaluación?

·       ¿Es legítima útil, factible y precisa la evaluación del profesorado fuera del Plan de Calidad de las Universidades?.

·       ¿Podemos hacer que sean complementarias o los objetivos de ambas son incompatibles actualmente?

 

los autores tenemos nuestra propia opinión y que, seguramente, no es la de cada uno de vosotros. Gracia a Dios no estamos cortados todos por el mismo patrón y tenemos formas de entender las realidades que se nos presentan de manera también diferente.

Estas diferencias es el motor de la discusión y del intercambio de experiencias y pareceres.

Espero que esta ponencia os sirva, como nos sirvió a nosotros, para reflexionar un poco más sobre el tema de la evaluación docente y, su relación con la evaluación institucional (salvando las distancias entre una

y otra como quedó dicho durante el desarrollo del trabajo.

Muchas gracias de antemano por vuestras intervenciones que serán enormemente valiosas y formativas y que este congreso sea un éxito merced de vuestras valiosas intervenciones.

 

Jesús Miguel Muñoz Cantero

 


Date:         Wed, 16 Oct 2002 14:53:40 +0200
From:         "Francisco M. Aliaga" <Francisco.Aliaga@UV.ES>
Subject:      3CV: ¿Una para todos?
 

 

Hola aidiperos:

 

  A partir de hoy se pueden empezar a enviar comentarios y/o  preguntas sobre la ponencia del III Congreso Virtual de AIDIPE.  Recordad que podéis encontrar el texto en http://www.uv.es/aidipe/CongVirtual3/Ponencia3.htm

 

   Para abrir el fuego me gustaría plantear una cuestión que es casi una duda filosófica. He visto que además de una interesante revisión y puesta en común de los cuestionarios de evaluación del profesorado a partir de la opinión de los alumnos. Que luego han elegido los items más habituales y que los han pasado a una pequeña muestra, procedente de distintas titulaciones, para ver sus cualidades y estructura factorial.

 

  En primer lugar tengo algunas dudas sobre la validez aparente de algunos items (no es que los ponga en duda, es que no lo tengo claro). Así, por ejemplo el item 40 "El nivel de esfuerzo dedicado es elevado", además de no saber de quien es el esfuerzo (del profesor o el alumno) me plantea el problema de si hacer algo con esfuerzo es más propio de un buen profesor que de uno malo. Lo mismo con el item 39 (si el alumno ha dedicado más esfuerzo que a otras asignaturas).

 

  En algunos casos (item 34 -"imparte suficientes clases prácticas de pizarra" y 35 "suficientes clases prácticas) este tipo de items, muy particulares (se refieren en general a algún tipo de prácticas muy concretas, no siempre necesarias o convenientes-¿para qué quiere prácticas de pizarra un alumno de informática, por ejemplo?) me plantea la duda de si la búsqueda de un único cuestionario válido para todos los casos es conveniente. Muy probablemente, ser un buen profesor exige estrategias docentes distintas en filosofía que en cálculo matemático o en informática de gestión.

 

Es decir, no sé si debemos suponer hay un "rasgo latente" (la "bondad de la docencia") común a todos o deberíamos de suponer que hay factores distintos. Me gustaría oir algunas impresiones al respecto.

 

--

*****************************************************************************

Francisco.Aliaga@uv.es

Departamento de Métodos de Investigación y Diagnóstico en Educación

Universidad de Valencia (Spain)

*****************************************************************************

 

 


Date:         Wed, 16 Oct 2002 12:05:12 -0400
From:         Lourdes Sainz Leyva <lsainz@NTGESTA.CO.CU>
Subject:      3CV

 

Hola colegas:

 

Me parece muy buena la idea de este congreso virtual.

He accedido a la ponencia de partida del congreso cuyo tema es bien importante.

 

La evaluación del profesorado constituye un tema delicado. La evaluación educativa en general es un tema bien complicado. Y creo que en parte porque a la evaluación se le han asignado funciones muy conflictivas.  Pero creo sinceramente que la evaluación, de cualquiera de los componentes educativos (aprendizaje, del alumno,  institucional, del proceso, etc)siempre debe ser ante todo FORMATIVA, EDUCATIVA, que contribuya realmente al mejoramiento del objeto que se evalúa.

Muchos profesores rechazan este proceso de evaluación justamente por lo poco que puede aportar al mejoramiento real, humano, de la persona implicada. Como utilizar los resultados de tal evaluación es uno de los aspectos a valorar y lograr que sean bien utilizados en pos de ese perfeccionamiento que deseamos.

Otro de los problemas de la evaluación de los docentes es el tipo de instrumentos que se utiliza para ello y como dicho instrumento puede ser lo mas objetivo posible para lograr una información  confiable.

 

Seguiremos intercambiando opiniones.

 

Y muchas gracias por la invitación al congreso y el esfuerzo de los que se han implicado en tal actividad.

 

Lourdes Sainz

 

http://www.gestaenlinea.com

lsainz@ntgesta.co.cu

telef. 2054061

Ciudad Habana, Cuba

 


Date:         Tue, 22 Oct 2002 10:42:26 +0200
From:         Juan Carlos Tójar <jc_tojar@UMA.ES>
Subject:      3CV

 

Encantado de participar en este foro. En primer lugar deseo felicitar a los compañeros de la Universidad de la Coruña por la ponencia presentada.

 

Creo que se trata de un tema de gran relevancia en el ámbito universitario, y que los profesores universitarios que nos dedicamos a la investigación educativa , y en muchos casos además a la evaluación, no podemos desaprovechar la ocasión para debatir sobre el mismo.

 

Habría muchas cosas que decir pero trataré de ser breve en esta primera intervención.

 

Creo que no es gratuito insistir que evaluación de la docencia no es sinónimo de evaluación del profesorado, aunque existan áreas comunes. Tampoco es lo mismo identificar con las evaluaciones mencionadas anteriormente la realizada únicamente mediante cuestionarios de opinión del alumnado. Los autores de la ponencia plantean acertadamente las diversas técnicas de recogida de información sobre la evaluación docente del profesorado, pero es verdad que para la mayor parte del profesorado universitario (no experto en estas cuestiones), la evaluación ha sido sinónimo de cuestionarios de alumnos.

 

Pienso que antes del primer plan nacional de la calidad, en algunas universidades españolas -como en otras del resto del mundo-, se  había comprendido esto, y se estaban realizando experiencias muy interesantes que trataban de impulsar una "cultura de la evaluación" (autoinformes del profesor, del departamento, proyectos de mejora de la calidad docente,...). Probablemente son las mismas universidades que se han tomado bastante en serio la "evaluación de la calidad" (información y debate público sobre evaluación, fuerte implicación institucional,...). Sin embargo el panorama no es nada homogéneo, mientras que en algunas universidades se ha avanzado mucho, y bien, en este terreno, en otras sólo se está "cumpliendo el expediente" (pocas titulaciones incluidas en la evaluación, pocos participantes de los diferentes sectores, manifiesto incumplimiento de plazos en las pocas tareas emprendidas, escasa toma de decisiones,...). A lo mejor sería interesante que cada uno expusiera el panorama de la universidad que tiene más cerca.

 

En mi opinión ambos tipos de evaluación han de ser compatibles. La evaluación de la calidad no está hoy por hoy concediendo la importancia que tienen la docencia y los procesos de enseñanza-aprendizaje que una institución de Educación Superior debe promover. En los planes nacionales, el peso de la docencia es insuficiente frente a la gestión y a la investigación. La evaluación docente de profesorado consigue por su parte una  participación masiva de la comunidad educativa en los procesos evaluativos y la conciencia de evaluar se difunde mejor.

 

Espero opiniones a favor o en contra. Un saludo a los y las participantes.

--

Juan Carlos Tójar

Universidad de Málaga

 


Date:         Tue, 22 Oct 2002 10:18:50 -0400
From:         pilar pestaña <pilar34@CANTV.NET>
Subject:      aidipe3cv

Content

   Buenos días, después de una temporada desconectada de la red, he recibido los interesantes comentarios de Miguel Muñoz y Juan Carlos Tojar, pero la ponencia a que se refieren no la he  conseguido, agradecería poder hacerlo. Como el tema me parece buenísimo, me permito intervenir con un pequeño granito de arena en la discusión.  La evaluación educativa es un constructo multifactorial -para mi-apasionante y requiere de una gran precisión conceptual y metodologica, en el marco de las bases ideológicas.  Mucho se ha discutido sobre él y en varias ocasiones las discrepancias han sido  más debidas al enfoque ideológico de partida que a otros aspectos. Pienso que para evaluar la calidad de la educación es preciso primero tener bien claro y compartido que se entiende por educación y qué  por  calidad. En lo que respecta a la evaluación del docente,  se pudiese concebir la importancia del "factor docente" en todo este "paquete de calidad" en función del valor asignado al rol del docente: en pocas palabras QUE ESPERAMOS DEL DOCENTE en el contexto real y especifico de una institución.

 

  El punto de vista del estudiante, tradicionalmente considerado en la práctica casi como la única vía de evaluar la "conducta docente", es un isumo (no el único, por supuesto)   que puede ser importante si se tiene en cuenta que hay cosas que el estudiante NO PUEDE  dilucidar (por ejemplo, Si el docente ha planificado o no la clase y otras más que  conocemos bien los que hemos sido evaluados y evaluadores) pero hay otras que el estudiante percibe y a las que les asigna relevancia desde su punto de vista de "cliente". En este sentido, me gustaría enviar al foro un pequeño trabajo -en versión piloto- que recoge dos aspectos: la definición del "docente ideal" y la propuesta de un código de ética para los docentes, ambos trabajos realizados con un reducido grupo es estudiantes de noveno semestre de ingeniería Informática de la  UNEG. Con un cordial saludo.

 

Pilar Pestaña de Martínez.

Universidad Nacional Experimental de Guayana, UNEG, Venezuela

   


Date:         Wed, 23 Oct 2002 17:38:31 +0200
From:         Miguel Muñoz <munoz@UDC.ES>
Subject:      Re: 3CV
In-Reply-To:  <jc_tojar@uma.es>

 

Lo que presenta Juan Carlos es acertado.

En estos momentos en que ya vamos por el II PLan de calidad y en el que la cultura de la evaluación por la calidad empieza a hacer mella en nuestras universidades, parece que llega el momento en plantearnos realmente qué es  lo que se quiere evaluar. El profesorado en sus vertientes de docencia, investigación o gestión, o seguir manteniendo la figura de la evaluación del profesorado como la evaluación de su docencia solamente.

Parecería adecuado pensar que la evaluación del profesorado es un conjunto de elementos en los que a evaluación a través de la opinión de los alumnos es solamente un elemento más. Pero lo que queríamos plantear en nuestra ponencia era la reflexión de si sobre este elemento tenemos también un consenso de lo que entendemos por ello.

 


Date:         Fri, 25 Oct 2002 12:34:22 +0200
From:         Emelina López González <emelopez@UMA.ES>
Subject:      3CV

 

Hola, compañeros:

 

Agradezco la oportunidad de poder participar en este foro, en especial a quienes lo hacen posible resolviendo los aspectos técnicos y, por supuesto, a los autores de la ponencia. He disfrutado con la lectura del trabajo, fundamentalmente porque este intento de poner en relación los instrumentos empleados en la evaluación de las 17 universidades revisadas, supone un esfuerzo importante, necesario y previo, para saber si se produce un consenso en considerar la opinión de los alumnos como un elemento más de la evaluación del profesorado. Tema, desde luego, peliagudo.

 

No voy a entrar en las cuestiones de contenido que se tratan sobre evaluación de la docencia, evaluación del profesorado o la evaluación que se desprende del  II Plan de Calidad, porque reconozco que sobre ello mucho debo aprender de los autores y de otros también especialistas en el tema. Sin embargo, sí voy a sugerir algunas notas sobre el instrumento que se elabora, y sobre los análisis de los datos que se obtienen al aplicar este instrumento a alumnos de la Universidad da Coruña.

 

PRIMERO. Como los autores comentan en la página 15, para obtener un cuestionario final que no esté compuesto de 90 ítems se debe adoptar un criterio que permita seleccionar un menor número de ellos. Así, se decide que el cuestionario contenga 40 ítems, donde constan aquellos que se repiten en cuatro o más cuestionarios de las universidades. También se incluyen otros ítems considerados interesantes para el análisis de la docencia del profesorado. Seguramente éste criterio de "mayor frecuencia" o "ser interesante" ha sido sopesado, pero también pudiera adoptarse alguno que nos permita "lavarnos las manos" respecto a la posibilidad de dejarnos llevar por una elección particular no deseable. Me refiero a que bien puede adoptarse un criterio estadístico, y terminar seleccionando aquellos ítems que en cada factor discriminen más a los sujetos, por ejemplo, aquellos menos redundantes, o aquellos que presentan una carga factorial más elevada (mayor contribución en la explicación del factor correspondiente: metodología, programa, materiales, actitud del profesor, etc.). Es decir, la mayor presencia de ciertos ítems en los cuestionarios de las universidades, no garantiza su mayor relevancia en la explicación de los factores que interesan desde la teoría existente sobre "evaluación del profesorado", subyacente en el cuestionario que se aplica en cada universidad (si no he entendido mal, de eso es de lo que se trata ¿no?).

 

SEGUNDO. En la mayor parte de los cuestionarios de las universidades se aplica una escala de 1 a 5, y así se decide también en el instrumento que se construye. Es decir, se trata de una medida no métrica, ordinal, categórica, que expresa paulatinamente un mayor grado de acuerdo con el contenido del ítem.

Aunque reconozco que es una práctica habitual aplicar análisis factoriales con datos de este tipo, en mi opinión no es la mejor opción.

Es más, estoy convencida de que es un error. El análisis factorial de

componentes principales, que es el que aquí se emplea, requiere de ciertos supuestos paramétricos, como la normalidad y homoscedasticidad de las distribuciones de los ítems, o la presencia de relaciones lineales entre ellos, y no es posible que éstas características se produzcan con el tipo de escala que se trabaja. Bien es cierto que los autores del trabajo realizan los test pertinentes para valorar la adecuación del análisis: la medida de adecuación muestral y el test de Barlett. Este segundo, por ejemplo, valora la significación de la matriz de correlaciones entre ítems en su conjunto, que resulta significativa, pero con ello se valora sólo la presencia de correlaciones no nulas, no el patrón de esas correlaciones (si están próximas a cero, si no son lineales o si no son significativas). Además, la matriz de correlaciones entre ítems que construye el análisis factorial es de relaciones lineales. Se podría haber construido una matriz de correlaciones no paramétricas y ésa utilizarla como matriz de entrada. Otra opción es usar el mismo análisis factorial, pero en lugar de emplear la opción "componentes principales", trabajar con estimación máximo verosímil (también implementada dentro del análisis factorial en el SPSS).

Lo que realmente es una alternativa estupenda y que resuelve todo lo anterior es el Análisis de Componentes Principales no Lineal, que persigue los mismos objetivos que el análisis factorial de componentes principales lineal, pero, sin embargo, nos permite tratar con variables ordinales. En este análisis, se categorizan las respuestas a los ítems con el mismo orden original de las variables observadas, es decir, se crean unas puntuaciones óptimas o cuantificaciones categóricas, para cada una de las cinco categorías de respuesta, respetando, por tanto, la naturaleza de la escala. Es como una "cuantificación de la escala ordinal", convirtiéndola a una escala con propiedades métricas.

Posteriormente, el análisis realiza una construcción de componentes que revela los patrones de asociación entre los ítems (similar al análisis factorial lineal, pero habiendo tratado las variables respectando su naturaleza: no métricas y con relaciones no lineales). Además, tenemos la tremenda ventaja de que el Análisis de Componentes Principales no Lineal se encuentra implementado en el SPSS, dentro del módulo "Reducción de datos" en la opción "Escalamiento óptimo". En la versión 11 de SPSS figura como "Componentes Principales Categóricos" o CatPCA; en versiones anteriores viene como PRINCALS.

 

TERCERO. Respecto al estudio de validez concurrente del cuestionario, se realiza un análisis de regresión lineal múltiple, tomando como variable respuesta el ítem 36 y las demás como predictores. Estamos en lo mismo que en el punto anterior. La regresión lineal no se adecua a la escala de los ítems. En la regresión lineal una unidad de cambio en el valor de cualquier predictor debe siempre asociarse con un cambio específico en el valor del criterio, y ésto no se produce con la una escala de 1 a 5, ordinal, con distancias desiguales entre categorías sucesivas. Por el contrario, lo adecuado es trabajar con regresión ordinal, ya que ésta no está obligada a asumir la serie de supuestos dudosos que requiere el ajuste de mínimos cuadrados (linealidad, homoscedasticidad e independencia de los errores), porque trabaja con un ajuste de máxima verosimilitud.

Hay varias opciones de regresión ordinal, todas ellas modelos logit, es decir, obtenidos mediante una transformación de la distribución logística: (a) una extensión de la regresión logística para el caso de variable dependiente ordinal (se puede encontrar en Agresti, 1996); (b) el modelo logit acumulativo; (c) el modelo logit con categorías de continuación y (d) el modelo logit con categorías adyacentes (estos tres últimos están en O'Connell, 2000).

El problema lo encontramos a la hora de utilizar un software cómodo y comprensible. En SPSS 11.0 tenemos la regresión ordinal dentro de la opción "regresión"; sin embargo, no diferencia entre los distintos modelos logit (si se trabaja empleando la sintaxis de SPSS, se consigue algo más). Donde se puede realizar fácilmente y con unas salidas gráficas estupendas es con el paquete SAS, aunque ya se que no tiene un uso generalizado en nuestro ámbito, lamentablemente.

 

Resumiendo. Soy consciente de que hacemos lo que podemos en los análisis de datos que se desprenden de investigaciones en ciencias humanas, en educación, pero creo que hay que empezar a utilizar estas otras alternativas que ya están implementadas, y que se han ido diseñando, precisamente, para resolver el tratamiento estadístico de datos categóricos y ordinales, tan frecuente, por otro lado, en nuestro ámbito de trabajo.

 

Las referencias que os he citado son:

 

Agresti, A. (1996). An introduction to categorical data analysis. New York: Wiley.

O'Connell, A.A. (2000). Methods for Modeling Ordinal Outcome Variables. Measurement and Evaluation in Counseling and Development, 33, 170-193.

 

 

 

Emelina López González

Dept. Métodos de Investigación e Innovación Educativa

Universidad de Málaga

 


Date:         Fri, 25 Oct 2002 15:31:38 +0200
From:         Leonor Buendía <lbuendia@UGR.ES>
Subject:      Re: 3CV
In-Reply-To:  <emelopez@uma.es>
Content-Type: text/plain; charset=ISO-8859-1

 

    Desde la Universidad de Concepción, Chile, leo con satisfacción las propuestas de Emelina, se podría matizar algo sobre los modelos Logit para el aspecto que tratamos, pero comparto plenamente su propuesta y me alegra que  la lista de AIDIPE sea una comunidad de aprendizaje de aspectos metodológicos , entre otros.

 

Un saludo Leonor Buendia

 


Date:         Mon, 28 Oct 2002 15:14:01 +0100
From:         miquel <miquel.amador@UAB.ES>
Subject:      3CV

 

Apreciados compañeros

Quiero antes que nada felicitar a los compañeros de la Universidade da Coruña, autores de la ponencia, por la aportación que nos hacen, tanto en la fundamentación como en la recopilación de los distintos cuestionarios que sobre evaluación de la labor docente usamos en las distintas universidades.

En lo relativo al análisis, quisiera hacer algunas reflexiones aunque, la verdad es que con la intervención de Emelina López, de la Universidad de Málaga, no sólo me ha dejado sin argumentos sino que me ha parecido altamente enriquecedora y me aporta una línea de reflexión que hasta ahora no me había planteado y que me parece muy coherente y bien apoyada en los planteamientos que hace. Creo que se presenta un estudio descriptivo exhaustivo, que nos permite acercarnos a las tendencias (formulación de los ítems)  que se agrupan en torno a las dimensiones que se señalan en la ponencia. El problema surge, a mi entender, cuando pretendemos elaborar el "cuestionario ideal", seleccionando o rechazando los ítems mediante criterios de mayor o menor frecuencia o porque resultan de "interés" para completar el análisis, lo cual me parece de difícil justificación. Es decir, entiendo que el estudio descriptivo nos acerca a la realidad de las universidades que se han analizado, pero que otra cosa es elaborar un cuestionario ideal basándonos en estos criterios.

Por ello, si bien es cierto que en la ponencia se hace un repaso a los estudios de distintos autores en lo que se refiere a procedimientos y estrategias de la evaluación docente, que ayudan a delimitar las dimensiones; se echa en falta (quizás porque no exista tal aportación) alguna aproximación a cuáles deberían ser los indicadores de calidad teóricos que habrían de configurarse en torno a ellas, lo cual nos ayudaría a poder contrastarlo con los modelos prácticos que se aplican en nuestras universidades y ver si las formulaciones utilizadas se agrupan realmente en las dimensiones que abarcan esos indicadores de calidad de la docencia.

 

Efectivamente, creo que hemos de replantearnos el hecho de que los análisis que hemos venido utilizando, cuando aplicamos escalas de categorización como si se tratara de escalas métricas, no es la mejor opción y tendremos que corregir estos desajustes.

 

Miquel Amador

Departamento de Pedagogia Aplicada

Universitat Autònoma de Barcelona

 


Date:         Mon, 28 Oct 2002 14:37:50 -0300
Reply-To:     Foro sobre Investigacion Educativa de la Asociacion AIDIPE
              <AIDIPE-L@LISTSERV.REDIRIS.ES>
Sender:       Foro sobre Investigacion Educativa de la Asociacion AIDIPE
              <AIDIPE-L@LISTSERV.REDIRIS.ES>
From:         Pablo Vain <vain@CAMPUS.UNAM.EDU.AR>
Content-Type: text/plain; charset="iso-8859-1"

 

ESTIMADOS COLEGAS:

Ante todo mis felicitaciones a Eduardo Abalde, Jesús M. Muñoz y Paula Ríos de Deus, autores de la Ponencia del 3° Congreso Virtual de AIDIPE.

 

Luego, y dado que está directamente asociado al tema del congreso, quiero contarles que la Comisión Nacional de Evaluación y Acreditación Universitaria (CONEAU) de mi país (Argentina) ha editado en CD, el trabajo de mi autoría La evaluación de la Docencia Universitaria: Un problema complejo, seleccionado en la convocatoria para elaboración de materiales teórico-metodológicos, organizada por dicho organismo.

El texto puede encontrarse en: www.coneau.edu.ar en el link Publicaciones: o en www.coneau.edu.ar/VAIN.pdf

Como sé que hay quienes han tenido problemas de acceso al mismo, aquel que esté interesado, puedo enviarle una versión en pdf  al correo que se me indique.

 

En ese material, trabajo - entre otros conceptos - la diferencia entre:

a) evaluar la Función Docencia, como una de las dimensiones de la evaluación institucional universitaria (esto se acercaría la propósito del PUC en España).

b) evaluar la actividad de cada docente, como parte de su carrera académica.

 

En este segundo sentido, les comento que en nuestra Universidad (la Universidad Nacional de Misiones) la evaluación supone los siguientes momentos y actores:

 

      ACCIÓN

     DESCRIPCIÓN

     RESPONSABLE

    

      Informe del Docente

     Los docentes presentan, al finalizar un año académico, un informe en el que reseñan y evalúan sus actividades de docencia, investigación, extensión o servicios, gestión, etc.

     Profesores o Auxiliares Docentes

    

      Informe del Responsable de Cátedra

     Los responsables de cada cátedra evalúan las actividades de los docentes que las integran.

     Responsable de Cátedra

    

      Informe del Departamento

     Los Directores de Departamentos [1] evalúan las actividades de los docentes que los integran.

     Director del Departamento

    

      Informe de Investigación y/o Extensión

     Los organismos pertinentes (Secretarías o institutos) que coordinan las actividades de  investigación, extensión o servicios presentan los informes de cada uno de los docentes.

      Secretarías o Institutos de  investigación o de extensión

    

      Encuesta Estudiantil

     Los alumnos regulares de cada asignatura confeccionan la encuesta, referida a cada uno de los docentes con los cuales han tenido actividad durante el cuatrimestre o año correspondiente.

     Secretaría Académica de cada Facultad.

    

      Evaluación Final

     El Comité Académico analiza las planificaciones, los informes, las encuestas y todo el material adicional (programas de asignaturas, etc.), evalúa la actividad de los docentes que le son asignados y emite un dictamen.

     Comité Académico [2]

 


Date:         Tue, 29 Oct 2002 21:27:47 +0100
Reply-To:     Foro sobre Investigacion Educativa de la Asociacion AIDIPE
              <AIDIPE-L@LISTSERV.REDIRIS.ES>
Sender:       Foro sobre Investigacion Educativa de la Asociacion AIDIPE
              <AIDIPE-L@LISTSERV.REDIRIS.ES>
From:         Daniel Gonzalez <danielg@UGR.ES>
Subject:      Re: 3CV

 

Estimados compañeros:

 

    En primer lugar, quiero sumarme a las felicitaciones ya manifestadas a los compañeros y compañera de la Universidad de la Coruña por la ponencia elaborada para este tercer congreso virtual de AIDIPE, ya que supone un gran esfuerzo manejar 17 cuestionarios de distintas Universidades españolas e intentar elaborar un único cuestionario. Creo muy pertinente el tema desarrollado y de "rabiosa actualidad".

    En estos momentos en la Universidad de Granada hay abierto un debate al respecto ¡¡delicado debate!!. Me explico: hace unos días el Rector de nuestra universidad, anunció en prensa que teniendo en cuanta y a través de un cuestionario (similar al utilizado en otras Universidades y parecido al

usado en años anteriores en nuestra propia Universidad, años 1990, 1991, 1992, 1993) llamado cuestionario para la evaluación de la actuación docente del profesorado, se evaluará al profesorado y ello repercutirá en "los complementos docentes" (evaluación positiva más dinero). Este cuestionario elaborado por el Vicerrectorado de Planificación, Calidad y Evaluación Docente, se presenta en sociedad via correo electrónico, con el procedimiento seguido en su elaboración y pidiendo sugerencias (poco se puede hacer puesto que está prácticamente cerrado). Se producen algunas reacciones,  que intento resumir 1) la Junta de Personal Docente e Investigador (dice el texto, recogiendo el sentir de gran parte del profesorado), manifiesta: a) ... se hace necesaria la elaboración de un verdadero plan general de mejora de la calidad docente, b).... dispuesta a participar en la discusión y el diseño de un plan de mejora de la calidad docente, c) necesario un cambio en la denominación de los cuestionarios "cuestionario para la evaluación del grado de satisfacción del alumnado de la Universidad de Granada; d) .... se reconsidere todo el proceso de elaboración de los cuestionarios. 2) Un grupo de profesores de psicometría en una carta abierta al profesorado y un estudio realizado del cuestionario reflexionan sobre: a) errores formales; b) ... sobre la validez y fiabilidad, no pertinencia del alfa c) muestra utilizada.

    Después de seguir atentamente las aportaciones el congreso y lo que está ocurriendo en mi Universidad, reflexiono y me pregunto:

 

1. Creo necesaria la evaluación de la docencia universitaria para mejorar la calidad de la labor desempeñada por el profesorado.

2. Un modelo evaluativo basado en la aplicación de un cuestionario (40 item) es suficiente, o se hace necesario establecer modelos de evaluación que partiendo de una autoevaluación como un proceso reflexivo y participativo implique a todos los miembros para la mejora de la calidad.

3. Coincido con las apreciaciones de la compañera Emelina y el grupo de profesores de psicometría, en cuanto a la utilización del análisis factorial para variables categóricas, los estudios de validez, elección de los 40 items. ¿"no forzamos a veces demasiado los datos"?

4. ¿Cómo implantar una "cultura de la evaluación", autoinformes del profesorado, del departamento, ... ?

5. ¿Se evalúa realmente la actuación docente del profesorado con el cuestionario o estamos midiendo el grado de satisfacción del alumnado?.

6. ¿Prestamos suficiente atención a la validez y fiabilidad del cuestionario?, tal vez no.

7. ¿Se desarrolla adecuadamente el proceso de construcción de los instrumentos?

 

    Un grupo de profesores/as de MIDE estamos trabajando para intentar profundizar un poco en el tema, y responder a los interrogantes que se nos plantean. Estamos intentando implantar en un modelo reflexivo de gestión de la calidad en centros educativos. Algunas tesis ya están realizadas y otras en curso.

    Si disponemos de más tiempo, y puesto que el debate sigue después del día 30 de octubre, profundizaremos e intentaremos responder a estos y otros interrogantes planteados.

 


Date:         Thu, 31 Oct 2002 17:34:29 +0100
From:         "Francisco M. Aliaga" <Francisco.Aliaga@UV.ES>
Subject:      "Fin" del 3CV y nuevos artículos en RELIEVE

 

Hola Aidiperos:

 

Ya sabéis que las fechas en las que estaba previsto celebrar  el Tercer Congreso Virtual de AIDIPE han concluido. Eso no quiere  decir que no se pueda seguir intercambiando opiniones, informaciones y/o proyectos. Se trata sólo de un límite arbitrario, en el que hemos reservado la lista fundamentalmente para ese tema.

Ya sabéis que después de la presentación (los pasillos) también se hacen comentarios e intercambios interesantes (a veces "los" interesantes). El tema merece la pena. Quizá sería interesante que se comentara cómo salen los resultados cuando se aplican otras técnicas analíticas, como decía Emelina o ver la aplicabilidad en las distintas universidades.

 

En fin (que me enrollo yo sólo): que eso de que se acabó el 3CV es sólo una forma de hablar y que se puede seguir con ello.

 

 (... Borrado  ...)

 

  La ponencia del Congreso aparecerá también, dado su interés,

próximamente publicada como artículo en RELIEVE, junto con las

intervenciones realizada como "reply" a la misma.

 

Saludos

 

   Cisco

--

********************************

Francisco.Aliaga@uv.es

Departamento de Métodos de Investigación y Diagnóstico en Educación

Universidad de Valencia (Spain)

********************************


Date:         Mon, 4 Nov 2002 11:18:49 +0100
From:         Miguel Muñoz <munoz@UDC.ES>
Subject:      RE: [AIDIPE] "Fin" del 3CV y nuevos artículos en RELIEVE
 

 

En nombre de mis compañeros quiero agradeceros a todos los places que nos habéis brindado a la ponencia presentada.

Creo que ha cumplido con el cometido que nuestro Sr. organizador (D. Francisco) esperaba y, por supuesto, con los objetivos que nos habíamos planteado con creces; pues nuevas visiones no ya sobre el contenido sino sobre formas de análisis han sido expuestas y presentadas con cientificidad demostrada. Gracias por haber leído nuestra intervención y por vuestra colaboración. Es justo.

Graciñas.

 

Jesús Miguel Muñoz Cantero

Eduardo Abalde Paz

Paula Rios de Deus.


 

 



[1] Área MIDE. Universidade da Coruña.