TEMA 2
PARADIGMAS, MÉTODOS, TÉCNICAS E INSTRUMENTOS
1. LOS
MÉTODOS DE EVALUACIÓN
1.1.
EL PARADIGMA CUALITATIVO
1.2. LA MEDIDA EN EDUCACIÓN
1.3. DEL ENFRENTAMIENTO A LA
COMPLEMTARIEDAD
2. LOS
PROCEDIMIENTOS DE OBTENCIÓN DE DATOS
3. EL
PROCESO DE EVALUACIÓN.
3.1. EXPERIMENTAL VS CUALITATIVO
3.2. ALGUNAS PROPUESTAS RECIENTES
Profesor: JESÚS GARCÍA VIDAL
0. INTRODUCCIÓN
Ahora llega el momento de plantear, ya
sea brevemente, la espinosa cuestión de la metodología; no obstante,
antes de entrar en materia es preciso matizar que de lo que nos vamos a ocupar
en las siguientes páginas es, específicamente, de la cuestión de los métodos y
procedimientos de recogida de datos, a pesar de que desde nuestro punto de
vista la metodología de la evaluación es más amplia: incluye también los
métodos y procedimientos que el evaluador emplea para dar sentido a los datos
que ha obtenido, es decir, la metodología que se utiliza en el análisis e
interpretación de los datos.
Esta matización es necesaria en la
medida en que, al haberse concebido tradicional-mente esta actividad más como
“assessment” que como evaluación en sentido estricto (ver volumen I), casi
siempre se reduce la metodología a los modos de obtener la información, lo que
es fuente de no pocos equívocos y malentendidos; a la vez, lo es por el hecho
de que, siendo partidarios de ampliar el concepto de metodología de la
evaluación al análisis y valoración de datos, hemos optado por centrarnos sólo
en la cuestión del cómo recogerlos, lo que obedece, básicamente, a que creemos
que análisis e interpretación sólo son posibles desde el conocimiento teórico
del objeto evaluado... ¡a lo que hemos dedicado más de la mitad de las
páginas de esta obra!
Por lo tanto, una metodología de la evaluación psicopedagógica exigiría
generaliza-ciones y transferencias importantes, respecto al análisis de los
contenidos realizados con anterioridad. Esperamos que los lectores realicen esa
generalización de conocimientos, tan necesarias para evitar equívocos
innecesarios.
1. LOS MÉTODOS
DE EVALUACIÓN.
Comenzando ya con el tema que nos ocupa,
sin duda la primera cuestión que debe abordarse es la de la eventual opción por
un enfoque metodológico cualitativo o cuantitativo, pues aunque
tradicionalmente ha existido en este campo un claro predominio de la
metodología cuantitativa, basada en el recurso a procedimientos «objetivos» en
la recogida de la información y en su análisis (desde supuestos positivistas),
lo cierto es que en los últimos veinticinco o treinta años la situación ha cambiado
drásticamente, desde que en los 60 comienza a aparecer un movimiento de crítica
radical hacia dicha perspectiva que, como alternativa, pone el énfasis en el
análisis de los procesos antes que en los productos y en la necesidad de
adoptar métodos interpretativos de evaluación.
No
obstante, como señalan STUFFLEBEAM y SHINKFIELD (1987), en los años setenta la
crítica a la evaluación positivista rebasa los límites de una discusión acerca
de los métodos de recogida de datos para convertirse en un abierto
enfrentamiento epistemológico que se plantea como un debate entre diferentes paradigmas,
entre diferentes filosofías de la ciencia, procedente una de ellas de la
tradición de las ciencias físico-naturales y la otra de la tradición de las
ciencias sociales.
En
este marco, la crítica de fondo es que la evaluación cuantitativa tradicional,
al elegir el paradigma del positivismo, asume toda una serie de supuestos
básicos, valores, creencias, etc. que determinan no sólo los procedimientos de
indagación, sino el tipo de problemas que deben considerarse importantes, las
líneas básicas para el desarrollo de teorías y modelos o la opción
epistemológica del evaluador (FILSTEAD, 1986)... que no serían los más apropiados en el campo educativo.
1.1. CARACTERÍSTICAS DEL ENFOQUE
CUALITATIVO. Frente al enfoque cuantitativo, el también denominado a
menudo etnográfico o interpretativo (ERICKSON, 1989) se
caracteriza por defender una aproximación fenómeno-lógica a los procesos
educativos, es decir, por el hecho de estar particular-mente interesado en
comprender los fenómenos desde la perspectiva de quienes están implicados en
ellos; en la medida en que la educación es un fenómeno social, según ERICKSON
(1989) se interesa además especialmente por el carácter social y culturalmente
organizado para el aprendizaje de las aulas, por la índole de la enseñanza como
uno más de los aspectos del medio de aprendizaje reflexivo, por la naturaleza y
contenido de las perspectivas de significado del profesor y el alumno (es
decir, su percepción e interpretación de la realidad en que se encuentran,
incluidos los propósitos del otro) como elementos intrínsecos y explicativos
del proceso educativo.
Como
señalan ERICKSON, FLORIO Y BUSCHMAN (1986), lo que persigue fundamentalmente la
investigación interpretativa, y por tanto la evaluación psicopedagógica en
cuanto proceso de investigación, es averiguar qué está sucediendo
específicamente en la acción social que tiene lugar en un contexto particular,
qué significan esas acciones para sus autores o cómo se relaciona lo que está
sucediendo en ese contexto con lo que sucede en otros niveles del sistema
social, entre otras cuestiones centrales: “En conclusión, las preguntas
centrales de la investigación interpretativa conciernen a aspectos que no son ni
obvios ni triviales; se refieren a aspectos relativos a opciones y significados
humanos y, en ese sentido, atañen a la mejora de la práctica educativa (...) El
programa de la investigación interpretativa implica someter a un examen crítico
toda suposición acerca del significado, en todo lugar, incluyendo las
suposiciones sobre las metas deseables y las definiciones de la enseñanza
escolar” (ERICKSON, 1989:203).
Desde
esta óptica, por tanto, se defiende que al ser cada situación única y especial
y estar determinada por lo que significan las cosas para quienes participan en
ella, los métodos de recopilación de la información han de ser los propios de
la etnografía, y de las Ciencias Humanas y Sociales en general (como la
observación participante, por ejemplo), y no los de las ciencias «duras».
En
cuanto a los métodos de análisis y valoración de los datos, se proponen también
en esta línea, defendiendo como procedimientos esenciales la triangulación y la
negociación.
Por
lo que se refiere a la triangulación, además de ser un método de recogida de
datos (se cruzan datos que proceden de distintas fuentes y procedimientos), es
también un método de contraste (de los datos mismos, pero también de las
opiniones directas de las personas participantes en la evaluación) y un método
de reflexión grupal e individual que propicia la implicación de las personas
afectadas en los eventuales cambios que deban introducirse en la situación
evaluada., y que supone un enfoque crítico en relación con todos y cada uno de
los aspectos del proceso evaluador.
En
cuanto a la negociación, constituye una estrategia central en toda
investigación cualitativa, ya que –como hemos señalado- en este enfoque se
concede una importancia central a los significados que “la realidad” tiene para
las personas implicadas en cualquier situación social, humana: “Llamamos
negociación de la evaluación a los diálogos y acuerdos que llevan a cabo los
evaluadores y los participantes en el programa, antes, durante y después del
trabajo de campo, a fin de establecer
los presupuestos metodológicos y las condiciones y principios éticos por los
que han de transcurrir la recogida de datos, su análisis y discusión y la
expansión social de los productos de la evaluación (...) La claridad, la
transparencia y la honestidad serán los componentes esenciales de los procesos
de negociación” (FDEZ-SIERRA y SANTOS GUERRA, 1992:39).
Dado
que los procesos de negociación determinan en gran medida la recogida de datos,
la colaboración de los participantes, los procesos de triangulación, las
sesiones de análisis y a consecuencia de los informes, es preciso procurar que
la negociación reúna una serie de características y condiciones básicas (íbid):
1.
Democracia y participación: Se debe comenzar por aclarar los términos de
la evaluación con todos o el máximo número posible de participantes e
implicados en la situación con independencia del origen de la idea.
2.
Claridad y explicitación: Se debe negociar con los participantes el
alcance y sentido de una dimensión esencial de la evaluación: puesto que
saldrán problemas latentes, incoherencias, defectos... deben evitarse
ambigüedades y pedir una aceptación activa, no meramente pasiva, del proceso.
3.
Interacción y flexibilidad: La negociación ha de tender al consenso
real, al acuerdo de las partes implicadas, a la suma de esfuerzos en una tarea
común a lo largo de todo el proceso de evaluación.
En
resumen, se trata de un enfoque que defiende los métodos descriptivos,
interpreta-tivos e inductivos, que se aproximan a la realidad «desde dentro»,
asumiendo que ésta es siempre dinámica y cambiante y que es percibida por cada
persona de manera peculiar y diferente, de modo que este tipo de métodos poseen
una alta validez ecológica, al mirar muy de cerca la realidad del
proceso educativo, si bien estos mismo métodos han sido a menudo criticados por
sus potenciales problemas de fiabilidad, de consistencia y objetividad de los
datos y, por tanto, de las interpretaciones que de ellos se derivan.
Frente
a esta crítica, son numerosos los autores que han tratado de poner de relieve
que el problema no es tanto el de una falta de rigor de los métodos
cualitativos, como que éstos deben tener criterios propios para su “control de
calidad”, diferentes a los habituales en la investigación cuantitativa (por
ejemplo, Guba y Lincoln, 1982; Santos Guerra, 1990); así, al papel tradicional
de validad interna correspondería en estos métodos el criterio de
“credibilidad” de los datos e interpretaciones, al de la validez externa
correspondería el criterio de “transferibilidad” de los resultados, al de
fiabilidad el criterio de “dependencia” y al de objetividad el criterio de
“confirmabilidad”.
Dicho
de otro modo, no se trata de que la evaluación cualitativa sea poco rigurosa
(¡puede serlo tanto o tan poco como la cuantitativa!), sino de que se
establecer criterios de rigor diferentes en la medida en que se parte del
supuesto básico de que la neutralidad y la objetividad del paradigma
positivista son, en este campo, sencillamente imposibles, de modo que sería
necesario trasladar la cuestión de la neutralidad desde el evaluador a los
datos, a su confirmabilidad (Scriven, 1972).
1.2. CARACTERÍSTICAS DEL ENFOQUE
CUANTITATIVO: LA MEDIDA EN EDUCACIÓN. Medir
de acuerdo con el Diccionario de la Real Academia de la Lengua es “comparar una cantidad con su respectiva
unidad, con el fin de averiguar cuántas veces la primera contiene la segunda”. Cuando se trata de
medir objetos físicos (espacio, tiempo, calor, potencia, etc.) esta definición
no presenta mayor dificultad, ya que las unidades de medidas se encuentran
definidas de manera precisa y por consenso, ya que pueden observarse de forma
directa y concreta; y por ello tienen el mismo valor (o aproximado) para
cualquier persona que pretenda medirla y tenga capacidad e instrumentación
adecuada para ello.
Ahora bien cuando se trata de medir atributos humanos como las
aptitudes o capacidades (verbal, numérica, espacial, mecánica, etc.), las
actitudes, la motivación, o características como el dominio de una materia, los
conocimientos previos que se poseen, etc. si bien la definición sigue siendo
válida, existen problemas subyacentes referidos a la unidad de medida
utilizada, ya que esta no tiene un valor constante, sino que depende de de una manera sustantiva de las teorías,
tanto de las que ha emanado el constructo, como las propias de la persona que
en ese momento concreto está midiendo.
Como puede comprenderse por la reflexión realizada medir en
educación es bastante más difícil y problemático que hacerlo en el mundo
físico. De tal manera, que como señala Martínez Arias (1995:23): la medida comienza con un procedimiento para
identificar los elementos del mundo real con elementos de un sistema lógico por
medio de una definición semántica precisa, lo que exige llevar a cabo un
proceso definido por los siguientes pasos:
1)
Identificar al objeto a medir.
2)
Identificar la conducta que se pretende medir en el sujeto.
3) Aplicar
una regla de asignación numérica por la que se asigna un número a la propiedad
de la unidad experimental que se está midiendo.
Por todo ello podemos definir la medida en educación,
siguiendo a Lord y Novick (1968:17) como “Un
procedimiento para la asignación de números (puntuaciones, medidas) a
propiedades especificadas de unidades experimentales, de modo que las caractericen
y preserven las relaciones especificadas en el dominio comportamental”
Es decir, que como señalan Gil Flores y otros (1995:24): la medición
se considera como la construcción de un modelo sobre alguna propiedad
relativa a un objeto, algún atributo de
una persona o sobre alguna producción de un grupo social. En ese proceso de
modelización se establecería una correspondencia entre un sistema relacional
empírico (el atributo) y un sistema relacional formal (el modelo)… Si el modelo
es numérico entonces se denomina, en sentido estricto, medición.
Resumiendo, podemos afirmar que la medida en educación
presenta dos cuestiones que resulta necesario dominar de manera muy precisa
para poder ser lo más rigurosos posible en la medición que pretendamos realizar
en cada momento: la teoría en la que
se ha definido el atributo o característica que pretendemos medir y el escalamiento que se haya establecido
para asignar las unidades de medida que vamos a utilizar.
1.2.1. LA MEDIDA Y LAS
TEORIAS DE LA EDUCACIÓN. La Educación resulta interpretada por teorías
(conjunto de constructos que sirven para explicar, describir y predecir
aspectos limitados del dominio a que pertenecen) y como es lógico los
constructos (conjunto de conceptos y abstracciones que intentan explicar la
conducta humana en un determinado aspecto) no pueden medirse directamente, ya
que no existen como realidades concretas
(nadie ha visto alguna vez la inteligencia, el conocimiento, la motivación,
etc), por lo que no tenemos más remedio que medirlos de manera indirecta, es
decir a través de instrumentos de medida diseñados a tal efecto, por lo que,
como señala Martínez Arias (1995:20-30) el diseño de dichos instrumentos
presenta importantes problemas, que podemos resumir en las siguientes:
1)
No hay una única aproximación a la medida de un
constructo que sea universalmente aceptada, ya que siempre existe la
posibilidad que para medir un determinado constructo se selecciones diferentes
tipos de conductas para su definición operativa.
2)
Las medidas educativas están siempre basadas en
muestras limitadas de conducta, por lo que la selección de los contenidos
adecuados en los instrumentos constituye una de las principales dificultades en
su construcción.,
3)
La medida siempre tiene error. Porque se basan
en muestras limitadas y un tiempo limitado están afectadas por todos los
errores propios del muestreo, por lo que una cuestión fundamental de los
instrumentos de medida será identificar el grado de error de los mismos.
4)
Falta de escalas con origen y unidades de medida
bien definidas. Es difícil aceptar que el 0 constituyen la ausencia de un rasgo
o atributo, así como la igualdad de las diferencias existentes entre
puntuaciones equidistantes (p.e. alguien que tiene una puntuación de 10 en una
prueba de cálculo, debería tener el doble de capacidad de cálculo de aquel que
tiene 5, y sin embargo sabemos que esto no es así).
1.2.2. El escalamiento de las medidas. Los números que asignamos
cuando se mide en Educación no siempre se usan de la misma manera, sino que
hacemos diferentes usos de los mismos, por eso es necesario como afirmar Gil
Flores y otros (1995:25) conocer las propiedades de los números:
a) Los números que son distintos ponen de manifiesto diferencias de
mayor que (>) o menor que (<) entre los objetos o atributos a los que se
aplican. Esta propiedad nos permite determinar el grado en que una
característica es poseída por los objetos o atributos.
b) Dos números iguales suponen igualdad de cantidad (=). Esta propiedad
nos permite establecer la igualdad o desigualdad entre dos objetos o atributos.
c) Cuando un número x es mayor que otro y, y este mayor que otro z; x
siempre es mayor que z. Esta propiedad nos permite comparar objetos o atributos
no estudiados directamente.
d) Entre dos números consecutivos cualquiera existe la misma diferencia
que entre otros dos números consecutivos, cualquiera que sea el valor de estos.
Esta propiedad nos permite establecer relaciones entre las diferencias
encontradas en los atributos u objetos.
e) Un número que contenga x veces la unidad es del doble de cualquier
número que lo contenga tan sólo x/2 y,
recíprocamente, este mismo es la mitad de aquél. Que nos permitirá establecer
el grado en que un objeto posee una determinada característica.
De acuerdo con la formulación aritmética anterior, es posible
definir diferentes escalas de medida utilizadas en la investigación educativa.
La definición de cada uno de estos niveles o escalas de medida sólo puede
hacerse identificando las relaciones con otras escalas. En este sentido, una
escala no puede ser ordinal o de razón en un sentido absoluto, sólo puede
mantener una relación ordinal o de razón con otra escala.
A) Escala Nominal. El
nivel nominal de medición consiste en asignar números que hacen la función de
meros nombres a los objetos individuales (de ahí que también se hable de
«rótulos» para aludir a este nivel de medida») o bien a las categorías o clases
en que un conjunto de objetos puede dividirse (en este caso suele hablarse
también de un nivel de medida identificado como «categorías»).
Rótulos son los números que se utilizan para identificar a
cada uno ge los alumnos de una clase. Categorías son las asignaciones del
número 1 a
los hombres y del «2» a las mujeres,
cuando se diferencia a éstos en razón del sexo. En ambos casos, también
podríamos asignar números diferentes, o una letra, y ello no cambiaría las
relaciones entre los objetos medidos. Las únicas diferencias entre emplear
números como rótulos y usarlos para representar categorías, estriban en que en
este último uso con cada número se designa a más de un sujeto u objeto, y todos
los sujetos u objetos asignados al "sino número son semejantes respecto de
algún atributo.
Al estudiar la categorización se debe distinguir entre el
empleo de los números para representar categorías y para significar la
frecuencia con que aparecen los objetos en diferentes categorías. En sentido
estricto, no se mide, simplemente se enumeran o cuentan los objetos en cada
categoría.
Si empleamos un nivel de medida nominal lo único que podemos inferir es que los objetos
difieren entre sí respecto del atributo medido, aunque ello no implica
ninguna otra propiedad. Imaginemos que asignamos el «uno» a los nacidos en
Sevilla; el «dos» a los nacidos en Cádiz, y el «tres» a los nacidos en Córdoba.
Lógicamente no podemos decir que un cordobés es igual a un sevillano más un
gaditano (l+2=3).
En consecuencia, si nos situamos en un nivel de medición
nominal no podemos manejar propiedades de los números como el orden, el tamaño
o cualquiera otra.
B) Escala Ordinal.
El nivel ordinal de medida supone que podemos establecer una ordenación,
creciente o decreciente, con los objetos u hechos que medimos. De esta forma,
si la cifra que se le asigna al objeto A es mayor que la de B, puede inferirse
que A posee un mayor grado de atributo que B. Como ejemplos podemos citar los
intereses y actitudes de los alumnos, las calificaciones escolares o los rangos
militares. En este nivel de medición los números nos indican el orden, pero no cantidades absolutas, ni que los
intervalos entre, los números sean iguales.
Consideremos que hemos ordenado el rendimiento académico de un
grupo de alumnos, de acuerdo con las calificaciones que han obtenido en una
determinada materia. A partir de los datos tan sólo podremos mantener que un sujeto
tiene un rendimiento académico mayor que otro, pero no podremos determinar
cuánto mayor. Tampoco podremos determinar si las diferencias en el rendimiento
entre los sujetos que obtienen un 5 con respecto a los que obtienen un 6, es la
misma diferencia que la existente entre los que obtienen un 9 frente a los que
obtienen un 10.
En consecuencia, con un nivel de medida ordinal podríamos
establecer sin dificultad que algo es diferente de algo, y que es mayor o
menor, pero no cuánto mayor o menor.
C) Escala de Intervalo.
Este nivel de medida posee las características de los dos niveles
anteriores por lo que podemos
establecer diferencias entre objetos y determinar el grado en que tales
diferencias se dan. Además podemos discernir diferencias iguales entre objetos,
lo cual viene a significar que las distancias numéricamente iguales con
respecto a la propiedad que se está midiendo.
El cero en la escala de intervalo es arbitrario y no significa
ausencia de la propiedad. Por ejemplo, que un alumno obtenga una puntuación
determinada en una prueba no significa que carezca absolutamente de los
conocimientos o habilidades en ella medidos. La temperatura (en sus diferentes
sistemas), la numeración de los años o los días son ejemplos de este nivel de
medición. ‑Con los números de este nivel atribuidos a objetos empíricos puede
efectuarse la multiplicación y división entre diferencias de los mismos, pero
no con los números directamente, con ellos sólo puede realizarse la suma o la
resta.
D) Escala de Razón. La
única diferencia entre este nivel de medición y el del intervalo en que en este nivel el punto cero no
es arbitrario y corresponde realmente a una total ausencia de la propiedad
analizada. En definitiva, además de las propiedades de los niveles anteriores
añade el cero absoluto. Como ejemplos de este nivel de medición podernos
señalar la altura, el peso, el tiempo o la temperatura en la escala Kelvin.
En
el campo de la investigación educativa en la actualidad es prácticamente
impensable mediciones a este nivel. Esto significaría que por debajo de un cero
en conocimientos, habilidad, destreza, motivación, no habría ni conocimientos,
ni habilidad, ni destreza, ni motivación, en grado alguno. A pesar de que
podemos llegar a pensar en personas sin tales atributos, lo difícil es poder
apreciarlo, poder encontrar una unidad de medida y medirlo. En este nivel de
medición se puede realizar todo tipo, de operaciones aritméticas.
1.2.3. ELEMENTOS
IMPLICADOS EN LA MEDICIÓN EDUCATIVA. La medición de objetos, hechos o
fenómenos educativos resulta de una gran dificultad ya que son numerosos los
aspectos que se incluyen en el proceso de medición. Además, tanto a nivel
teórico, como a nivel práctico o técnico supone una gran complejidad.
A) Complejidad del
objeto a medir. En el terreno educativo la primera dificultad con la que
nos enfrentamos es la complejidad de los objetos que se pretenden medir.
Normalmente procederemos a la medición de determinadas características de las
personas que intervienen en el proceso educativo, o productos de la aplicación
de las mismas en determinadas condiciones. Consideremos, por ejemplo, el
rendimiento académico de un alumno, inmediatamente nos daremos cuenta de la
gran cantidad y variedad de variables que
inciden en el mismo y que varían según las personas y sus contextos
particulares. Algunas de estas variables pueden actuar de forma independiente,
o bien están relacionadas entre sí.
Pero, además, nos encontramos con la dificultad que supone determinar lo que se desea medir, En
multitud de ocasiones nos encontramos con
construcciones teóricas difíciles de definir. Por ejemplo, el liderazgo
educativo, el clima escolar o el mismo concepto de rendimiento académico son
constructos cuyos significados cambian según unos investigadores u otros, y
según unos contextos culturales u otros.
La complejidad se nos hace más patente aún cuando nos
enfrentamos a las dificultades con que contarnos a la hora de observar las
propiedades que sobre un hecho u objeto queremos analizar, pues en el terreno
educativo nos encontrarnos con que son medidas
de forma indirecta a través de conductas concretas o respuestas a
determinados reactivos. Además, se da la circunstancia de que es prácticamente imposible repetir de una forma exacta la
medida, ya que tanto las personas que intervienen en el proceso educativo, así
como el propio proceso, se encuentran en cambio continuo.
B) La elaboración de la
regla. Como hemos señalado anterior-mente, la medición se realiza asignando
un numeral a un hecho de acuerdo con ciertas reglas, que deben tener su
justificación y no ser arbitrarias. La elaboración de una regla exige una
teoría sobre lo que ha de medirse y la contrastación de ésta con la realidad
para comprobar su plausibilidad. Cuando, por ejemplo, en una prueba de
matemáticas asignamos un número positivo (+1) por cada respuesta correcta, un
cero cuando no hay respuesta y un número negativo (‑1) cuando se da una
respuesta incorrecta, estamos estableciendo una regla. Pero este hecho no
implica que podamos defender que cada pregunta representa una cantidad igual de
saber. >
C) La unidad de medida.
Si quisiéramos medir la estatura de nuestros alumnos podríamos utilizar una
tabla con una serie de divisiones o trazos que pueden ser o no iguales, pero,
en caso de no serio, el número que se obtuviera corno resultado del proceso de
medición sería muy difícil de interpretar.
Esta situación se da en muchas situaciones educativas, y así
podernos encontrarnos con que un 8 (notable) puede representar saberes reales
inferiores a un 5 (aprobado) cuando estas calificaciones son atribuidas por
profesores diferentes, incluso utilizando un mismo examen.
Toda unidad de medida ha de ser, por tanto, constante y
precisa. En el caso de que no sea posible alcanzar este máximo, al menos habría
que elaborar instrumentos objetivos en los que la valoración de cada unidad del
mismo reciba la‑misma valoración en todas las situaciones en que se use el
instrumento.
D) El instrumento de medida. Para poder
medir es preciso contar con instrumentos que respondan a una determinada
estructura, organización y características si querernos que la información a
recoger sea precisa y fiel.
Todo
instrumento de medición ha de poseer unas características técnicas mínimas,
entre las que destacan la validez y la fiabilidad. Es decir, un instrumento ha
de medir lo que afirma medir, y además ha de hacerlo de forma estable, en
distintas situaciones y contextos y coherentemente.
E) La operación de medir. La medición
puede verse afectada al menos por tres factores:
a) El aplicador del instrumento de medida. El tipo de
relación que sea capaz de crear el aplicador determinará diferentes actitudes
en los sujetos, afectando a las respuestas en un instrumento.
b) Las circunstancias espacio‑temporales pueden suponer
también un influjo en los resultados que se logren en un proceso de medida. La
hora, el clima o la comodidad del lugar, por ejemplo, pueden afectar a los
respuestas dadas por los sujetos.
e) Las características, externas e internas, pueden dar
lugar al rechazo o la aceptación, o pueden influir en que los resultados puedan
ser considerados válidos, fiables y representativos.
1.3.
DEL ENFRENTAMIENTO A LA COMPLEMENTARIEDAD. En cuanto al enfoque
cuantitativo, sigue supuestos de tipo positivista, de modo que busca sobre todo
las relaciones estables entre variables que permiten detectar qué
circunstancias y fenómenos son causa o consecuencia de tales otros, más allá de
las peculiaridades de cada caso, que es entendido sobre todo como un «ejemplo»
de la ley más general detectada en situaciones controladas con ciertas
garantías de objetividad y rigor.
Es,
por tanto, una perspectiva que puede calificarse como hipotético-deductiva, que
se aproxima a los procesos educativos «desde fuera» (COOK y REICHARDT, 1986),
en el sentido de que su interés no está en cómo viven los implicados su
realidad, aun cuando pueda considerar estas percepciones o vivencias como otras
variables más que puedan ser objetivadas (y ahí tenemos los «tests» de
autoconcepto, p.e.) e incluidas en los modelos explicativos; siguiendo una distinción
clásica, aunque creemos que también demasiado simplista, se trataría de un
enfoque que busca más la «explicación comprensiva» que la «comprensión
explicativa» (ERICKSON, 1989), característica en cambio de la aproximación
etnográfica o cualitativa.
De
manera coherente con estos supuestos básicos, esta perspectiva defiende la
utilización de métodos objetivos de recogida y análisis de los datos (como la
observación sistemática y controlada o el uso de pruebas estandarizadas), que
son sus recursos técnicos para obtener una información que será tratada
matemáticamente, por lo general mediante técnicas y procedimientos estadísticos
de los que se suele destacar su fiabilidad... al tiempo que se critica su falta
de relevancia y de validez ecológica.
Aunque,
efectivamente, este tipo de planteamientos parece chocar frontalmente con los
anteriores, lo cierto es que la pasión bélica que caracterizó el debate
durante los años setenta ha ido evolucionando en los últimos años hacia la
superación del enfrentamiento, al irse aceptando que ambos enfoques tienen su
sentido, papel y utilidad en la evaluación, ya que cada uno de ellos presenta
cualidades y defectos específicos que lo hacen idóneo para ciertos aspectos al
mismo tiempo que lo invalidan para otros. Por ejemplo, parece claro que la
aproximación etnográfica es idónea cuando se trata de estudiar y comprender los
procesos educativos, la dinámica de la interacción social que se da en ellos,
las vivencias de profesores, padres, alumnos ... implicados, las relaciones
entre lo que sucede en el aula y el contexto total en que ésta se encuentra1 ; la
perspectiva cuantitativa, en cambio, parece difícilmente sustituible cuando nos
interesa constatar resultados analizados por comparación con otras situaciones
(incluida la que implica a los mismos sujetos en un momento diferente) por
poner sólo dos ejemplos.
Como
afirma REICHARDT (1986), no existe incompatibilidad epistemológica entre
adoptar una u otra filosofía y recurrir a la utilización de métodos de recogida
de datos procedentes de cualquiera de ella, de modo que cada vez más un número
creciente de autores manifiestan su convencimiento de que una verdadera
evaluación educativa debe combinar el análisis del impacto con el
análisis de los procesos (HOLLISTER y otros, 1986), los métodos
cualitativos con los cuantitativos.
Por
ejemplo, SIEBER (1973) postula lo que llama complementariedad subsecuente, es
decir, una estrategia evaluativa en la que se usen los métodos cualitativos
para abrir o ampliar nuestro conocimiento de la situación antes de que los
métodos cuantitativos comprueben la validez de nuestra hipótesis.
DENZIN
(1978), en una línea similar, defiende la triangulación metodológica,
entendiendo por tal el empleo de métodos diferentes y complementarios para la
evaluación de un mismo fenómeno, de modo que cada uno puede aportar los datos
procedentes de estas diversas fuentes.
IANNI
y ORR (1986) concretan estas ideas en lo que denominan «estratificación
metodológica»:
1º)
Se comienza la evaluación con una metodología cualitativa que nos permita una
aproximación comprensiva a los procesos educativos objeto de nuestro interés:
descripción de la situación, identificación de las variables importantes ...
2º)
Se continúa empleando una metodología cuantitativa, en un momento posterior,
para depurar y validar nuestras hipótesis, clarificar nuestros análisis e,
incluso, establecer el grado de generabilidad de lo descubierto (respecto al programa,
respecto a los alumnos...).
Aunque
refiriéndose específicamente a la evaluación de programas, PÉREZ JUSTE (1992)
propone los principios de complementariedad de métodos y técnicas, que creemos
perfectamente extensibles al conjunto de la evaluación educativa (y
psicopedagógica, en la medida en que entendemos ésta como un «momento» de la primera:
1. Complementariedad
de métodos. «La cuestión fundamental, cuando se plantea el tema con rigor,
es el reconocimiento explícito de que es el objetivo de la investigación el que
debe determinar la opción metodológica»
(p. 29), es decir, que la elección de los métodos de evaluación (en nuestro
caso) no puede depender única ni exclusivamente del posicionamiento
paradigmático del evaluador, sino que ha de estar orientada por la propia
naturaleza de aquello que pretendemos evaluar, dadas las potencialidades y
limitaciones de cada enfoque. La propia complejidad del objeto de nuestro
interés en la evaluación de necesidades educativas, parece, por tanto, obligar
a la complementariedad metodológica.
2. Complementariedad
de técnicas. Surge del propio planteamiento que acabamos de formular de una
manera natural, ya que tal perspectiva implica el recurso a una variedad de
técnicas e instrumentos de evaluación, aconsejada tanto por la enorme complejidad de los
procesos que pretendemos evaluar, como por la propia limitación que cada
técnica particular impone a los datos que brinda (COOK y REICHARDT, 1986, PÉREZ
JUSTE, 1990).
3. LOS
PROCEDIMIENTOS DE OBTENCIÓN DE DATOS.
Por muchas razones, ésta última es una
cuestión que personalmente nos preocupa de un modo especial, en la medida en
que, como afirma PÉREZ JUSTE (op. cit.) ninguna valoración es mejor que los
datos sobre los que se sustenta. A menudo, añadiríamos, suele ser peor; en
particular, cuando hemos obviado en la selección y utilización de métodos,
técnicas e instrumentos cuatro cuestiones fundamentales (GUBA, 1985):
a) el valor de verdad de nuestros datos,
b) la aplicabilidad de los mismos,
c) su consistencia
d) y su neutralidad,
Cayendo en consecuencia en algunos de
los problemas de toda evaluación psicopedagógica:
1) El sustentarse en unos datos
ciertamente rigurosos y confiables, pero que carecen de la menor validez
ecológica o relevancia de cara a los fines que se persiguen, dando lugar a un
perfecto e inútil informe «técnico». Un ejemplo típico de lo que describimos
pueden ser la enorme cantidad de información que aparecen en los informes al
uso de dudosa relación con la situación problemática del alumno o alumna y de
nula funcionalidad respecto a la toma de decisiones correspondiente en
cualquier evaluación.
2) El aportar informaciones relevantes y
valiosas pero que se sustentan más en el azar y, sobre todo, en la intuición
educativa del evaluador que en cualquier otra cosa, acercándose más a una
«psicopedagogía parda» que a una práctica verdaderamente técnico-científica,
con los riesgos que ello comporta: entre otros, la imposibilidad de valorar más
tarde qué aspectos de la propuesta diseñada han contribuido a la mejora de la
situación y cuáles no o, incluso, la han desvalorizado.
De forma resumida podemos
clasificar los instrumentos de diagnóstico en los siguientes grandes grupos, de
los que nos ocuparemos en los siguientes dos temas:
a)
Técnicas e instrumentos cualitativos, especialmente aquellos que tienen como base el método observacional.
b) Técnicas e
instrumentos cuantitativos, de entre las que sobresalen las pruebas o test.
4. EL PROCESO DE EVALUACIÓN.
Si,
como ya sugerimos al iniciar la sección anterior, la calidad de la evaluación
psicopedagógica, amén de depender de su utilidad, depende en parte de la bondad
de los instrumentos de recogida de información utilizados y en parte del rigor
con que se haya seguido el proceso diagnóstico (Anaya, 1994), es obvio que no
podemos finalizar este capítulo sin referirnos expresamente a esta última cuestión,
que no quedó sino apuntada en líneas muy generales en los capítulos
introductorios del primer volumen de esta obra. El problema es, sin embargo,
que no contamos con un único modelo que defina con precisión y de manera
totalmente aceptada ese proceso al que se ha aludido.
4.1.
ENFOQUE CORRELACIONAL VERSUS EXPERIMENTAL. Por ejemplo,
Silva (1982) describe ese proceso en el modelo tradicional de evaluación como
una secuencia de 7 etapas, que podríamos resumir como sigue:
1º. Etapa de información preliminar. En
este primer momento las tareas básicas son la delimitación del problema
diagnóstico, la obtención de los datos complementarios a la demanda que sea
pertinentes y el análisis de las limitaciones prácticas existentes.
2º. Etapa de formulación de objetivos:
El segundo paso sería la formulación explícita de los objetivos que se tratará
de alcanzar mediante el proceso diagnóstico.
3º. Etapa de diseño. Tras haber
explicitado los objetivos, se procede a elaborar un plan de trabajo en el que,
tras formular las correspondientes hipótesis y deducir las pertinentes
conclusiones de ellas, se procede a seleccionar los procedimientos e
isntrumentos de recogida de información que se emplearán, así como las
estrategias que se emplearán para analizar los datos y relacionarlos entre sí.
4º. Etapa de praxis diagnóstica. O etapa
de aplicación del plan de trabajo elaborado en la fase anterior para recopilar
la información que nos servirá de base en las conclusiones y para analizar e
interpretar los datos..
5º. Etapa de juicio diagnóstico. Es la
fase del proceso en que se procede a contrastar la hipótesis inicial, ya sea
para confirmarla, ya sea para decidir que carecemos de la informaciónsuficiente
para llegar a una conclusión fiable.
6º. Etapa de información. Finalmente,
una vez que se ha decidido que la fase anterior ha acabado, se procede a
elaborar el pertinente informe diagnóstico y orientador, es decir, un informe
en el que se incluyen, al menos, las conclusiones elaboradas y las
recomendaciones de actuación derivadas de ellas a juicio del evaluador.
Coincide,
pues, la descripción del enfoque tradicional que hace Silva con lo que
Fernández Ballesteros (1983) denomina enfoque correlacional de la
evaluación, como opuesto a un enfoque experimental en el que la gran
diferencia con el anterior es la introducción del tratamiento como parte del
propio proceso evaluativo, ya que se entiende que evaluación y tratamiento son
partes indisociables de un mismo todo: al evaluar generamos hipótesis que el
tratamiento debe poner a prueba. Desde esta perspectiva, el proceso en su
conjunto podríamos resumirlo en las siguientes etapas (Fernández Ballesteros y
Carrobles, 1981):
1º. Etapa de
evaluación inicial. Sería la fase de trabajo en la que el objetivo fundamental
es llegar a elaborar una hipótesis explicativa del caso analizado y, por tanto,
en la que se agotaba el modelo anterior. A lo largo de ella podríamos
identificar los siguientes momentos sucesivos:
1.1. Formulación y evaluaciónd el
problema.
1.2. Formulación de hipótesis.
1.3. Selección de conductas y variables
para el tratamiento: Tras haber llegado a formular una hipótesis del caso, esta
primera etapa finalizaría con la selección y definición tanto de las conductas
que se tratará de modificar mediante el tratamiento, como de las variables que
se manipularán para lograr esa modificación.
2º. Etapa de
tratamiento. El objetivo principal en esta segunda fase del proceso seríaponer
a prueba las hipótesis elaboradas en la fase anterior mediante la manipulación
controlada de las variables elegidas previamente, de modo que podríamos
identificar los siguientes momentos o fases en ella:
2.1. Establecimiento de las metas del
tratamiento.
2.2.Selección del programa concreto de
tratamiento que se pondrá en marcha.
2.3. Identificación de las posibles
variables contaminantes y diseño de las estartegias para su control.
2.4. Aplicación del tratamiento.
3º. Etapa de
evaluación de resultados. Como puede fácilmente imaginarse, el objetivo en esta
tercera etapa del proceso es obtener la información que nos habrá de permitir
valorar en qué medida las hipótesis eran correctas o no y actuar en
consecuencia, existiendo dos posibilidades:
(a) Si las expectativas se cumplen, se
da por finalizado el tratamiento y se planifica y lleva a cabo una estrategia de
seguimiento.
(b) Si no se cumplen, se revisan las
diversas fases seguidas hasta ese momento, con el fin de determinar si los
problemas se deben a la etapa de evaluación o a la de tratamiento y actuar en
consecuencia.
Aunque
la idea básica que subyace a este último planteamiento (la evaluación debe
plantearse como un proceso de investigación científica en el que además de
hipotetizar una explicación del caso analizado se precisa contrastar las
hipótesis elaboradas) se ha ido imponiendo poco a poco en el ámbito de la
evaluación psicopedagógica, lo cierto es que no son pocas las críticas que se
le pueden hacer y que, de hecho, se le han hecho, entre las que podríamos
destacar dos en particular.
En
primer lugar, es fácil observar cómo este modelo de evaluación cae en el error
de considerar que las situaciones naturales son, en lo esencial, equivalentes a
las de laboratorio, pues si no es así no se explica demasiado bien cómo un
tratamiento llevado a cabo en un contexto natural puede considerarse en sentido
estricto como medio adecuado para contrastar las hipótesis de la evaluación:
aunque se enuncie la necesidad de identificar y controlar las variables
extrañas, éstas son potencialmente tantas que la propuesta descrita parece
demasiado radical.
En
segundo lugar, en el ámbito educativo, si seguimos al pie de la letra lo que se
nos propone acabaremos por no encontrar diferencias prácticas (al nivel que
estamos considerando aquí) entre este modelo y el correlacional: la evaluación
terminaría al finalizar la primera etapa, ya que en nuestro campo los tratamientos
son la actividad natural en la vida cotidiana. Y eso por no mencionar el hecho
de que los costes de una evaluación así planteda (en tiempo, recursos,
dinero...) la hacen de hecho inviable.
Estas
críticas, no obstante, no deberían llevarnos a desviar nuestra atención de lo
esencial, es decir, del hecho de que es el argumento central de la propuesta es
sumamente razonable, sobre todo si a todo lo dicho añadimos que en el enfoque
correlacional la elaboración de hipótesis supone un salto de tal calibre entre
datos y explicación, que mejor cabría hablar de especulación que de inferencia.
En dicho enfoque no es el caso en sí lo que se examina, sino la pertenencia del
mismo a una serie previamente delimitada de categorías diagnósticas, a
diferencia de lo que ocurre en el enfoque experimental, de naturaleza más
inductiva.
Así,
la idea de un proceso de evaluación basado en el enfoque experimental se ha ido
haciendo cada vez un hueco mayor en la literatura y en la práctica
psicopedagógicas, pero matizada en uno u otro sentido.
4.2.
ALGUNAS PROPUESTAS RECIENTES. Por ejemplo, Anaya (1994) mantiene la
idea de las relaciones entre evaluación y tratamiento, pero insertando ambas
actividades como partes relacionadas entre sí dentro del diagrama general de lo
que denomina “proceso orientador”; un proceso que formaría un ciclo con seis
fases (conocimiento, pronóstico, toma de decisiones, intervención, valoración y
seguimiento) de las que sólo las dos primeras podrían considerarse realmente de
evaluación. Centrándonos en ellas, implicarían las siguientes fases de trabajo:
1º.
Especificación del conocimiento requerido. Primer momento del proceso tras
una demanda o tras la identificación de un problema, implicaría la delimitación
de las necesidades que debe satisfacer la evaluación, la búsqueda inicial del
“conocimiento diagnóstico” pertinente, la formulación explícita de los
interrogantes a resolver con la evaluación y la fijación del tipo de actuación
a realizar.
2º. Recogida
inicial de información.
3º. Formulación
de hipótesis y deducción de consecuencias.
4º. Validación
de hipótesis. En esta fase del proceso las actividades esenciales que deben
realizarse serían la elaboración de un plan de recogida y tratamiento de datos,
la palicación práctica de ese plan (recogida de información), el tratamiento de
la información recabada y, finalmente, el contraste de las hipótesis
construídas en la etapa anterior.
5º. Formulación
de conclusiones.
6º. Predicción.
Momento de máxima relavancia en el proceso, implicaría la elaboración de un
plan para derivar predicciones, la formulación explícita de tales predicciones
y la elaboración de una conclusión pronóstica.
7º. Comunicación
y registro de resultados. Por último, debería procederse a la elaboración
de los pertinentes informes de evaluación.
Para
asegurarnos de que el proceso seguido tiene unas garantías mínimas de rigor,
Anaya indica los siguientes criterios por etapas:
-En
la fase de especificación del conocimiento requerido, se debería establecer una
correspondencia real entre las necesidades de conocimiento surgidas de la
situación orientadora y las cuestiones que se formulan sobre el caso, así como garantizar la
coherencia entre el contenido de tales cuestiones y el tipo de acción
evaluativa elegido.
-En
la fase de recogida inicial de información, habríamos de asegurarnos de que los
datos recabados son relevantes con respecto a las cuestiones antes formuladas y
proceder a una recopilación de datos lo más precisa posible (sin mencionar la
cuestión de la calidad de los propios procedimientos empleados para
recopilarlos).
-En
cuanto a la fase de formulación de hipótesis y deducción de consecuencias, se
habría de poner el acento en cuestiones como garantizar la suficiencia de la
base empírica, la evitación de sesgos en el análisis de los datos y el
concoimiento del orientador, tanto sobre los hechos concretos como sobre la
teoría pertinente para su interpretación.
-En
la fase de validación de hipótesis, por su parte, sería de la mayor importancia
la definición precisa de las variables implicadas en la hipótesis, la calidad
de de los procedimientos e instrumentos de recogida de la información, la
precisión del plan de recogida de datos y la utilización de procedimientos de
falsación, no de verificación, de las hipótesis para evitar sesgos indeseables.
-Al
llegar al establecimiento de conclusiones, una cuestión esencial sería que las
interpretaciones formuladas no excedan lo que permitirían la lógica y la
teoría, además de la base empírica disponible, así como no perder de vista el
carácter probabilístico de tales conclusiones.
-En
la fase de predicción, siguiendo la línea anterior, sería vital tratar de
derivarlas con la máxima objetividad posible, lo que implica detallar no sólo
nuestras predicciones, sino también su fundamento y los pasos que hemos seguido
para construirlas. Asimismo, deberíamos tratar de no exceder la
generalizabilidad permitida por la información de base.
-Finalmente,
en lo que atañe a la comunicación de resultados serían criterios de calidad la
fidelidad en el registroo y exposición de los aspectos más relevantes del
conocimiento obtenido y del proceso seguido y la adecuación del estilo y
formato comunicativos a las carácterísticas de los destinatarios de cada
informe elaborado.
En
una línea muy parecida se manifiesta también Suárez (1994), quien –hablando
específicamente de la evaluación e intervención frente a las dificultades de
aprendizaje- propone un modelo general en el que “se advierten tres grandes
bloques o macro-componentes, diferenciados sólo como artificio para el
análisis, pero que forman en realidad un todo único: evaluación diagnóstica,
intervención e informe psicopedagógico (este último, relativamente
independiente” (pág. 66). Muy brevemente, en lo que afecta estrictamente al
primero de esos bloques su propuesta es la que sigue:
1º. Detección y
derivación.
Fase inicial del proceso, supone que el propio profesorado responsable de un
alumno tome conciencia de la existencia de una dificultad de aprendizaje o que
ésta (o una potencial dificultad futura) se detecte en un screening, además de
la existencia de una petición expresa de ayuda en relación con el problema
detectado (derivación).
2º.
Identificación del alumno y motivo de consulta. En esta
segunda fase, se trata de dejar constancia expresa tanto de los datos
identificativos del alumno o alumnos en cuestión, como del motivo explícito de
la consulta efectuada, pero implica también el establecimiento de la
legitimación necesaria para proseguir el proceso de evaluación (comprobación de
la legalidad de la eventual intervención, visto bueno de los padres o tutores
legales del alumno o alumnos, comprobación de la adecuación ética de la posible
intervención).
3º.
Especificación de la demanda. Tras haber establecido la legitimidad
de la intervención y explicitado el motivo de la consulta, antes de continuar
el orientador debería tratar de precisar al máximo ese motivo y, sobre todo, de
analizar la demanda “latente”, es decir, analizar cuál es la concepción
implícita de quienes demandan su intervención con respecto al caso en cuestión.
4º. Primera
recogida de información. Esta fase coincide con lo que en el modelo clínico
se denomina anamnesis, de modo que consiste en una recopilación detallada de la
información ya existente respecto al caso en los contextos naturales.
Básicamente, pues, estamos hablando de la obtención de información sobre el
historial evolutivo, de salud y escolar del alumno, así como sobre
características actuales del propio alumno, de su medio socio-familiar y de su
medio escolar que puede observarse directamente o recabarse mediante
entrevistas, cuestionarios e inventarios con el alumno y con informantes
allegados a él, así como a través de la consulta de documentos escritos y de
otra índole disponibles. Evidentemente, además de recoger esa información, es
preciso estructurarla, organizarla.
5º. Primera
valoración. Tras
haber organizado esa información inicial, se trata de analizarla y formular una
primera hipótesis de trabajo, con base en la cual se puede decidir si es
preciso continuar la evaluación propiamente dicha o, por el contrario, contamos
ya con datos suficientes para continuar con el proceso.
6º. Recogida de
información adicional.
Si en la fase anterior hemos concluido que no tenemos aún base empírica suficiente
para dar el proceso de evaluación por acabado, se procede a:
(1) Elaborar un
guión con la información que necesitamos recopilar y las fuentes de datos
necesarias y planificar el proceso a seguir;
(2) Recoger la
información siguiendo el plan previsto. En este momento, claro, se buscan datos
ya más precisos y específicos que antes y se recurre a cuantos procedimientos e
instrumentos se estime oportuno.
7º. Síntesis
valorativa. Tras
haber completado esta segunda recogida de datos, se procede a una nueva
valoración, que coincidiría con lo que otros autores describen como diagnóstico
y pronóstico o como modelo funcional. Así, el contenido de esta síntesis
valorativa ha de ser una hipótesis explicativa del caso, que sería la base para
la toma de decisiones de tratamiento.
EJERCICIOS
1.
Identifica los diferentes Escalas de medición.
Medidas
|
Escalas de medición
|
|||
|
Nominal
|
Ordinal
|
Intervalo
|
Razón
|
Actitudes
|
|
|
|
|
Raza
|
|
|
|
|
Longitud
|
|
|
|
|
C.I.F.
|
|
|
|
|
La edad en años
|
|
|
|
|
Energía
|
|
|
|
|
2. Un profesor construye una prueba de cálculo con 100
operaciones de sumas, restas, multiplicaciones y divisiones.
(a) Si el profesor asigna un NO APTO al que cometa al menos un
error en una de las operaciones, y asigna un APTO a quien haya realizado todas
las operaciones correctamente, ¿qué nivel de medida está empleando?.
(b) Si el profesor asigna un INSUFICIENTE a los que hayan
realizado menos de 30 operaciones correctamente, un SUFICIENTE, a quienes hayan
realizado entre 30 y 50 operaciones bien, un BIEN a los que, hayan realizado
entre 51 y 70 operaciones bien; un NOTABLE a los que hayan realizado entre 71 y
90 operaciones correctas y m SOBRESALIENTE a los que hayan realizado más de 90
operaciones correctas, ¿qué nivel de medida está utilizando?
(c) Si el profesor cuenta el número de operaciones
correctamente realizadas y denomina tal hecho como «habilidad general para el
cálculo», ¿cuál es el nivel de medida al que está recurriendo?
REFERENCIAS BIBLIOGRÁFICAS
ANASTASI,
A. (1978): Los
tests psicológicos. MADRID:
AGUILAR.
Anaya, D. (1994): Introducción
al diagnóstico en orientación. Bases conceptuales y metodológicas. Madrid:
Sanz y Torres.
A.E.R.A.,
A.P.A. y N.C.M.E. (1985): Standards for educational and psychological
testing. Washing-ton
D.C.: American Psychological Association.
Ander-Egg,
E. (1980):
Técnicas de investigación social. Buenos Aires: El Cid.
ANGUERA, M. T. (1988):
La observación en la escuela.
Barcelona: Graó.
Arce, C. (1994): Técnicas de construcción
de escalas psicológicas. Madrid: Síntesis.
Avia, M.D. (1981): La
autoobservación. En R. Fdez.-Ballesteros y J.A. Carrobles (eds): Evaluación
conductual. Madrid : Pirámide.
BEATTY, P. T. (1981): The
concept of Need: proposal for a working definition; Journal of the
Community Development Society, 12, 39-46.
BARDIN, L (1986): Análisis
de contenido. Madrid : Akal.
Campbell, D. (1957):
Factors relevant to to the validity of experiments in social settings. Psychological
Bulletin, 54(4):297-312.
CAMPIONE, J.C. y BROWN, A. L.(1990): Guide-learning and tranfer:
Implications for approaches toassessment. En FREDERIKSEN et al. (Eds.): Diagnostic
monitoring of skills and knowledge Acquisition.Hillsdale (N.J.): L.E.A.
Ciminero, A.; Nelson, R. y Lipinski, D. (1977): Self-monitoring procedures. En A. Ciminero, K. Calhoun y H.
Adams (eds): Handbook of behavioral assessment. New York : Wiley.
Cronbach,L.J. (1971): Test
validation. En R.L. Thorndike (dir): Educational measurement; Washington , D.C. :
American Council of Education.
Cronbach,L.J. (1975):
Beyond the two disciplines of scientific psychology; American Psychologist,
30:116-127.
CRONBACH, L.J. (1972):
Fundamentos de la exploración psicológica. Madrid : Biblioteca Nueva.
Cronbach,L.J. (1984):
Essentials of psychological testing; Cambridge
(Mass): Harper.
Cronbach, L.J. y Quirk, T.J. (1976):
Test validity. En International Encyclopaedia of Education; New York : McGraw Hill.
CRONBACH, L.J. (1982): Designing evaluations of educational and
social programs. San Francisco :
Jossey Bass.
CRONBACH, L.J. (1984): Essentials of psychological testing. New York: Harper & Row..
CAZDEN, C. B. (1990): El discurso en el aula. En WITTROCK(Ed.): La
investigación de la enseñanza, III. Barcelona: Paidós-MEC.
COOK, T.D. y
REICHARDT, S. (1986): Hacia una superación del enfrentamiento entre los
métodos cualitativos y los cuantitativos. En COOK, T.D. y REICHARDT, S.:
Métodos cualitativos y cuantitativos en investigación evaluativa.Madrid:
Morata.
DARDER, P. y LÓPEZ,
J.A. (1985): QUAFE-80. Cuestionario para el análisis del funcionamiento de
la escuela. Barcelona: Onda.
DENO, S.L. y FUCHS,
L.S (1987): Developing Curriculum-Based. Mesasurement
Systems for Data-Based Special Education Problem Solving. Focus on Excepcional Children, April, 1-17.
DENZIN, N.K. (1978): The Research Ac. New York: McGraw-Hill.
ERICKSON, F (1989):
Métodos cualitativos de investigación sore la enseñanza. En Wittrock (Ed): La
investigación en la enseñanza, Vol II. Barcelona: Paidós-MEC.
EVERTSON, C.M. y
GREEN, J.L (1989): La observación como indagación y como método. En M.C.
WITROCK: La investigación en la enseñanza (II). Barcelona: Paidós.
FERNÁNDEZ BALLESTEROS, R. (1981): Psicodiagnóstico.
Conceptos y metodología (2ª ed.); Madrid: Cincel.
(1983): Psicodiagnóstico.
Madrid: Cincel.
(1987): El
ambiente: análisis psicológico. Madrid: Pirámide.
(1992): Técnicas de
evaluación ambiental. En FDEZ. BALLESTEROS (Dir.): Introducción a
la Evaluación
Psicológica, Vol I. Madrid: Pirámide.
(1992) La observación.
En R. Fernández Ballesteros (dir): Introducción a la evaluación psicológica,
Volumen I. Madrid: Pirámide.
(1992): Técnicas subjetivas. En R. Fdez. Ballesteros (dir): Introducción
a la evaluación psicológica, volumen I. Madrid: Pirámide.
Fernández
Ballesteros, R. Y Carrobles, J.A. (1981): Evaluación conductual. Madrid:
Pirámide.
FERNÁNDEZ SIERRA. J. y SANTOS GUERRA, M. A.
(1992): Evaluación cualitativa de programas de Eps. Una experiencia
hospitalaria. Málaga: Aljibe.
FILSTEAD. W. J.
(1986):Métodos cualitativos. Una experiencia necesaria en la investigación
evaluativa.En COOK, T.D. y REICHARDT, S.: Métodos cualitativos y
cuantitativos en investigación evaluativa.Madrid: Morata.
Fox, D. (1980): El proceso de
investigación en educación. Pamplona :
EUNSA
GLASER, R. (1963):Instruccional technology and the measurement or
learnign outcomes. American Psychologits, 18:519-521.
Gª JIMENEZ, E. (1991):
Una teoría práctica de la evaluación. Estudio etnográfico. Sevilla: MIDO.
Gª JIMENEZ, E., GIL
FLORES, J. y RODRIGUEZ, G. (1995): Elaboración
de pruebas objetivas. Zaragoza: ICCE
Gª JIMENEZ, E. y Gª VIDAL, J. (1995): La recogida de
información. Apuntes policopiados.
García
Marcos, J.A. (1983):
La entrevista. En R. Fdez. Ballesteros (dir): Psicodiagnóstico. Unidades
Didácticas; Madrid: UNED.
GARCÍA PASTOR, C.
(1993): Una escuela común para niños diferentes. Salamanca: Amarú.
Gª VIDAL, J. G. y
MANJÓN, D.G. (1992): Evaluación e Informe psicopedagógico: una
perspectiva curricular (Vol. I). Madrid: EOS.
García Vidal,J. y
Glez. Manjón,D. (2000):
Dificultades de aprendizaje e intervención psicpedagógica. Volumen 2:
Lectura y escritura; Madrid: EOS.
GIL-ROALES, J. (1988):
Evaluación y diagnóstico conductual
en el Retraso en el Desarrollo. En LUCIANOy GIL (Ed.): Análisis e
intervención conductual en el retraso en el desarrollo. Granada: Unversidad
de Granada; 25-50.
GOETZ, J.P. Y
LECOMPTE, M.D. (1988): Etnografía y diseño cualitativo en investigación
educativa. Madrid : Morata.
Le Compte, M.D. y Goetz, J.P.
(1982): Problems of reliability and validity in ethnographic research. Review of Educational
Research,
52(1):31-60.
GODOY, A. y SILVA, F. (1990): El proceso diagnóstico
como una actividad científico-técnica.En
II Congreso C.O.P.: Comunicaciones área 7; Madrid: COP, 65-69.
HOLLISTER, R.G.;
KEMPER, P. y WOOLDRIDGE, J. (1986): Conexión entre el análisis de proceso y el
análisis de impacto: el caso del trabajo asistido. En COOK, T.D. y
REICHARDT, S. (1986).
IANNI, F. y ORR, M.T.
(1986): Hacia un acercamiento entre las metodologías cuantitativas y
cualitativas. En COOK, T.D. y
REICHARDT, S. (1986)
KERLINGER,
F.N. (1985): Investigación del comportamiento.
Técnicas y metodología.México: Interamericana.
Lincoln, Y. y Guba,
E.
(1985): Naturalistic inquiry. Beverly Hills (Cal): Sage.
Likert, R.A. (1932): A technique for the
mesurement of attitudes. Archives of Psychology, 140:5-53.
LOPEZ-BARAJAS-
zAYAS, e. (1985): Pedagogía
Experimental. Madrid:
UNED.
MARTINEZ
ARIAS, R. (1996): Psicometría:
teoría de los tests psicológicos y educativos. Madrid : Sintesis.
Messick,S.
(1975): The standard problem: Meaning and values in in measurement and
evaluation; American Psychologist, 30, 955-966.
Miguel-Tobal,
J.J. (1993):
Cuestionarios, inventarios y escalas. En
F.J. Labrador, J.A. Cruzado y M. Muñoz (eds): Manual de técnicas de
modificación y terapia de conducta. Madrid : Pirámide.
Osgood, C. E. (1952): The nature and
measurment of meaning. Psychological Bulletin, 49, 197-237.
Patton, M.Q. (1980): Qualitative
evaluation methods. Beverly Hills
(Cal. ): Sage.
Pawlik, K. (1980): Diagnosis
del diagnóstico. Barcelona: Herder.
PÉREZ JUSTE, R.
(1992): Evaluación de Programas Educativos. Documento no publicado.
Programa del Tercer Ciclo de la UNED: Dpto MIDE.
PÉREZ JUSTE, R. y
GARCÍA RAMOS, J.M.(1989):Diagnóstico, evaluación y toma de decisiones.
Madrid: Rialp.
PÉREZ JUSTE, R. y MARTÍNEZ, L. (1989): La evaluación de centros educativos.
Madrid: Cincel.
Pervin,
L. A.
(1978): Personalidad. Teoría, evaluación e investigación. Bilbao:
Desclée de Brower (original en inglés de 1970).
POPPER, K. (1977): La lógica de la
investigación científica. Madrid: Tecnos.
Puente, M.L. de la;
Labrador, F.J. y Arce, F. de (1993): La autoobservación. En F.J. Labrador, J.A.
Cruzado y M. Muñoz (eds): Manual de técnicas de modificación y terapia de
conducta. Madrid: Pirámide.
Rey, A. (1974): Conocimiento
del individuo por los tests. Madrid: Guadarrama.
Sattler, J. (1988): La
evaluación de la inteligencia infantil y habilidades especiales, 2ª Ed.
México D.F.: Manual Moderno (original en inglés de 1982)
SIEBER, S (1973): The integration of fieldwork and surrey methods. American Journal of
Sociology,
78: 133/159.
Silva, F. (1989): Evaluación
conductual y criterios psicométricos. Madrid: Pirámide.
Silva, F. (1992): La entrevista.
En R. Fdez.-Ballesteros (dirI: Evaluación Psicológica, volumen I; Madrid:
Pirámide
Silva,
F. (1982):
Introducción al psicodiagnóstico. Valencia: Promolibro.
Suárez,
A. (1994):
Dificultades en el aprendizaje. Un modelo de diagnóstico e intervención.
Madrid :
Santillana.
Stephenson, W. (1953):
The study of behavior. Q-Technique and its methology. Chicago : University of Chicago
Press.
TAYLOR, S. J. y BODGAN, R. (1986):
Introducción a los métodos cualitativos de investigación. Buenos Aires:
Paidós.
Thorndike, R.L. y
Hagen, E.P. (1989):
Medición y evaluación en psicología y educación, 2ª edición; México, D.F.:
Trillas.
Thurstone, L.L. (1927):
A law of comparative judgement. Psychological Review, 34:273-286.
TEJEDOR, F. J. (1990):
Perspectivas metodológicas del diagnóstico y evaluación de necesidades en el
ámbito educativo. Revista de Investigación Educativa, Vol. 8/16:15-37.
Verdugo,
M.A. (1994):
Evaluación curricular; Madrid: Siglo XXI.
No hay comentarios:
Publicar un comentario