Tema 2


TEMA 2

PARADIGMAS, MÉTODOS, TÉCNICAS E INSTRUMENTOS

 

 

 

1. LOS MÉTODOS DE EVALUACIÓN

     1.1. EL PARADIGMA CUALITATIVO

     1.2. LA MEDIDA EN EDUCACIÓN

     1.3. DEL ENFRENTAMIENTO A LA COMPLEMTARIEDAD

2. LOS PROCEDIMIENTOS DE OBTENCIÓN DE DATOS

3. EL PROCESO DE EVALUACIÓN.

     3.1. EXPERIMENTAL VS CUALITATIVO

     3.2. ALGUNAS PROPUESTAS RECIENTES

 

 

 

 

 

Profesor: JESÚS GARCÍA VIDAL


0. INTRODUCCIÓN

Ahora llega el momento de plantear, ya sea brevemente, la espinosa cuestión de la metodología; no obstante, antes de entrar en materia es preciso matizar que de lo que nos vamos a ocupar en las siguientes páginas es, específicamente, de la cuestión de los métodos y procedimientos de recogida de datos, a pesar de que desde nuestro punto de vista la metodología de la evaluación es más amplia: incluye también los métodos y procedimientos que el evaluador emplea para dar sentido a los datos que ha obtenido, es decir, la metodología que se utiliza en el análisis e interpretación de los datos.

Esta matización es necesaria en la medida en que, al haberse concebido tradicional-mente esta actividad más como “assessment” que como evaluación en sentido estricto (ver volumen I), casi siempre se reduce la metodología a los modos de obtener la información, lo que es fuente de no pocos equívocos y malentendidos; a la vez, lo es por el hecho de que, siendo partidarios de ampliar el concepto de metodología de la evaluación al análisis y valoración de datos, hemos optado por centrarnos sólo en la cuestión del cómo recogerlos, lo que obedece, básicamente, a que creemos que análisis e interpretación sólo son posibles desde el conocimiento teórico del objeto evaluado... ¡a lo que hemos dedicado más de la mitad de las páginas de esta obra!

Por lo tanto, una metodología de  la evaluación psicopedagógica exigiría generaliza-ciones y transferencias importantes, respecto al análisis de los contenidos realizados con anterioridad. Esperamos que los lectores realicen esa generalización de conocimientos, tan necesarias para evitar equívocos innecesarios.

 

1. LOS MÉTODOS DE EVALUACIÓN.

Comenzando ya con el tema que nos ocupa, sin duda la primera cuestión que debe abordarse es la de la eventual opción por un enfoque metodológico cualitativo o cuantitativo, pues aunque tradicionalmente ha existido en este campo un claro predominio de la metodología cuantitativa, basada en el recurso a procedimientos «objetivos» en la recogida de la información y en su análisis (desde supuestos positivistas), lo cierto es que en los últimos veinticinco o treinta años la situación ha cambiado drásticamente, desde que en los 60 comienza a aparecer un movimiento de crítica radical hacia dicha perspectiva que, como alternativa, pone el énfasis en el análisis de los procesos antes que en los productos y en la necesidad de adoptar métodos interpretativos de evaluación.

No obstante, como señalan STUFFLEBEAM y SHINKFIELD (1987), en los años setenta la crítica a la evaluación positivista rebasa los límites de una discusión acerca de los métodos de recogida de datos para convertirse en un abierto enfrentamiento epistemológico que se plantea como un debate entre diferentes paradigmas, entre diferentes filosofías de la ciencia, procedente una de ellas de la tradición de las ciencias físico-naturales y la otra de la tradición de las ciencias sociales.

En este marco, la crítica de fondo es que la evaluación cuantitativa tradicional, al elegir el paradigma del positivismo, asume toda una serie de supuestos básicos, valores, creencias, etc. que determinan no sólo los procedimientos de indagación, sino el tipo de problemas que deben considerarse importantes, las líneas básicas para el desarrollo de teorías y modelos o la opción epistemológica del evaluador (FILSTEAD, 1986)... que no serían  los más apropiados en el campo educativo.

 

1.1. CARACTERÍSTICAS DEL ENFOQUE CUALITATIVO. Frente al enfoque cuantitativo, el también denominado a menudo etnográfico o interpretativo (ERICKSON, 1989) se caracteriza por defender una aproximación fenómeno-lógica a los procesos educativos, es decir, por el hecho de estar particular-mente interesado en comprender los fenómenos desde la perspectiva de quienes están implicados en ellos; en la medida en que la educación es un fenómeno social, según ERICKSON (1989) se interesa además especialmente por el carácter social y culturalmente organizado para el aprendizaje de las aulas, por la índole de la enseñanza como uno más de los aspectos del medio de aprendizaje reflexivo, por la naturaleza y contenido de las perspectivas de significado del profesor y el alumno (es decir, su percepción e interpretación de la realidad en que se encuentran, incluidos los propósitos del otro) como elementos intrínsecos y explicativos del proceso educativo.

Como señalan ERICKSON, FLORIO Y BUSCHMAN (1986), lo que persigue fundamentalmente la investigación interpretativa, y por tanto la evaluación psicopedagógica en cuanto proceso de investigación, es averiguar qué está sucediendo específicamente en la acción social que tiene lugar en un contexto particular, qué significan esas acciones para sus autores o cómo se relaciona lo que está sucediendo en ese contexto con lo que sucede en otros niveles del sistema social, entre otras cuestiones centrales: “En conclusión, las preguntas centrales de la investigación interpretativa conciernen a aspectos que no son ni obvios ni triviales; se refieren a aspectos relativos a opciones y significados humanos y, en ese sentido, atañen a la mejora de la práctica educativa (...) El programa de la investigación interpretativa implica someter a un examen crítico toda suposición acerca del significado, en todo lugar, incluyendo las suposiciones sobre las metas deseables y las definiciones de la enseñanza escolar” (ERICKSON, 1989:203).

Desde esta óptica, por tanto, se defiende que al ser cada situación única y especial y estar determinada por lo que significan las cosas para quienes participan en ella, los métodos de recopilación de la información han de ser los propios de la etnografía, y de las Ciencias Humanas y Sociales en general (como la observación participante, por ejemplo), y no los de las ciencias «duras».

En cuanto a los métodos de análisis y valoración de los datos, se proponen también en esta línea, defendiendo como procedimientos esenciales la triangulación y la negociación.

Por lo que se refiere a la triangulación, además de ser un método de recogida de datos (se cruzan datos que proceden de distintas fuentes y procedimientos), es también un método de contraste (de los datos mismos, pero también de las opiniones directas de las personas participantes en la evaluación) y un método de reflexión grupal e individual que propicia la implicación de las personas afectadas en los eventuales cambios que deban introducirse en la situación evaluada., y que supone un enfoque crítico en relación con todos y cada uno de los aspectos del proceso evaluador.

En cuanto a la negociación, constituye una estrategia central en toda investigación cualitativa, ya que –como hemos señalado- en este enfoque se concede una importancia central a los significados que “la realidad” tiene para las personas implicadas en cualquier situación social, humana: “Llamamos negociación de la evaluación a los diálogos y acuerdos que llevan a cabo los evaluadores y los participantes en el programa, antes, durante y después del trabajo de campo, a fin  de establecer los presupuestos metodológicos y las condiciones y principios éticos por los que han de transcurrir la recogida de datos, su análisis y discusión y la expansión social de los productos de la evaluación (...) La claridad, la transparencia y la honestidad serán los componentes esenciales de los procesos de negociación” (FDEZ-SIERRA y SANTOS GUERRA, 1992:39).

Dado que los procesos de negociación determinan en gran medida la recogida de datos, la colaboración de los participantes, los procesos de triangulación, las sesiones de análisis y a consecuencia de los informes, es preciso procurar que la negociación reúna una serie de características y condiciones básicas (íbid):

1. Democracia y participación: Se debe comenzar por aclarar los términos de la evaluación con todos o el máximo número posible de participantes e implicados en la situación con independencia del origen de la idea.

2. Claridad y explicitación: Se debe negociar con los participantes el alcance y sentido de una dimensión esencial de la evaluación: puesto que saldrán problemas latentes, incoherencias, defectos... deben evitarse ambigüedades y pedir una aceptación activa, no meramente pasiva, del proceso.

3. Interacción y flexibilidad: La negociación ha de tender al consenso real, al acuerdo de las partes implicadas, a la suma de esfuerzos en una tarea común a lo largo de todo el proceso de evaluación.

En resumen, se trata de un enfoque que defiende los métodos descriptivos, interpreta-tivos e inductivos, que se aproximan a la realidad «desde dentro», asumiendo que ésta es siempre dinámica y cambiante y que es percibida por cada persona de manera peculiar y diferente, de modo que este tipo de métodos poseen una alta validez ecológica, al mirar muy de cerca la realidad del proceso educativo, si bien estos mismo métodos han sido a menudo criticados por sus potenciales problemas de fiabilidad, de consistencia y objetividad de los datos y, por tanto, de las interpretaciones que de ellos se derivan.

Frente a esta crítica, son numerosos los autores que han tratado de poner de relieve que el problema no es tanto el de una falta de rigor de los métodos cualitativos, como que éstos deben tener criterios propios para su “control de calidad”, diferentes a los habituales en la investigación cuantitativa (por ejemplo, Guba y Lincoln, 1982; Santos Guerra, 1990); así, al papel tradicional de validad interna correspondería en estos métodos el criterio de “credibilidad” de los datos e interpretaciones, al de la validez externa correspondería el criterio de “transferibilidad” de los resultados, al de fiabilidad el criterio de “dependencia” y al de objetividad el criterio de “confirmabilidad”.

Dicho de otro modo, no se trata de que la evaluación cualitativa sea poco rigurosa (¡puede serlo tanto o tan poco como la cuantitativa!), sino de que se establecer criterios de rigor diferentes en la medida en que se parte del supuesto básico de que la neutralidad y la objetividad del paradigma positivista son, en este campo, sencillamente imposibles, de modo que sería necesario trasladar la cuestión de la neutralidad desde el evaluador a los datos, a su confirmabilidad (Scriven, 1972).

 

 

 

1.2. CARACTERÍSTICAS DEL ENFOQUE CUANTITATIVO: LA MEDIDA EN EDUCACIÓN.  Medir de acuerdo con el Diccionario de la Real Academia de la Lengua es “comparar una cantidad con su respectiva unidad, con el fin de averiguar cuántas veces la primera  contiene la segunda”. Cuando se trata de medir objetos físicos (espacio, tiempo, calor, potencia, etc.) esta definición no presenta mayor dificultad, ya que las unidades de medidas se encuentran definidas de manera precisa y por consenso, ya que pueden observarse de forma directa y concreta; y por ello tienen el mismo valor (o aproximado) para cualquier persona que pretenda medirla y tenga capacidad e instrumentación adecuada para ello.

Ahora bien cuando se trata de medir atributos humanos como las aptitudes o capacidades (verbal, numérica, espacial, mecánica, etc.), las actitudes, la motivación, o características como el dominio de una materia, los conocimientos previos que se poseen, etc. si bien la definición sigue siendo válida, existen problemas subyacentes referidos a la unidad de medida utilizada, ya que esta no tiene un valor constante, sino que depende de  de una manera sustantiva de las teorías, tanto de las que ha emanado el constructo, como las propias de la persona que en ese momento concreto está midiendo.

Como puede comprenderse por la reflexión realizada medir en educación es bastante más difícil y problemático que hacerlo en el mundo físico. De tal manera, que como señala Martínez Arias (1995:23): la medida comienza con un procedimiento para identificar los elementos del mundo real con elementos de un sistema lógico por medio de una definición semántica precisa, lo que exige llevar a cabo un proceso definido por los siguientes pasos:

1) Identificar al objeto a medir.

2) Identificar la conducta que se pretende medir en el sujeto.

3) Aplicar una regla de asignación numérica por la que se asigna un número a la propiedad de la unidad experimental que se está midiendo.

Por todo ello podemos definir la medida en educación, siguiendo a Lord y Novick (1968:17) como “Un procedimiento para la asignación de números (puntuaciones, medidas) a propiedades especificadas de unidades experimentales, de modo que las caractericen y preserven las relaciones especificadas en el dominio comportamental

Es decir, que como señalan Gil Flores y otros (1995:24): la medición  se considera como la construcción de un modelo sobre alguna propiedad relativa a un objeto, algún atributo  de una persona o sobre alguna producción de un grupo social. En ese proceso de modelización se establecería una correspondencia entre un sistema relacional empírico (el atributo) y un sistema relacional formal (el modelo)… Si el modelo es numérico entonces se denomina, en sentido estricto, medición.

Resumiendo, podemos afirmar que la medida en educación presenta dos cuestiones que resulta necesario dominar de manera muy precisa para poder ser lo más rigurosos posible en la medición que pretendamos realizar en cada momento: la teoría en la que se ha definido el atributo o característica que pretendemos medir y el escalamiento que se haya establecido para asignar las unidades de medida que vamos a utilizar.

 

1.2.1. LA MEDIDA Y LAS TEORIAS DE LA EDUCACIÓN. La Educación resulta interpretada por teorías (conjunto de constructos que sirven para explicar, describir y predecir aspectos limitados del dominio a que pertenecen) y como es lógico los constructos (conjunto de conceptos y abstracciones que intentan explicar la conducta humana en un determinado aspecto) no pueden medirse directamente, ya que  no existen como realidades concretas (nadie ha visto alguna vez la inteligencia, el conocimiento, la motivación, etc), por lo que no tenemos más remedio que medirlos de manera indirecta, es decir a través de instrumentos de medida diseñados a tal efecto, por lo que, como señala Martínez Arias (1995:20-30) el diseño de dichos instrumentos presenta importantes problemas, que podemos resumir en las siguientes:

1)     No hay una única aproximación a la medida de un constructo que sea universalmente aceptada, ya que siempre existe la posibilidad que para medir un determinado constructo se selecciones diferentes tipos de conductas para su definición operativa.

2)     Las medidas educativas están siempre basadas en muestras limitadas de conducta, por lo que la selección de los contenidos adecuados en los instrumentos constituye una de las principales dificultades en su construcción.,

3)     La medida siempre tiene error. Porque se basan en muestras limitadas y un tiempo limitado están afectadas por todos los errores propios del muestreo, por lo que una cuestión fundamental de los instrumentos de medida será identificar el grado de error de los mismos.

4)     Falta de escalas con origen y unidades de medida bien definidas. Es difícil aceptar que el 0 constituyen la ausencia de un rasgo o atributo, así como la igualdad de las diferencias existentes entre puntuaciones equidistantes (p.e. alguien que tiene una puntuación de 10 en una prueba de cálculo, debería tener el doble de capacidad de cálculo de aquel que tiene 5, y sin embargo sabemos que esto no es así).

1.2.2. El escalamiento de las medidas. Los números que asignamos cuando se mide en Educación no siempre se usan de la misma manera, sino que hacemos diferentes usos de los mismos, por eso es necesario como afirmar Gil Flores y otros (1995:25) conocer las propiedades de los números:

a) Los números que son distintos ponen de manifiesto diferencias de mayor que (>) o menor que (<) entre los objetos o atributos a los que se aplican. Esta propiedad nos permite determinar el grado en que una característica es poseída por los objetos o atributos.

b) Dos números iguales suponen igualdad de cantidad (=). Esta propiedad nos permite establecer la igualdad o desigualdad entre dos objetos o atributos.

c) Cuando un número x es mayor que otro y, y este mayor que otro z; x siempre es mayor que z. Esta propiedad nos permite comparar objetos o atributos no estudiados directamente.

d) Entre dos números consecutivos cualquiera existe la misma diferencia que entre otros dos números consecutivos, cualquiera que sea el valor de estos. Esta propiedad nos permite establecer relaciones entre las diferencias encontradas en los atributos u objetos.

e) Un número que contenga x veces la unidad es del doble de cualquier número que lo contenga tan sólo x/2  y, recíprocamente, este mismo es la mitad de aquél. Que nos permitirá establecer el grado en que un objeto posee una determinada característica.

De acuerdo con la formulación aritmética anterior, es posible definir diferentes escalas de medida utilizadas en la investigación educativa. La definición de cada uno de estos niveles o escalas de medida sólo puede hacerse identificando las relaciones con otras escalas. En este sentido, una escala no puede ser ordinal o de razón en un sentido absoluto, sólo puede mantener una relación ordinal o de razón con otra escala.

A) Escala Nominal. El nivel nominal de medición consiste en asignar números que hacen la función de meros nombres a los objetos individuales (de ahí que también se hable de «rótulos» para aludir a este nivel de medida») o bien a las categorías o clases en que un conjunto de objetos puede dividirse (en este caso suele hablarse también de un nivel de medida identificado como «categorías»).

Rótulos son los números que se utilizan para identificar a cada uno ge los alumnos de una clase. Categorías son las asignaciones del número 1 a los hombres y del «2» a las mujeres, cuando se diferencia a éstos en razón del sexo. En ambos casos, también podríamos asignar números diferentes, o una letra, y ello no cambiaría las relaciones entre los objetos medidos. Las únicas diferencias entre emplear números como rótulos y usarlos para representar categorías, estriban en que en este último uso con cada número se designa a más de un sujeto u objeto, y todos los sujetos u objetos asignados al "sino número son semejantes respecto de algún atributo.

Al estudiar la categorización se debe distinguir entre el empleo de los números para representar categorías y para significar la frecuencia con que aparecen los objetos en diferentes categorías. En sentido estricto, no se mide, simplemente se enumeran o cuentan los objetos en cada categoría.

Si empleamos un nivel de medida nominal lo único que podemos inferir es que los objetos difieren entre sí respecto del atributo medido, aunque ello no implica ninguna otra propiedad. Imaginemos que asignamos el «uno» a los nacidos en Sevilla; el «dos» a los nacidos en Cádiz, y el «tres» a los nacidos en Córdoba. Lógicamente no podemos decir que un cordobés es igual a un sevillano más un gaditano (l+2=3).

En consecuencia, si nos situamos en un nivel de medición nominal no podemos manejar propiedades de los números como el orden, el tamaño o cualquiera otra.

B) Escala Ordinal. El nivel ordinal de medida supone que podemos establecer una ordenación, creciente o decreciente, con los objetos u hechos que medimos. De esta forma, si la cifra que se le asigna al objeto A es mayor que la de B, puede inferirse que A posee un mayor grado de atributo que B. Como ejemplos podemos citar los intereses y actitudes de los alumnos, las calificaciones escolares o los rangos militares. En este nivel de medición los números nos indican el orden, pero no cantidades absolutas, ni que los intervalos entre, los números sean iguales.

Consideremos que hemos ordenado el rendimiento académico de un grupo de alumnos, de acuerdo con las calificaciones que han obtenido en una determinada materia. A partir de los datos tan sólo podremos mantener que un sujeto tiene un rendimiento académico mayor que otro, pero no podremos determinar cuánto mayor. Tampoco podremos determinar si las diferencias en el rendimiento entre los sujetos que obtienen un 5 con respecto a los que obtienen un 6, es la misma diferencia que la existente entre los que obtienen un 9 frente a los que obtienen un 10.

En consecuencia, con un nivel de medida ordinal podríamos establecer sin dificultad que algo es diferente de algo, y que es mayor o menor, pero no cuánto mayor o menor.

C) Escala de Intervalo. Este nivel de medida posee las características de los dos niveles anteriores por lo que podemos establecer diferencias entre objetos y determinar el grado en que tales diferencias se dan. Además podemos discernir diferencias iguales entre objetos, lo cual viene a significar que las distancias numéricamente iguales con respecto a la propiedad que se está midiendo.

El cero en la escala de intervalo es arbitrario y no significa ausencia de la propiedad. Por ejemplo, que un alumno obtenga una puntuación determinada en una prueba no significa que carezca absolutamente de los conocimientos o habilidades en ella medidos. La temperatura (en sus diferentes sistemas), la numeración de los años o los días son ejemplos de este nivel de medición. ‑Con los números de este nivel atribuidos a objetos empíricos puede efectuarse la multiplicación y división entre diferencias de los mismos, pero no con los números directamente, con ellos sólo puede realizarse la suma o la resta.

D) Escala de Razón. La única diferencia entre este nivel de medición y el del intervalo en que en este nivel el punto cero no es arbitrario y corresponde realmente a una total ausencia de la propiedad analizada. En definitiva, además de las propiedades de los niveles anteriores añade el cero absoluto. Como ejemplos de este nivel de medición podernos señalar la altura, el peso, el tiempo o la temperatura en la escala Kelvin.

En el campo de la investigación educativa en la actualidad es prácticamente impensable mediciones a este nivel. Esto significaría que por debajo de un cero en conocimientos, habilidad, destreza, motivación, no habría ni conocimientos, ni habilidad, ni destreza, ni motivación, en grado alguno. A pesar de que podemos llegar a pensar en personas sin tales atributos, lo difícil es poder apreciarlo, poder encontrar una unidad de medida y medirlo. En este nivel de medición se puede realizar todo tipo, de operaciones aritméticas.

 

1.2.3. ELEMENTOS IMPLICADOS EN LA MEDICIÓN EDUCATIVA. La medición de objetos, hechos o fenómenos educativos resulta de una gran dificultad ya que son numerosos los aspectos que se incluyen en el proceso de medición. Además, tanto a nivel teórico, como a nivel práctico o técnico supone una gran complejidad.

A) Complejidad del objeto a medir. En el terreno educativo la primera dificultad con la que nos enfrentamos es la complejidad de los objetos que se pretenden medir. Normalmente procederemos a la medición de determinadas características de las personas que intervienen en el proceso educativo, o productos de la aplicación de las mismas en determinadas condiciones. Consideremos, por ejemplo, el rendimiento académico de un alumno, inmediatamente nos daremos cuenta de la gran cantidad y variedad de variables que inciden en el mismo y que varían según las personas y sus contextos particulares. Algunas de estas variables pueden actuar de forma independiente, o bien están relacionadas entre sí.

Pero, además, nos encontramos con la dificultad que supone determinar lo que se desea medir, En multitud de ocasiones nos encontramos con  construcciones teóricas difíciles de definir. Por ejemplo, el liderazgo educativo, el clima escolar o el mismo concepto de rendimiento académico son constructos cuyos significados cambian según unos investigadores u otros, y según unos contextos culturales u otros.

La complejidad se nos hace más patente aún cuando nos enfrentamos a las dificultades con que contarnos a la hora de observar las propiedades que sobre un hecho u objeto queremos analizar, pues en el terreno educativo nos encontrarnos con que son medidas de forma indirecta a través de conductas concretas o respuestas a determinados reactivos. Además, se da la circunstancia de que es prácticamente imposible repetir de una forma exacta la medida, ya que tanto las personas que intervienen en el proceso educativo, así como el propio proceso, se encuentran en cambio continuo.

 

B) La elaboración de la regla. Como hemos señalado anterior-mente, la medición se realiza asignando un numeral a un hecho de acuerdo con ciertas reglas, que deben tener su justificación y no ser arbitrarias. La elaboración de una regla exige una teoría sobre lo que ha de medirse y la contrastación de ésta con la realidad para comprobar su plausibilidad. Cuando, por ejemplo, en una prueba de matemáticas asignamos un número positivo (+1) por cada respuesta correcta, un cero cuando no hay respuesta y un número negativo (‑1) cuando se da una respuesta incorrecta, estamos estableciendo una regla. Pero este hecho no implica que podamos defender que cada pregunta representa una cantidad igual de saber. >

C) La unidad de medida. Si quisiéramos medir la estatura de nuestros alumnos podríamos utilizar una tabla con una serie de divisiones o trazos que pueden ser o no iguales, pero, en caso de no serio, el número que se obtuviera corno resultado del proceso de medición sería muy difícil de interpretar.

Esta situación se da en muchas situaciones educativas, y así podernos encontrarnos con que un 8 (notable) puede representar saberes reales inferiores a un 5 (aprobado) cuando estas calificaciones son atribuidas por profesores diferentes, incluso utilizando un mismo examen.

Toda unidad de medida ha de ser, por tanto, constante y precisa. En el caso de que no sea posible alcanzar este máximo, al menos habría que elaborar instrumentos objetivos en los que la valoración de cada unidad del mismo reciba la‑misma valoración en todas las situaciones en que se use el instrumento.

D) El instrumento de medida. Para poder medir es preciso contar con instrumentos que respondan a una determinada estructura, organización y características si querernos que la información a recoger sea precisa y fiel.

Todo instrumento de medición ha de poseer unas características técnicas mínimas, entre las que destacan la validez y la fiabilidad. Es decir, un instrumento ha de medir lo que afirma medir, y además ha de hacerlo de forma estable, en distintas situaciones y contextos y coherentemente.

E) La operación de medir. La medición puede verse afectada al menos por tres factores:

a) El aplicador del instrumento de medida. El tipo de relación que sea capaz de crear el aplicador determinará diferentes actitudes en los sujetos, afectando a las respuestas en un instrumento.

b) Las circunstancias espacio‑temporales pueden suponer también un influjo en los resultados que se logren en un proceso de medida. La hora, el clima o la comodidad del lugar, por ejemplo, pueden afectar a los respuestas dadas por los sujetos.

e) Las características, externas e internas, pueden dar lugar al rechazo o la aceptación, o pueden influir en que los resultados puedan ser considerados válidos, fiables y representativos.

 

1.3. DEL ENFRENTAMIENTO A LA COMPLEMENTARIEDAD. En cuanto al enfoque cuantitativo, sigue supuestos de tipo positivista, de modo que busca sobre todo las relaciones estables entre variables que permiten detectar qué circunstancias y fenómenos son causa o consecuencia de tales otros, más allá de las peculiaridades de cada caso, que es entendido sobre todo como un «ejemplo» de la ley más general detectada en situaciones controladas con ciertas garantías de objetividad y rigor.

Es, por tanto, una perspectiva que puede calificarse como hipotético-deductiva, que se aproxima a los procesos educativos «desde fuera» (COOK y REICHARDT, 1986), en el sentido de que su interés no está en cómo viven los implicados su realidad, aun cuando pueda considerar estas percepciones o vivencias como otras variables más que puedan ser objetivadas (y ahí tenemos los «tests» de autoconcepto, p.e.) e incluidas en los modelos explicativos; siguiendo una distinción clásica, aunque creemos que también demasiado simplista, se trataría de un enfoque que busca más la «explicación comprensiva» que la «comprensión explicativa» (ERICKSON, 1989), característica en cambio de la aproximación etnográfica o cualitativa.

De manera coherente con estos supuestos básicos, esta perspectiva defiende la utilización de métodos objetivos de recogida y análisis de los datos (como la observación sistemática y controlada o el uso de pruebas estandarizadas), que son sus recursos técnicos para obtener una información que será tratada matemáticamente, por lo general mediante técnicas y procedimientos estadísticos de los que se suele destacar su fiabilidad... al tiempo que se critica su falta de relevancia y de validez ecológica.

Aunque, efectivamente, este tipo de planteamientos parece chocar frontalmente con los anteriores, lo cierto es que la pasión bélica que caracterizó el debate durante los años setenta ha ido evolucionando en los últimos años hacia la superación del enfrentamiento, al irse aceptando que ambos enfoques tienen su sentido, papel y utilidad en la evaluación, ya que cada uno de ellos presenta cualidades y defectos específicos que lo hacen idóneo para ciertos aspectos al mismo tiempo que lo invalidan para otros. Por ejemplo, parece claro que la aproximación etnográfica es idónea cuando se trata de estudiar y comprender los procesos educativos, la dinámica de la interacción social que se da en ellos, las vivencias de profesores, padres, alumnos ... implicados, las relaciones entre lo que sucede en el aula y el contexto total en que ésta se encuentra; la perspectiva cuantitativa, en cambio, parece difícilmente sustituible cuando nos interesa constatar resultados analizados por comparación con otras situaciones (incluida la que implica a los mismos sujetos en un momento diferente) por poner sólo dos ejemplos.

Como afirma REICHARDT (1986), no existe incompatibilidad epistemológica entre adoptar una u otra filosofía y recurrir a la utilización de métodos de recogida de datos procedentes de cualquiera de ella, de modo que cada vez más un número creciente de autores manifiestan su convencimiento de que una verdadera evaluación educativa debe combinar el análisis del impacto con el análisis de los procesos (HOLLISTER y otros, 1986), los métodos cualitativos con los cuantitativos.

Por ejemplo, SIEBER (1973) postula lo que llama complementariedad subsecuente, es decir, una estrategia evaluativa en la que se usen los métodos cualitativos para abrir o ampliar nuestro conocimiento de la situación antes de que los métodos cuantitativos comprueben la validez de nuestra hipótesis.

DENZIN (1978), en una línea similar, defiende la triangulación metodológica, entendiendo por tal el empleo de métodos diferentes y complementarios para la evaluación de un mismo fenómeno, de modo que cada uno puede aportar los datos procedentes de estas diversas fuentes.

IANNI y ORR (1986) concretan estas ideas en lo que denominan «estratificación metodológica»:

1º) Se comienza la evaluación con una metodología cualitativa que nos permita una aproximación comprensiva a los procesos educativos objeto de nuestro interés: descripción de la situación, identificación de las variables importantes ...

2º) Se continúa empleando una metodología cuantitativa, en un momento posterior, para depurar y validar nuestras hipótesis, clarificar nuestros análisis e, incluso, establecer el grado de generabilidad de lo descubierto (respecto al programa, respecto a los alumnos...).

Aunque refiriéndose específicamente a la evaluación de programas, PÉREZ JUSTE (1992) propone los principios de complementariedad de métodos y técnicas, que creemos perfectamente extensibles al conjunto de la evaluación educativa (y psicopedagógica, en la medida en que entendemos ésta como un «momento» de la primera:

1. Complementariedad de métodos. «La cuestión fundamental, cuando se plantea el tema con rigor, es el reconocimiento explícito de que es el objetivo de la investigación el que debe  determinar la opción metodológica» (p. 29), es decir, que la elección de los métodos de evaluación (en nuestro caso) no puede depender única ni exclusivamente del posicionamiento paradigmático del evaluador, sino que ha de estar orientada por la propia naturaleza de aquello que pretendemos evaluar, dadas las potencialidades y limitaciones de cada enfoque. La propia complejidad del objeto de nuestro interés en la evaluación de necesidades educativas, parece, por tanto, obligar a la complementariedad metodológica.

2. Complementariedad de técnicas. Surge del propio planteamiento que acabamos de formular de una manera natural, ya que tal perspectiva implica el recurso a una variedad de técnicas e instrumentos de evaluación, aconsejada  tanto por la enorme complejidad de los procesos que pretendemos evaluar, como por la propia limitación que cada técnica particular impone a los datos que brinda (COOK y REICHARDT, 1986, PÉREZ JUSTE, 1990).

 

3. LOS PROCEDIMIENTOS DE OBTENCIÓN  DE DATOS.

Por muchas razones, ésta última es una cuestión que personalmente nos preocupa de un modo especial, en la medida en que, como afirma PÉREZ JUSTE (op. cit.) ninguna valoración es mejor que los datos sobre los que se sustenta. A menudo, añadiríamos, suele ser peor; en particular, cuando hemos obviado en la selección y utilización de métodos, técnicas e instrumentos cuatro cuestiones fundamentales (GUBA, 1985):

a) el valor de verdad de nuestros datos,

b) la aplicabilidad de los mismos,

c) su consistencia

d) y su neutralidad,

Cayendo en consecuencia en algunos de los problemas de toda evaluación psicopedagógica:

1) El sustentarse en unos datos ciertamente rigurosos y confiables, pero que carecen de la menor validez ecológica o relevancia de cara a los fines que se persiguen, dando lugar a un perfecto e inútil informe «técnico». Un ejemplo típico de lo que describimos pueden ser la enorme cantidad de información que aparecen en los informes al uso de dudosa relación con la situación problemática del alumno o alumna y de nula funcionalidad respecto a la toma de decisiones correspondiente en cualquier evaluación.

2) El aportar informaciones relevantes y valiosas pero que se sustentan más en el azar y, sobre todo, en la intuición educativa del evaluador que en cualquier otra cosa, acercándose más a una «psicopedagogía parda» que a una práctica verdaderamente técnico-científica, con los riesgos que ello comporta: entre otros, la imposibilidad de valorar más tarde qué aspectos de la propuesta diseñada han contribuido a la mejora de la situación y cuáles no o, incluso, la han desvalorizado.

De forma resumida podemos clasificar los instrumentos de diagnóstico en los siguientes grandes grupos, de los que nos ocuparemos en los siguientes dos temas:

a) Técnicas e instrumentos cualitativos, especialmente aquellos que  tienen como base el método observacional.

b) Técnicas e instrumentos cuantitativos, de entre las que sobresalen las pruebas o test.

 

4. EL PROCESO DE EVALUACIÓN.

Si, como ya sugerimos al iniciar la sección anterior, la calidad de la evaluación psicopedagógica, amén de depender de su utilidad, depende en parte de la bondad de los instrumentos de recogida de información utilizados y en parte del rigor con que se haya seguido el proceso diagnóstico (Anaya, 1994), es obvio que no podemos finalizar este capítulo sin referirnos expresamente a esta última cuestión, que no quedó sino apuntada en líneas muy generales en los capítulos introductorios del primer volumen de esta obra. El problema es, sin embargo, que no contamos con un único modelo que defina con precisión y de manera totalmente aceptada ese proceso al que se ha aludido.

 

4.1. ENFOQUE CORRELACIONAL VERSUS EXPERIMENTAL. Por ejemplo, Silva (1982) describe ese proceso en el modelo tradicional de evaluación como una secuencia de 7 etapas, que podríamos resumir como sigue:

1º. Etapa de información preliminar. En este primer momento las tareas básicas son la delimitación del problema diagnóstico, la obtención de los datos complementarios a la demanda que sea pertinentes y el análisis de las limitaciones prácticas existentes.

2º. Etapa de formulación de objetivos: El segundo paso sería la formulación explícita de los objetivos que se tratará de alcanzar mediante el proceso diagnóstico.

3º. Etapa de diseño. Tras haber explicitado los objetivos, se procede a elaborar un plan de trabajo en el que, tras formular las correspondientes hipótesis y deducir las pertinentes conclusiones de ellas, se procede a seleccionar los procedimientos e isntrumentos de recogida de información que se emplearán, así como las estrategias que se emplearán para analizar los datos y relacionarlos entre sí.

4º. Etapa de praxis diagnóstica. O etapa de aplicación del plan de trabajo elaborado en la fase anterior para recopilar la información que nos servirá de base en las conclusiones y para analizar e interpretar los datos..

5º. Etapa de juicio diagnóstico. Es la fase del proceso en que se procede a contrastar la hipótesis inicial, ya sea para confirmarla, ya sea para decidir que carecemos de la informaciónsuficiente para llegar a una conclusión fiable.

6º. Etapa de información. Finalmente, una vez que se ha decidido que la fase anterior ha acabado, se procede a elaborar el pertinente informe diagnóstico y orientador, es decir, un informe en el que se incluyen, al menos, las conclusiones elaboradas y las recomendaciones de actuación derivadas de ellas a juicio del evaluador.

Coincide, pues, la descripción del enfoque tradicional que hace Silva con lo que Fernández Ballesteros (1983) denomina enfoque correlacional de la evaluación, como opuesto a un enfoque experimental en el que la gran diferencia con el anterior es la introducción del tratamiento como parte del propio proceso evaluativo, ya que se entiende que evaluación y tratamiento son partes indisociables de un mismo todo: al evaluar generamos hipótesis que el tratamiento debe poner a prueba. Desde esta perspectiva, el proceso en su conjunto podríamos resumirlo en las siguientes etapas (Fernández Ballesteros y Carrobles, 1981):

1º. Etapa de evaluación inicial. Sería la fase de trabajo en la que el objetivo fundamental es llegar a elaborar una hipótesis explicativa del caso analizado y, por tanto, en la que se agotaba el modelo anterior. A lo largo de ella podríamos identificar los siguientes momentos sucesivos:

1.1. Formulación y evaluaciónd el problema.

1.2. Formulación de hipótesis.

1.3. Selección de conductas y variables para el tratamiento: Tras haber llegado a formular una hipótesis del caso, esta primera etapa finalizaría con la selección y definición tanto de las conductas que se tratará de modificar mediante el tratamiento, como de las variables que se manipularán para lograr esa modificación.

2º. Etapa de tratamiento. El objetivo principal en esta segunda fase del proceso seríaponer a prueba las hipótesis elaboradas en la fase anterior mediante la manipulación controlada de las variables elegidas previamente, de modo que podríamos identificar los siguientes momentos o fases en ella:

2.1. Establecimiento de las metas del tratamiento.

2.2.Selección del programa concreto de tratamiento que se pondrá en marcha.

2.3. Identificación de las posibles variables contaminantes y diseño de las estartegias para su control.

2.4. Aplicación del tratamiento.

3º. Etapa de evaluación de resultados. Como puede fácilmente imaginarse, el objetivo en esta tercera etapa del proceso es obtener la información que nos habrá de permitir valorar en qué medida las hipótesis eran correctas o no y actuar en consecuencia, existiendo dos posibilidades:

(a) Si las expectativas se cumplen, se da por finalizado el tratamiento y se planifica y lleva a cabo una estrategia de seguimiento.

(b) Si no se cumplen, se revisan las diversas fases seguidas hasta ese momento, con el fin de determinar si los problemas se deben a la etapa de evaluación o a la de tratamiento y actuar en consecuencia.

Aunque la idea básica que subyace a este último planteamiento (la evaluación debe plantearse como un proceso de investigación científica en el que además de hipotetizar una explicación del caso analizado se precisa contrastar las hipótesis elaboradas) se ha ido imponiendo poco a poco en el ámbito de la evaluación psicopedagógica, lo cierto es que no son pocas las críticas que se le pueden hacer y que, de hecho, se le han hecho, entre las que podríamos destacar dos en particular.

En primer lugar, es fácil observar cómo este modelo de evaluación cae en el error de considerar que las situaciones naturales son, en lo esencial, equivalentes a las de laboratorio, pues si no es así no se explica demasiado bien cómo un tratamiento llevado a cabo en un contexto natural puede considerarse en sentido estricto como medio adecuado para contrastar las hipótesis de la evaluación: aunque se enuncie la necesidad de identificar y controlar las variables extrañas, éstas son potencialmente tantas que la propuesta descrita parece demasiado radical.

En segundo lugar, en el ámbito educativo, si seguimos al pie de la letra lo que se nos propone acabaremos por no encontrar diferencias prácticas (al nivel que estamos considerando aquí) entre este modelo y el correlacional: la evaluación terminaría al finalizar la primera etapa, ya que en nuestro campo los tratamientos son la actividad natural en la vida cotidiana. Y eso por no mencionar el hecho de que los costes de una evaluación así planteda (en tiempo, recursos, dinero...) la hacen de hecho inviable.

Estas críticas, no obstante, no deberían llevarnos a desviar nuestra atención de lo esencial, es decir, del hecho de que es el argumento central de la propuesta es sumamente razonable, sobre todo si a todo lo dicho añadimos que en el enfoque correlacional la elaboración de hipótesis supone un salto de tal calibre entre datos y explicación, que mejor cabría hablar de especulación que de inferencia. En dicho enfoque no es el caso en sí lo que se examina, sino la pertenencia del mismo a una serie previamente delimitada de categorías diagnósticas, a diferencia de lo que ocurre en el enfoque experimental, de naturaleza más inductiva.

Así, la idea de un proceso de evaluación basado en el enfoque experimental se ha ido haciendo cada vez un hueco mayor en la literatura y en la práctica psicopedagógicas, pero matizada en uno u otro sentido.

4.2. ALGUNAS PROPUESTAS RECIENTES. Por ejemplo, Anaya (1994) mantiene la idea de las relaciones entre evaluación y tratamiento, pero insertando ambas actividades como partes relacionadas entre sí dentro del diagrama general de lo que denomina “proceso orientador”; un proceso que formaría un ciclo con seis fases (conocimiento, pronóstico, toma de decisiones, intervención, valoración y seguimiento) de las que sólo las dos primeras podrían considerarse realmente de evaluación. Centrándonos en ellas, implicarían las siguientes fases de trabajo:

1º. Especificación del conocimiento requerido. Primer momento del proceso tras una demanda o tras la identificación de un problema, implicaría la delimitación de las necesidades que debe satisfacer la evaluación, la búsqueda inicial del “conocimiento diagnóstico” pertinente, la formulación explícita de los interrogantes a resolver con la evaluación y la fijación del tipo de actuación a realizar.

2º. Recogida inicial de información.

3º. Formulación de hipótesis y deducción de consecuencias.

4º. Validación de hipótesis. En esta fase del proceso las actividades esenciales que deben realizarse serían la elaboración de un plan de recogida y tratamiento de datos, la palicación práctica de ese plan (recogida de información), el tratamiento de la información recabada y, finalmente, el contraste de las hipótesis construídas en la etapa anterior.

5º. Formulación de conclusiones.

6º. Predicción. Momento de máxima relavancia en el proceso, implicaría la elaboración de un plan para derivar predicciones, la formulación explícita de tales predicciones y la elaboración de una conclusión pronóstica.

7º. Comunicación y registro de resultados. Por último, debería procederse a la elaboración de los pertinentes informes de evaluación.

Para asegurarnos de que el proceso seguido tiene unas garantías mínimas de rigor, Anaya indica los siguientes criterios por etapas:

-En la fase de especificación del conocimiento requerido, se debería establecer una correspondencia real entre las necesidades de conocimiento surgidas de la situación orientadora y las cuestiones que se formulan  sobre el caso, así como garantizar la coherencia entre el contenido de tales cuestiones y el tipo de acción evaluativa elegido.

-En la fase de recogida inicial de información, habríamos de asegurarnos de que los datos recabados son relevantes con respecto a las cuestiones antes formuladas y proceder a una recopilación de datos lo más precisa posible (sin mencionar la cuestión de la calidad de los propios procedimientos empleados para recopilarlos).

-En cuanto a la fase de formulación de hipótesis y deducción de consecuencias, se habría de poner el acento en cuestiones como garantizar la suficiencia de la base empírica, la evitación de sesgos en el análisis de los datos y el concoimiento del orientador, tanto sobre los hechos concretos como sobre la teoría pertinente para su interpretación.

-En la fase de validación de hipótesis, por su parte, sería de la mayor importancia la definición precisa de las variables implicadas en la hipótesis, la calidad de de los procedimientos e instrumentos de recogida de la información, la precisión del plan de recogida de datos y la utilización de procedimientos de falsación, no de verificación, de las hipótesis para evitar sesgos indeseables.

-Al llegar al establecimiento de conclusiones, una cuestión esencial sería que las interpretaciones formuladas no excedan lo que permitirían la lógica y la teoría, además de la base empírica disponible, así como no perder de vista el carácter probabilístico de tales conclusiones.

-En la fase de predicción, siguiendo la línea anterior, sería vital tratar de derivarlas con la máxima objetividad posible, lo que implica detallar no sólo nuestras predicciones, sino también su fundamento y los pasos que hemos seguido para construirlas. Asimismo, deberíamos tratar de no exceder la generalizabilidad permitida por la información de base.

-Finalmente, en lo que atañe a la comunicación de resultados serían criterios de calidad la fidelidad en el registroo y exposición de los aspectos más relevantes del conocimiento obtenido y del proceso seguido y la adecuación del estilo y formato comunicativos a las carácterísticas de los destinatarios de cada informe elaborado.

En una línea muy parecida se manifiesta también Suárez (1994), quien –hablando específicamente de la evaluación e intervención frente a las dificultades de aprendizaje- propone un modelo general en el que “se advierten tres grandes bloques o macro-componentes, diferenciados sólo como artificio para el análisis, pero que forman en realidad un todo único: evaluación diagnóstica, intervención e informe psicopedagógico (este último, relativamente independiente” (pág. 66). Muy brevemente, en lo que afecta estrictamente al primero de esos bloques su propuesta es la que sigue:

1º. Detección y derivación. Fase inicial del proceso, supone que el propio profesorado responsable de un alumno tome conciencia de la existencia de una dificultad de aprendizaje o que ésta (o una potencial dificultad futura) se detecte en un screening, además de la existencia de una petición expresa de ayuda en relación con el problema detectado (derivación).

2º. Identificación del alumno y motivo de consulta. En esta segunda fase, se trata de dejar constancia expresa tanto de los datos identificativos del alumno o alumnos en cuestión, como del motivo explícito de la consulta efectuada, pero implica también el establecimiento de la legitimación necesaria para proseguir el proceso de evaluación (comprobación de la legalidad de la eventual intervención, visto bueno de los padres o tutores legales del alumno o alumnos, comprobación de la adecuación ética de la posible intervención).

3º. Especificación de la demanda. Tras haber establecido la legitimidad de la intervención y explicitado el motivo de la consulta, antes de continuar el orientador debería tratar de precisar al máximo ese motivo y, sobre todo, de analizar la demanda “latente”, es decir, analizar cuál es la concepción implícita de quienes demandan su intervención con respecto al caso en cuestión.

4º. Primera recogida de información. Esta fase coincide con lo que en el modelo clínico se denomina anamnesis, de modo que consiste en una recopilación detallada de la información ya existente respecto al caso en los contextos naturales. Básicamente, pues, estamos hablando de la obtención de información sobre el historial evolutivo, de salud y escolar del alumno, así como sobre características actuales del propio alumno, de su medio socio-familiar y de su medio escolar que puede observarse directamente o recabarse mediante entrevistas, cuestionarios e inventarios con el alumno y con informantes allegados a él, así como a través de la consulta de documentos escritos y de otra índole disponibles. Evidentemente, además de recoger esa información, es preciso estructurarla, organizarla.

5º. Primera valoración. Tras haber organizado esa información inicial, se trata de analizarla y formular una primera hipótesis de trabajo, con base en la cual se puede decidir si es preciso continuar la evaluación propiamente dicha o, por el contrario, contamos ya con datos suficientes para continuar con el proceso.

6º. Recogida de información adicional. Si en la fase anterior hemos concluido que no tenemos aún base empírica suficiente para dar el proceso de evaluación por acabado, se procede a:

(1) Elaborar un guión con la información que necesitamos recopilar y las fuentes de datos necesarias y planificar el proceso a seguir;

(2) Recoger la información siguiendo el plan previsto. En este momento, claro, se buscan datos ya más precisos y específicos que antes y se recurre a cuantos procedimientos e instrumentos se estime oportuno.

7º. Síntesis valorativa. Tras haber completado esta segunda recogida de datos, se procede a una nueva valoración, que coincidiría con lo que otros autores describen como diagnóstico y pronóstico o como modelo funcional. Así, el contenido de esta síntesis valorativa ha de ser una hipótesis explicativa del caso, que sería la base para la toma de decisiones de tratamiento.

 

 

EJERCICIOS

 

1.   Identifica los diferentes Escalas de medición.

 

Medidas
Escalas de medición
 
Nominal
Ordinal
Intervalo
Razón
Actitudes
 
 
 
 
Raza
 
 
 
 
Longitud
 
 
 
 
C.I.F.
 
 
 
 
La edad en años
 
 
 
 
Energía
 
 
 
 

 

 

2. Un profesor construye una prueba de cálculo con 100 operaciones de sumas, restas, multiplicaciones y divisiones.

 

(a) Si el profesor asigna un NO APTO al que cometa al menos un error en una de las operaciones, y asigna un APTO a quien haya realizado todas las operaciones correctamente, ¿qué nivel de medida está empleando?.

 

(b) Si el profesor asigna un INSUFICIENTE a los que hayan realizado menos de 30 operaciones correctamente, un SUFICIENTE, a quienes hayan realizado entre 30 y 50 operaciones bien, un BIEN a los que, hayan realizado entre 51 y 70 operaciones bien; un NOTABLE a los que hayan realizado entre 71 y 90 operaciones correctas y m SOBRESALIENTE a los que hayan realizado más de 90 operaciones correctas, ¿qué nivel de medida está utilizando?

 

(c) Si el profesor cuenta el número de operaciones correctamente realizadas y denomina tal hecho como «habilidad general para el cálculo», ¿cuál es el nivel de medida al que está recurriendo?

 

REFERENCIAS BIBLIOGRÁFICAS

 

ANASTASI, A. (1978): Los tests psicológicos. MADRID: AGUILAR.

Anaya, D. (1994): Introducción al diagnóstico en orientación. Bases conceptuales y metodológicas. Madrid: Sanz y Torres.

A.E.R.A., A.P.A. y N.C.M.E. (1985): Standards for educational and psychological testing. Washing-ton D.C.: American Psychological Association.

Ander-Egg, E. (1980): Técnicas de investigación social. Buenos Aires: El Cid.

ANGUERA, M. T. (1988):  La observación en la escuela. Barcelona: Graó.

Arce, C. (1994): Técnicas de construcción de escalas psicológicas. Madrid: Síntesis.

Avia, M.D. (1981): La autoobservación. En R. Fdez.-Ballesteros y J.A. Carrobles (eds): Evaluación conductual. Madrid: Pirámide.

BEATTY, P. T. (1981):  The concept of Need: proposal for a working definition; Journal of the Community Development Society, 12, 39-46.

BARDIN, L (1986): Análisis de contenido. Madrid: Akal.

Campbell, D. (1957): Factors relevant to to the validity of experiments in social settings. Psychological Bulletin, 54(4):297-312.

CAMPIONE, J.C. y BROWN, A. L.(1990): Guide-learning and tranfer: Implications for approaches toassessment. En FREDERIKSEN et al. (Eds.): Diagnostic monitoring of skills and knowledge Acquisition.Hillsdale (N.J.): L.E.A.

Ciminero, A.; Nelson, R. y Lipinski, D. (1977): Self-monitoring procedures. En A. Ciminero, K. Calhoun y H. Adams (eds): Handbook of behavioral assessment. New York: Wiley.

Cronbach,L.J. (1971): Test validation. En R.L. Thorndike (dir): Educational measurement; Washington, D.C.: American Council of Education.

Cronbach,L.J. (1975): Beyond the two disciplines of scientific psychology; American Psychologist, 30:116-127.

CRONBACH, L.J. (1972): Fundamentos de la exploración psicológica. Madrid: Biblioteca Nueva.

Cronbach,L.J. (1984): Essentials of psychological testing; Cambridge (Mass): Harper.

Cronbach, L.J. y Quirk, T.J. (1976): Test validity. En International Encyclopaedia of Education; New York: McGraw Hill.

CRONBACH, L.J. (1982): Designing evaluations of educational and social programs. San Francisco: Jossey Bass.

CRONBACH, L.J. (1984): Essentials of psychological  testing. New York: Harper & Row..

CAZDEN, C. B. (1990):  El discurso en el aula. En WITTROCK(Ed.): La investigación de la enseñanza, III. Barcelona: Paidós-MEC.

COOK, T.D. y REICHARDT, S. (1986): Hacia una superación del enfrentamiento entre los métodos cualitativos y los cuantitativos. En COOK, T.D. y REICHARDT, S.: Métodos cualitativos y cuantitativos en investigación evaluativa.Madrid: Morata.

DARDER, P. y LÓPEZ, J.A. (1985): QUAFE-80. Cuestionario para el análisis del funcionamiento de la escuela. Barcelona: Onda.

DENO, S.L. y FUCHS, L.S (1987): Developing Curriculum-Based. Mesasurement Systems for Data-Based Special Education Problem Solving. Focus on Excepcional Children, April, 1-17.

DENZIN, N.K. (1978): The Research Ac. New York: McGraw-Hill.

ERICKSON, F (1989): Métodos cualitativos de investigación sore la enseñanza. En Wittrock (Ed): La investigación en la enseñanza, Vol II. Barcelona: Paidós-MEC.

EVERTSON, C.M. y GREEN, J.L (1989): La observación como indagación y como método. En M.C. WITROCK: La investigación en la enseñanza (II). Barcelona: Paidós.

FERNÁNDEZ BALLESTEROS, R. (1981): Psicodiagnóstico. Conceptos y metodología (2ª ed.); Madrid: Cincel.

(1983): Psicodiagnóstico. Madrid: Cincel.

(1987): El ambiente: análisis psicológico. Madrid: Pirámide.

(1992): Técnicas de evaluación ambiental. En FDEZ. BALLESTEROS (Dir.): Introducción a la  Evaluación

Psicológica, Vol I. Madrid: Pirámide.

(1992) La observación. En R. Fernández Ballesteros (dir): Introducción a la evaluación psicológica, Volumen I. Madrid: Pirámide.

(1992): Técnicas subjetivas. En R. Fdez. Ballesteros (dir): Introducción a la evaluación psicológica, volumen I. Madrid: Pirámide.

Fernández Ballesteros, R. Y Carrobles, J.A. (1981): Evaluación conductual. Madrid: Pirámide.

FERNÁNDEZ SIERRA. J. y SANTOS GUERRA, M. A. (1992): Evaluación cualitativa de programas de Eps. Una experiencia hospitalaria. Málaga: Aljibe.

FILSTEAD. W. J. (1986):Métodos cualitativos. Una experiencia necesaria en la investigación evaluativa.En COOK, T.D. y REICHARDT, S.: Métodos cualitativos y cuantitativos en investigación evaluativa.Madrid: Morata.

Fox, D. (1980): El proceso de investigación en educación. Pamplona: EUNSA

GLASER, R. (1963):Instruccional technology and the measurement or learnign outcomes. American Psychologits, 18:519-521.

Gª JIMENEZ, E. (1991): Una teoría práctica de la evaluación. Estudio etnográfico.  Sevilla: MIDO.

Gª JIMENEZ, E., GIL FLORES, J. y RODRIGUEZ, G.  (1995): Elaboración de pruebas objetivas. Zaragoza: ICCE

Gª JIMENEZ, E.  y Gª VIDAL, J. (1995): La recogida de información. Apuntes policopiados.

García Marcos, J.A. (1983): La entrevista. En R. Fdez. Ballesteros (dir): Psicodiagnóstico. Unidades Didácticas; Madrid: UNED.

GARCÍA PASTOR, C. (1993): Una escuela común para niños diferentes. Salamanca: Amarú.

Gª VIDAL, J. G.  y  MANJÓN, D.G. (1992):  Evaluación e Informe psicopedagógico: una perspectiva curricular (Vol. I). Madrid: EOS.

García Vidal,J. y Glez. Manjón,D. (2000): Dificultades de aprendizaje e intervención psicpedagógica. Volumen 2: Lectura y escritura; Madrid: EOS.

GIL-ROALES, J. (1988):  Evaluación y diagnóstico conductual en el Retraso en el Desarrollo. En LUCIANOy GIL (Ed.): Análisis e intervención conductual en el retraso en el desarrollo. Granada: Unversidad de Granada; 25-50.

GOETZ, J.P. Y LECOMPTE, M.D. (1988): Etnografía y diseño cualitativo en investigación educativa. Madrid: Morata.

Le Compte, M.D. y Goetz, J.P. (1982): Problems of reliability and validity in ethnographic research. Review of Educational Research, 52(1):31-60.

GODOY, A.  y SILVA, F. (1990): El proceso diagnóstico como una actividad científico-técnica.En  II Congreso C.O.P.: Comunicaciones área 7; Madrid: COP, 65-69.

HOLLISTER, R.G.; KEMPER, P. y WOOLDRIDGE, J. (1986):  Conexión entre el análisis de proceso y el análisis de impacto: el caso del trabajo asistido. En COOK, T.D. y REICHARDT, S. (1986).

IANNI, F. y ORR, M.T. (1986): Hacia un acercamiento entre las metodologías cuantitativas y cualitativas.  En COOK, T.D. y REICHARDT, S. (1986)

KERLINGER, F.N.  (1985): Investigación del comportamiento. Técnicas y metodología.México: Interamericana.

Lincoln, Y. y Guba, E. (1985): Naturalistic inquiry. Beverly Hills (Cal): Sage.

Likert, R.A. (1932): A technique for the mesurement of attitudes. Archives of Psychology, 140:5-53.

LOPEZ-BARAJAS- zAYAS, e. (1985): Pedagogía Experimental. Madrid: UNED.

MARTINEZ ARIAS, R. (1996): Psicometría: teoría de los tests psicológicos y educativos. Madrid: Sintesis.

Messick,S. (1975): The standard problem: Meaning and values in in measurement and evaluation; American Psychologist, 30, 955-966.

Miguel-Tobal, J.J. (1993): Cuestionarios, inventarios y escalas. En F.J. Labrador, J.A. Cruzado y M. Muñoz (eds): Manual de técnicas de modificación y terapia de conducta. Madrid: Pirámide.

Osgood, C. E. (1952): The nature and measurment of meaning. Psychological Bulletin, 49, 197-237.

Patton, M.Q. (1980): Qualitative evaluation methods. Beverly Hills (Cal.): Sage.

Pawlik, K. (1980): Diagnosis del diagnóstico. Barcelona: Herder.

PÉREZ JUSTE, R. (1992): Evaluación de Programas Educativos. Documento no publicado. Programa del Tercer Ciclo de la UNED: Dpto MIDE.

PÉREZ JUSTE, R. y GARCÍA RAMOS, J.M.(1989):Diagnóstico, evaluación y toma de decisiones. Madrid: Rialp.

PÉREZ JUSTE, R.  y MARTÍNEZ, L. (1989):  La evaluación de centros educativos. Madrid: Cincel.

Pervin, L. A. (1978): Personalidad. Teoría, evaluación e investigación. Bilbao: Desclée de Brower (original en inglés de 1970).

POPPER, K. (1977): La lógica de la investigación científica. Madrid: Tecnos.

Puente, M.L. de la; Labrador, F.J. y Arce, F. de (1993): La autoobservación. En F.J. Labrador, J.A. Cruzado y M. Muñoz (eds): Manual de técnicas de modificación y terapia de conducta. Madrid: Pirámide.

Rey, A. (1974): Conocimiento del individuo por los tests. Madrid: Guadarrama.

Sattler, J. (1988): La evaluación de la inteligencia infantil y habilidades especiales, 2ª Ed. México D.F.: Manual Moderno (original en inglés de 1982)

SIEBER, S (1973): The integration of fieldwork and surrey methods. American Journal of Sociology, 78: 133/159.

Silva, F. (1989): Evaluación conductual y criterios psicométricos. Madrid: Pirámide.

Silva, F. (1992): La entrevista. En R. Fdez.-Ballesteros (dirI: Evaluación Psicológica, volumen I; Madrid: Pirámide

Silva, F. (1982): Introducción al psicodiagnóstico. Valencia: Promolibro.

Suárez, A. (1994): Dificultades en el aprendizaje. Un modelo de diagnóstico e intervención. Madrid: Santillana.

Stephenson, W. (1953): The study of behavior. Q-Technique and its methology. Chicago: University of Chicago Press.

TAYLOR, S. J. y BODGAN, R.  (1986): Introducción a los métodos cualitativos de investigación. Buenos Aires: Paidós.

Thorndike, R.L. y Hagen, E.P. (1989): Medición y evaluación en psicología y educación, 2ª edición; México, D.F.: Trillas.

Thurstone, L.L. (1927): A law of comparative judgement. Psychological Review, 34:273-286.

TEJEDOR, F. J. (1990): Perspectivas metodológicas del diagnóstico y evaluación de necesidades en el ámbito educativo. Revista de Investigación Educativa, Vol. 8/16:15-37.

Verdugo, M.A. (1994): Evaluación curricular; Madrid: Siglo XXI.

No hay comentarios:

Publicar un comentario