Busca:   en:
Inicio > Revista

Posibilidad de integración de las teorías cognitivas. (Parte III)

Se describen sumariamente los aportes de las teorías cognitivas a la lingüística y para ejemplificar el pensamiento científico del cognitivismo, se describen los aportes de Kahneman y de Tversky sobre la incertidumbre y los problemas de decisión y sus múltiples consecuencias en el campo económico, médico, etc
Presentaremos, sólo a modo de ejemplo, los problemas que estudia Daniel Kahneman (Khaneman y Tversky, 1984) que fue ganador del premio Nobel. Kahneman desde hace tiempo trabaja en el estudio de la toma de decisiones, problema que es compartido por muchas disciplinas, como la matemática, la economía, las ciencias políticas, la sociología y la psicología. Toda decisión implica un riesgo. Los análisis de la decisión distinguen entre elecciones riesgosas (por ejemplo, cuando jugamos un juego de azar) y elecciones sin riesgo (por ejemplo, cuando aceptamos pagar un precio por un bien o un servicio). El enfoque psicológico sobre la toma de decisión surge ya desde un ensayo de Daniel Bernouilli publicado en 1738 en el que explicaba porqué la gente evita el riesgo y porqué el rechazo al riesgo disminuye con el aumento de la riqueza. Por ejemplo, si pedimos a las personas que elijan entre la opción de jugar en una apuesta (con una probabilidad de 0.85 de ganar) o recibir sin jugar 800$, la gran mayoría de las personas prefieren recibir 800$ sin jugar. La esperanza matemática en este caso nos da 0,85 x 1000 + 0,15 x 0 = 850 $ que es mayor que los 800 sin apostar. Este preferencia es un ejemplo del rechazo al riesgo (risk aversion). Por otro lado, el rechazo de una ganancia segura a favor de una apuesta con esperanza muy baja o igual, se llama búsqueda de riesgo. El estudio de las elecciones riesgosas se fundamenta para Kahneman en la teoría llamada prospectiva (prospect theory). Las mediciones empíricas demuestran que el valor subjetivo es una función cóncava del tamaño de las ganancias y convexa en el dominio de las pérdidas. Cuando se colocan juntas dan una función en S, con mayor pendiente en las pérdidas, lo que supone un rechazo a las pérdidas (loss aversion). Esto significa que una pérdida de X $ se rechaza más de lo que atrae una ganancia de los mismos X $. Esta suposición del rechazo al riesgo ha tenido importancia central en la teoría económica. En el dominio de las ganancias la gente presenta rechazo por el riesgo, mientras que en el dominio de las pérdidas las personas presentan atracción hacia el riesgo.


Kahneman trabajó mucho con Tversky, fallecido en l996. Juntos demostraron empíricamente que las predicciones intuitivas y los juicios de probabilidad no siguen los principios estadísticos ni las leyes demostradas de la probabilidad y documentaron sesgos y discrepancias sistemáticas entre las normas del razonamiento probabilístico y la manera como la gente razona sobre frecuencias y verosimilitud. Estas teorías tienen gran importancia práctica en la realidad. Por ejemplo, en problemas de salud pública, se demuestra el efecto sobre el mercado de un cambio en las expresiones “vidas salvadas” o “vidas perdidas” que inducían a un cambio en la preferencia entre rechazo del riesgo a búsqueda del riesgo. Así, la opción de cirugía para un tratamiento es relativamente menos atractiva cuando las estadísticas del resultado son presentadas en términos de mortalidad en vez de hacerlo en términos de supervivencia.


Khaneman también trabajó en la teoría del apoyo (support theory) que distingue formalmente entre los hechos del mundo y la manera como se representan formalmente (Tversky y Kahneman,1983). En esta teoría, la probabilidad no se asigna a los hechos como en el modelo normativo común sino a las descripciones de los hechos llamadas hipótesis. Los juicios de probabilidad según esta teoría, se basan en el apoyo, es decir, la fuerza de la evidencia. La teoría del apoyo distingue entre lo que se llama las disjunciones explícitas o implícitas. Una disjunción explícita es aquella hipótesis que pone una lista de sus componentes individuales por ejemplo: “un choque de auto debido al estado de la autopìsta o a la impericia del conductor o a una avería en los frenos”, mientras que una disjunción implícita señala solo “un choque de autos”. Generalmente aumenta el apoyo y por lo tanto su verosimilitud percibida. Como resultado, distintas descripciones del mismo hecho dan lugar a diferentes juicios de valor.


2. 2. Los logros de la Teoría de los Tests

Hace casi cien años nacieron dos grandes programas de investigación específicos en la psicología diferencial que, partiendo del trasfondo común de la psicología experimental alemana, resultan sin embargo diversos en su concepción. Uno fue el programa nacido de la influencia de Galton (1822-1911) en Inglaterra y Estados Unidos y otro, el de Alfred Binet (1857-1911) en Francia. Galton (1988) defendió un esquema científico-tecnológico hereditarista que partía de un determinismo biológico de la inteligencia que, andando el tiempo, daría origen a una importante tecnología para poder llegar a la optimización de los recursos humanos. En cambio, Binet originaba un pensamiento de tipo ambientalista que daría lugar a un programa para mejorar las capacidades mediante la educación. Sin embargo, ambos puntos de vista propiciaron el desarrollo de los tests para lograr el conocimiento, clasificación y distribución de los talentos humanos utilizando básicamente los mismos instrumentos de medición psicológica. Las teorías psicométricas han contribuido en gran parte a la matematización de la psicología, iniciada y propiciada por los grandes teóricos como Spearman, Thurstone, Guildford, Catell, Gulliksen, Cronbach, Lord, entre otros. Hasta ahora, la mayoría de los avances en la construcción de los instrumentos se ha logrado empleando los progresos de la teoría estadística a través del uso de ANOVA, del análisis de los ítem con los índices de dificultad y discriminación, de los ajustes de las escalas, de la normalización de los datos, de las correlaciones biseriales, de índices más poderosos de confiabilidad y de la obtención de la validez de los constructos, merced al análisis factorial, etc. Todo esto ha traído grandes avances y se puede considerar hoy que hay tres teorías que resumen en este momento los avances de la Psicometría.

1. Por un lado, la más desarrollada es la Teoría Clásica de los Tests iniciada por Spearman (1903) que es un modelo de regresión lineal con dos variables cuyo supuesto fundamental es que el puntaje X de una persona en un test es la suma del puntaje verdadero de la aptitud de esta persona más un error:

X = V + e

Esta es una teoría muy conocida, a partir de la cual han sido construidos la gran mayoría de los tests que se emplean usualmente y que son conocidos por todos los psicólogos.

2. El segundo modelo, surgido en los años ´60 para complementar el primero, se debe a Cronbach y otros (1972). Es el llamado de la Teoría de la Generalizabilidad que, a través del uso específico del análisis de varianza, hace posible descubrir las distintas fuentes de error que se presentan en los puntajes mediante los conceptos de faceta. Este término, acuñado por Cronbach, designa cada una de las características de una situación de medición que puede modificarse de una ocasión a otra y que puede hacer variar los resultados obtenidos (por ejemplo: los ítems del test, la forma de codificar las respuestas, las situaciones de examen, etc.). El diseño de una faceta tendría cuatro fuentes de variación o error. Por ejemplo, en un test de matemáticas, la primer fuente sería la diferencia en el rendimiento de los alumnos, objeto de la medición y que se llama la varianza verdadera; la segunda fuente de error sería la misma dificultad de los ítems; la tercera, la interacción de las diferencias de las personas con los ítems y la cuarta, las fuentes de error no identificados o aleatorios. Estos distintos orígenes del error se discriminan con el uso de ANOVA. Los diseños de una sola faceta son los más simples y a menudo se incluyen más facetas.

3. El tercer modelo y más reciente es el de la Teoría de la Respuesta al Item (TRI) también llamado del Rasgo latente. Es un modelo probabilístico que permite conocer la información proporcionada por cada ítem y así crear tests individualizados, es decir, a medida. Es un modelo complejo que se ha popularizado como modelo de Rasch (1980) –aunque específicamente el modelo de Rasch solo determina el parámetro de la dificultad del ítem- pero existe también el modelo de dos parámetros, que tienen en cuenta la discriminación o pendiente de la curva y el de tres parámetros, que tiene en cuenta además el factor azar en la respuesta a ítems de alternativas múltiples (Cortada de Kohan,1999). La diferencia principal entre el modelo clásico y los de rasgo latente (Lord,1980) es que la relación entre el puntaje observado y el rasgo o aptitud de la teoría clásica es de tipo lineal mientras que en los diversos modelos de la TRI las relaciones son funciones de tipo exponencial, principalmente logísticos del tipo.

Es interesante que esta teoría (Thissen, 1993) puede aplicarse a preguntas o ítems que presentan formatos muy diversos dentro del mismo instrumento de medición y que los tests no deben ser necesariamente largos como era conveniente en la teoría clásica.

A b i e r t o
Colaborando con el YoMeQuedoenCasa ofrecemos:

5% de descuento en todos los libros digitales (Ayuda eBooks)

Gastos de envío GRATIS en compras superiores a 19,90€ (condiciones)

Compartir en:

compartir FaceBook

Síguenos en: Síguenos en Twiter | Síguenos en Facebook | Instagram | pinterest

Enlaces rápidos a temas de interés

BOLETÍN

RSS | XHTML | CSS
Mapa Web | Registro | Contacta
© Majo Producciones 2001-2020 - Prohibida la reproducción parcial o total de la información mostrada