AME T5 `PROFESOR ANTONIO (2017)

Apunte Español
Universidad Universidad de Barcelona (UB)
Grado Psicología - 1º curso
Asignatura Aprendizaje, Motivación y Emoción
Año del apunte 2017
Páginas 5
Fecha de subida 25/09/2017
Descargas 0
Subido por

Vista previa del texto

T5-CONDICIONAMIENTO INSTRUMENTAL 5.1. ORÍGENES.
THORNDIKETrabajó principalmente con gatos utilizando cajas problema que él mismo creó.
Las cajas problema tenían diferentes mecanismos para abrir la caja.
Se centraba en cómo el gato aprendía durante los ensayos y registraba la latencia de escape en la caja problema.
Al principio tardaban dos minutos en salir y a medida que se repetían los ensayos disminuía el tiempo de escape.
El trabajo de Thorndike da lugar a un nuevo tipo de situación experimental: Ensayos discretosSólo se permite una respuesta por ensayo.
Según la situación experimental se suele medir la latencia de respuesta, o el tiempo (velocidad) en alcanzar la meta, o el porcentaje de respuestas correctas.
Un tipo de ensayo discreto es el laberinto: -Corredor rectoSe registra el tiempo, o la velocidad, que el animal emplea en recorrerlo.
Se utiliza un reforzador al final del laberinto (en la caja de meta), normalmente comida.
-Laberinto en T Se registra porcentaje de elecciones correctas En el punto de decisión debe elegir qué dirección tomar, entre girar a derecha o izquierda y uno de los lados será reforzado.
Al decidir la dirección no se deja volver atrás al sujeto.
El marco teórico que utilizaba Thorndike para explicar por qué los gatos salían tan rápido de la caja es la Ley del Efecto que utilizó como conclusión de su estudio.
“De varias respuestas en una misma situación, aquellas acompañadas o seguidas de cerca (estando lo demás igual) por la satisfacción del animal, se conectarán firmemente con la situación, de forma que, cuando la situación se repita tendrán más posibilidades de producirse; Aquellas respuestas acompañadas o seguidas de cerca, estando lo demás igual, por la incomodidad del animal, debilitarán sus conexiones con la situación, de forma que, cuando la situación se repita, tendrán menos posibilidades de ocurrir. Cuanto más grande sea la satisfacción o incomodidad, más grande será el fortalecimiento o debilitamiento de la conexión." Se conecta la respuesta que provoca satisfacción/incomodidad con la situaciónEsta respuesta tendrá más posibilidades de que se repita o que se extinga.
Thorndike se sitúa en un modelo conductista, basado en la asociación de ER, como Watson.
CConsecuencia EFECTO sobre la asociación E - R E(Ed-estímulo discriminativo) El ambiente, contexto estimular o estímulos discretos presentes cuando se obtiene la consecuencia (el reforzador).
R Respuesta. La respuesta aparece cuando está en el contexto o ambiente adecuado R1 (-) Se debilita la relación R1 (S) E R2 (S) E R2 R3 (+)Se refuerza la relación R3 Está relacionada con la satisfacción del animal. Se refuerza o fortalece la relación. Debido al efecto que producen las consecuencias SKINNERIntroduce el concepto de CI Utiliza la Ley del Refuerzo para explicar que la conducta que produzca el refuerzo tenderá a repetirse más en el futuro.
RC No depende del contexto. Hay una representación relacionada con las consecuencias de la actividad.
La respuesta puede aparecer de manera libre y espontánea.
Cuando se realiza una conducta la importancia se da en las consecuencias que tiene.
La conducta operante que produzca refuerzoAumentará su frecuencia de aparición.
La conducta que produzca castigoTenderá a desaparecer.
Condicionamiento instrumental o operanteOperaciones sobre el entorno.
El repertorio conductual se despliega en cualquier entorno de forma espontánea, libre  Conductismo radical R Respuesta (conducta operante/instrumental) CConsecuencia o (ref) reforzador: Provocan refuerzo o castigo Implícito asociación R  C (ref) Conducta Operante Operaciones, maniobras del sujeto sobre el entorno. Se entiende la conducta como instrumento, como una herramienta para alcanzar objetivos (Caja de Skinner) Situación experimental de operante libre Forma “voluntaria” de actuación del sujeto.
Su característica principal resalta que se puede realizar la conducta instrumental tantas veces como se quiera.
Se mide la tasa de respuesta, es decir, la frecuencia de respuesta durante un tiempo determinado (por minuto, hora...) Para medir la frecuencia utiliza el registro acumulativo : La pendiente = frecuencia o tasa de la respuesta.
A - B No emite respuesta = 0 (línea plana).
B - C Tasa de respuesta baja (hay pendiente).
C- D Mayor tasa de respuesta (más pendiente).
5.2. PROGRAMAS SIMPLES DE REFUERZO.
Se estudian programas complejos de refuerzo en los cuales se presentan diferentes programas simples, ya sea secuencialmente o simultáneamente -Se producirán patrones de conducta diferenciada: ContinuoCada vez que se realiza la conducta hay un reforzador Simples Intermitente/ParcialEl reforzador aparece a veces, aunque realice la actividad, no siempre recibirá el reforzador.
-Hay parámetros que determinan cuando el sujeto recibirá el reforzador: Consecutivo /Secuencial Paralelo/SimultáneoUtilizando dos palancas Intermitente RazónAl sujeto se le pide un esfuerzo para recibir el reforzador FijoSe le pide una cantidad de conducta determinada para obtener el reforzador VariableSe establece un valor promedio de número de respuestas El patrón de conducta intermitente de razón variable es el que más respuesta da, es un programa adictivo.
Patrón de Conducta de Razón VariableDa un patrón estable de conducta y es de alta tasa de respuesta EJ: Máquinas tragaperras El patrón de conducta intermitente de razón variable es el que más respuesta da, es un programa adictivo.
Patrón de Conducta de Razón FijaSe pierde la estabilidad hay alteraciones. Hay periodos se alternancia entre actividad y descanso. Los periodos de descanso vienen a partir de la muesca (gráfica), indica la obtención del reforzador y el principio de la pausa.
Periodo de actividad EJ: Salario de trabajo Refuerzo Periodo de descanso Hay dos factores que lo hacen adictivo: -Se sabe que cuando se repite la conducta se está más cerca de recibir el esfuerzo.
-Al ser variable se puede obtener un esfuerzo con pocas repeticiones de conducta, con poco esfuerzo.
Intermitente IntervaloPeriodo de tiempo en el que el sujeto aunque realice la conducta no tendrá reforzador FijoCantidad de tiempo fijo de restricción del reforzador.
Se obtiene el reforzador una vez terminado el intervalo de restricción en la primera presión de palanca VariableLa cantidad de tiempo de restricción es variable.
Patrón de Conducta de Intervalo VariableDa un patrón estable de conducta y suele dar más respuesta.
Patrón de Conducta de Intervalo FijoSe pierde la estabilidad y aparece una alternancia entre acción y pausa. El Efecto “Estón” es la causa por la que el patrón de Razón tiene más tasa se respuesta que el patrón de Efecto “Festón” Intervalo Los programas variables dan lugar a tasas estables de respuesta, no se producen periodos de actividad y descanso, Los programas de razón dan lugar a tasas más altas de respuesta.
Diferencias Razón-Intervalo REYNOLDS (1975) La conducta está mediada por un sentido temporal en los programas de intervalo, depende en que tiempo el sujeto tiene acceso al reforzador.
En los de razón NO. (tiempo entre respuestas) TIR prog.
IntervaloRazón La pendiente de la gráfica indica que hay más tasa de respuesta.
5.3 PROCEDIMIENTOS DE CONDICIONAMIENTO INSTRUMENTAL Los procedimientos se definen mediante: 1.Correlación entre respuesta y consecuencia Positiva NegativaLa conducta provocará que desaparezca el reforzador (provocará que no haya nada) 2.Tipo de consecuencia/ reforzador que se utiliza Apetitiva Comida AversivaChoque -Reforzamiento PositivoLas situaciones siempre llevaran a producirse.
La ejecución de la respuesta instrumental conlleva la aparición de un estímulo agradable.
La correlación positiva entre respuesta y estímulo apetitivo aumenta la probabilidad de la respuesta -Castigo positivoReforzador aversivo La ejecución de la respuesta instrumental conlleva la aparición de un estímulo desagradable.
La correlación positiva entre respuesta y estímulo aversivo disminuye la probabilidad de aparición de la respuesta -Reforzamiento NegativoDesaparición de un reforzador aversivo (estímulo desagradable) La ejecución de la respuesta conlleva la desaparición (escape), o impide que aparezca (evitación), un estímulo desagradable La correlación negativa entre respuesta y estímulo aversivo aumenta la probabilidad de la respuesta.
o EvitaciónTeoría de los dos procesos (MOWRER, 1942) : CC + CI La evitación no se va a producir sin una etapa de escape.
MOWRER Para que se pueda dar la habituación necesitamos una señal que anticipe el reforzador desagradable y así evitar entrar en contacto con el reforzador aversivo -Castigo Negativo (Castigo común)La ejecución de la respuesta instrumental conlleva la desaparición de un estímulo agradable.
La correlación negativa entre respuesta y estímulo apetitivo disminuye la probabilidad de aparición de la respuesta o OmisiónLa ejecución de la respuesta instrumental conlleva a la desaparición del estímulo agradable.
EJ1: Compañero critica al profe CILos compañeros no le hacen caso (Castigo negativo -Omisión) CILos compañeros le dan la espalda (Reforzamiento negativo) Ej2: Niña con rabieta en el super CIMadre compra golosinas y a la niña se le pasa la rabieta (Reforzador Negativo) 3. Aprendizaje observacional o Modelado BANDURASe aprende con un modelo.
Implica procesos de Adquisición Atención: Características del modelo; del observador; condiciones estimulares.
Retención y registro: Representación simbólica, elaboración cognitiva.
Implica procesos de Ejecución Elaboración: Reproducción motora.
Motivación: Refuerzo o castigo obtenido por el modelo (CI).
5.4. VARIABLES DEL CI - RRespuesta operante o instrumental - CConsecuencia; o reforzador (ref) - Relación Respuesta-Reforzador Variables del CI: La respuesta instrumental Con la experiencia, el resultado del reforzamiento instrumental es el hábito: conducta automática estereotipada. (PAGE Y NEURINGER) G. ControlLa misma secuencia derecha/izquierda de 8 respuestas a dos teclas se repite con la práctica continuada.
G. ExperimentalSe puede reforzar la variabilidad de una respuesta siempre y cuando la variabilidad sea la operante a condicionar HUTT (1954)Demostró que la cantidad y la cualidad del reforzador influyen en la tasa de respuesta Variables del CI: Relevancia o pertinencia Respuesta-Reforzador SHETTLEWORTH (1975) Hay tres valores de condicionamiento.
-Respuestas preparatoriasDirigidas a la obtención del reforzador son las más fáciles de condicionar (inician las acciones) La privación de comida activa el sistema de respuestas relacionado con la alimentación, disminuyendo actividades no relacionadas con dicho sistema y aumentando las relacionadas con la búsqueda de comida.
-Respuestas/Conductas consumatoriasImposibles de condicionar en un gran número de especies.
La deriva instintiva BRELAND Y BRELAND, 1961 (Sobre todo en roedores porque va en contra de lo que suelen hacer cuando tienen hambre) Variables del CI: Contigüidad temporal Respuesta-Reforzador La demora en la administración del reforzador produce un deterioro del aprendizaje Cuanto más tiempo pasa más necesita el sujeto para el aprendizaje, es necesario más tiempo para el CI.
El CI es sensible a la demora debido a la interferencia de otras respuestas, tiene un efecto nocivo sobre el CI Dos formas de controlar la interferencia: - Utilización de reforzadores secundariosEn humanos (dinero, reforzamiento verbal, economía de fichas) señalan la demora del refuerzo primario, se tienen que aplicar una vez terminada la conducta.
- Procedimiento de marcadoMantiene la atención del sujeto sobre la respuesta precedente (Situación en un laboratorio) No marcado (Control) No aprende (50% de elección se hace la opción correcta -comida) DemoraSe espera 1 minuto y pasa a la meta Marcado(Experimental) Estructura asociativa del CISe remarca o llama la atención del sujeto sobre la conducta que ha realizado.
Los sujetos de grupo experimental son marcados al hacer la elección (cualquiera) 5.5. ESTRUCTURA ASOCIATIVA DEL CI THORNDIKE ER VS SKINNER RC Reforzador 1Comida Reforzador 2Bebida Conclusión del experimento: Aprende una relación RC (SKINNER) Y no es necesario remitirse a una asociación ER (THORNDIKE) Ed (Estímulo discriminativo)Estímulo que aporta información de lo que se puede conseguir (posibilidades), de los posibles reforzadores que se pueden conseguir.
Entrenamiento 1: Vincular Ed (luz)con el ref 1, para tener acceso al reforzador deben hacer la actividad Entrenamiento 2: Hay una palanca móvil que las ratas pueden empujar y mover.
R3Comida (Empujar hacia la izquierda) R4Bebida (Empujar hacia la derecha) La frecuencia era la misma Prueba Mezcla de Ed con actividades del entrenamiento 2 Luz R3 Fomenta la actividad 3 porque se relaciona R3 con el reforzador 1.
Conclusión: Preferian LuzR3 y TonoR4 porque se establece relación entre Ed y consecuencia.
Estructura Jerárquica o Condicional: Ed (RC) Ed activa la expectativa de refuerzo: MOTIVACIÓN Expectativa que activa asociaciones R-C aprendidas Se realiza la respuesta posible.
El entorno (luz) provoca una expectativa de refuerzo (ref 2), tiene efecto motivacional.
Elementos del CI - EdEstímulo discriminativo (contexto o estímulo/s discretos) presente cuando se obtiene la consecuencia (el reforzador).
- R Respuesta (conducta operante/instrumental) - C o ref Consecuencia o reforzador provocan refuerzo o castigo ...

Comprar Previsualizar