Tema 5. Condicionamiento instrumental u operante (2016)

Apunte Español
Universidad Universidad de Barcelona (UB)
Grado Psicología - 1º curso
Asignatura Aprenentatge Motivació i Emoció
Año del apunte 2016
Páginas 6
Fecha de subida 25/04/2016 (Actualizado: 06/05/2016)
Descargas 11
Subido por

Vista previa del texto

Tema  5.  Condicionamiento  instrumental  u  operante   [Miércoles  30.03.2016]   5.1.  Thordhike  y  Skinner   Thordhike   Ponía  gatos  en  cajas  problema  y  registraba  la  latencia  de  escape.   Los  encerraba  y  cronometraba  cuando  tardaban  en  salir.  El  grafico  de  la  derecha  es  un  gráfico  de  latencia   donde  se  aprecia  que  en  los  primeros  ensayos  tardaban  más  en  salir,  pero  después  cada  vez  salían  más  rápido.   En  la  última  parte  se  da  un  nivel  asintótico,  en  el  que  el  gato  aprende  la  acción  y  ya  tardará  siempre  lo  mismo.       El  gato  aprende  que  cuando  pulsa  el  pedal  (realizando  una  actividad/  respuesta),  la  caja  se  abre   (consecuencia).   Según  la  situación  experimental  jhay  dos  tipos  de  ensayos:   1.   Ensayo  dicreto  o  discreto.   -­‐   Sólo  se  permite  una  respuesta  por  ensayo.     -­‐   En  función  de  la  situación  experimental  se  mide  la  latencia  de  respuesta,  el  porcentaje  de  respuestas   correctas,  el  tiempo  en  alcanzar  la  meta,  la  velocidad  de  carrera,  etc...       En  el  corredor  recto  cada  vez  corren  más  rápido  al  otro  extremo,  cada  vez  la  latencia  es  menor.   En  el  laberinto  en  T  tienen  que  optar  por  una  opción.  El  porcentaje  de  veces  que  acierta  la  respuesta   correcta  es  cada  vez  mayor.   Ley  del  efecto:  “De  varias  respuestas  en  una  misma  situación,  aquellas  acompañadas  o  seguidas  de  cerca   (estando  lo  demás  igual)  por  la  satisfacción  del  animal,  se  conectarán  firmemente  con  la  situación,  de  forma   que,  cuando  la  situación  se  repita  tendrán  más  posibilidades  de  producirse;  Aquellas  respuestas  acompañadas   o  seguidas  de  cerca,  estando  lo  demás  igual,  por  la  incomodidad  del  animal,  debilitarán  sus  conexiones  con  la   situación,  de  forma  que,  cuando  la  situación  se  repita,  tendrán  menos  posibilidades  de  ocurrir.  Cuanto  más   grande  sea  la  satisfacción  o  incomodidad,  más  grande  será  el  fortalecimiento  o  debilitamiento  de  la  conexión."     Esto  quiere  decir  que  el  estímulo  actúa  en  función  del  contexto,  ante  una  conducta  hay  varias  posibles   respuestas  (R1,R2,R3).    Cada  una  de  estas  respuestas  tiene  una  consecuencia,  que  en  el  caso  de  la  caja  la   respuesta  de  darle  al  pedal  es  la  que  te  permite  salir.   Es  un  esquema  estímulo  respuesta,  que  depende  del  contexto.  Para  que  la  conducta  se  repita  tiene  que  darse   en  el  mismo  contexto,  si  no  no  se  dará  la  respuesta.   Con  la  respuesta  correcta  se  crea  un  lazo  asociativo.   Elementos  del  CI  Thorndike     −   Ed:  (Ed:  estímulo  discriminativo)  El  contexto  (el  aparato  experimental,  o  cualquier  estímulo  discreto,   p.ej.  una  luz,  o  varios)  presente  cuando  se  obtiene  la  consecuencia.     −   R:  Respuesta     C:  consecuencia   efecto  sobre  la  asociación  E  →  R     Skinner   Conducta  Operante:  operaciones,  maniobras  del  sujeto  sobre  el  entorno.  Se  entiende  la  conducta  como   instrumento,  como  una  herramienta  para  alcanzar  objetivos.     Ponía  a  ratas  en  una  caja  en  la  que  tenían  que  presionar  una  palanca  para  ir  obteniendo  porciones  de  comida.   A  esto  se  le  llama  operante  libre  ya  que  el  animal  es  libre  de  realizar  la  conducta  cuando  lo  desee.     Decía  que  las  conductas  (instrumento)  se  hacían  para  obtener  objetivos  (recursos).   Se  mide  la  tasa  de  respuesta,  la  frecuencia,  la  cantidad  de  veces  que  presiona  la  palanca  en  un  tiempo   determinado.   Se  hace  un  registro  continuo  acumulativo,  que  muestra  la  acumulación  de  la  tasa  de  respuesta  del  sujeto.   La  p endiente  =  frecuencia  o  tasa  d e  la  respuesta.   Entre  A  y  B  no  emite  respuesta  (línea  p lana).   Entre  B  y  C  cierta  tasa  relativa.   Entre  C  y  D  incrementa  la  tasa  de  respuesta.     Entre  A  y  B  no  presiona  la  palanca,  por  ello  no  se  emite  respuesta.  Cuando  hay  pendiente  es  que  el  animal   pulsa.  A  +  pendiente  +  frecuencia,  por  ello  entre  C  y  D  es  donde  el  animal  pulsa  con  más  frecuencia.   Ley  del  refuerzo:  La  conducta  operante  que  produzca  refuerzo  aumentará  su  frecuencia  de  aparición.  La  que   produzca  castigo,  tenderá  a  desaparecer.     Elementos  del  CI  Skinner     Entornos  donde  desplegar  el  repertorio  conductual  de  forma  espontánea,  libre  =  Conductismo  radical.  Si   sabemos  hacer  las  cosas,  en  cualquier  momento  las  haremos.     −   R:  Respuesta  (conducta  operante/instrumental)     −   C:  consecuencia  o/  Ref:  reforzador:  provocan  refuerzo  o  castigo  .   En  cualquier  contexto  haremos  las  conductas  que  sabemos  hacer,  dependiendo  ya  de  el  contexto  lo   repetiremos  o  no  en  el  contexto  que  sea.   5.2.1  Procedimientos  de  Condicionamiento  Instrumental     Los  procedimientos  CI  vienen  determinados  por:     −   La  correlación  existente  entre  la  respuesta  y  la  consecuencia:   o   Positiva:  correlación  positiva  con  la  aparición  de  una  consecuencia.   o   Negativa:  no  hy  correlación  entre  la  respuesta  y  la  conducta  que  lo  precede.   −   El  tipo  de  consecuencia:   2   o   Apetitiva     o   Aversiva       a.   Reforzamiento  positivo:  la  ejecución  de  la  respuesta  instrumental  conlleva  la  aparición  de  un  estímulo   agradable.  Aumenta  la  probabilidad  de  respuesta.   b.   Castigo(positivo):  la  ejecución  de  la  respuesta  conlleva  la  aparición  de  un  estímulo  desagradable.   Disminuye  la  probabilidad  de  respuesta.   c.   Reforzamiento  negativo:  la  respuesta  elimina  o  impide  la  presentación  de  un  estímulo  aversivo.   d.   Castigo(por  omisión):  la  ejecución  de  la  respuesta  instrumental  conlleva  la  desaparición  de  un   estímulo  agradable.  Simplemente  le  quitas  algo  bueno.   5.2.2  Programas  simples  de  refuerzo:   1)   Continuo:  el  reforzador  aparece  siempre  que  se  produce  la  conducta.   2)   Intermitentes:  no  siempre  que  se  produce  la  conducta  tiene  que  producirse  la  respuesta,  esto   dependerá  de  2  criterios:   v   Programas  de  razón:   Ø   Programa  de  razón  fija:  nº  fijo  de  conductas  para  llegar  el  refuerzo.  Por  ejemplo,  RF-­‐ 10,  quiere  decir  que  tiene  que  hacer  10  veces  la  conducta  para  que  se  le  de  el   refuerzo.   Ø   Programa  de  razón  variable:  una  media  del  nº  de  conducats  para  obtener  el   reforzador.  Va  variando  el  nº  de  veces  y  variará  entre  ciertos  valores.  Si  RV-­‐10,  10   seria  las  conductas  promedio,  a  veces  8,  a  veces  12..   v   Programas  de  intervalo:  transcurrido  un  tiempo  de  restricción  se  obtiene  el  reforzador   cuando  se  ejecuta  la  respuesta.   Ø   Programa  de  intervalo  fijo:  se  da  el  reforzador  tras  una  cantidad  fija  de  tiempo,   siempre  que  de  la  respuesta  en  ese  intervalo.  Por  ejemplo  IF-­‐10””  (cada  10   segundos,  siempre  que  se  de  la  respuesta).   Ø   Programa  de  intervalo  variable:  se  da  el  reforzador  tras  una  cantidad  de  tiempo   variable.  Por  ejemplo  IV-­‐10”(cada  10  segundos  de  promedio,  siempre  que  se  de  la   respuesta  requerida  en  ese  margen).       3     RF  e  IF  à  hay  periodos  de  actividad  y  periodos  de  pausa  post-­‐refuerzo.     RV  e  IVà  es  menos  variable,  la  hacen  de  forma  más  o  menos  igual,  no  saben  cuando  va  a   venir  el  refuerzo  exactamente  y  van  haciendo.     Estos  dos  son  más  efectivos  que  el  Efecto  de  tensión  del  programa  de  RF:  pausa  post  refuerzo.   Como  sabes  lo  que  necesitas  para  conseguir  el  refuerzo  y  lo  haces  cuando  quieras  en  cuanto  lo  tienes   descansas.  En  el  otro  caso  se  genera  un  estrés  porque  no  saben  cuando  van  a  tener  el  siguiente  refuerzo,  asi   que  no  paran  (RV).  Es  el  modo  de  la  máquina  tragaperras,  piensan  que  la  siguiente  vez  será  la  que  ganas,  y  la   siguiente  más.  A  veces  toca  con  menos  esfuerzo  y  te  engancha.     [Lunes  18.04.2016]   5.3  Variables  del  CI   R:  respuesta  operante  instrumental   C:  consecuencia;  ref:  reforzador   Es  la  relación  Respuesta-­‐Reforzador.   Estereotipia  y  Variabilidad   Las  estereotipias  son  movimientos,  posturas  o  voces  repetitivos  o  ritualizados  sin  un  fin  determinado.   Con  la  experiencia,  el  resultado  del  reforzamiento  instrumental  es  el  hábito:  conducta  automática   estereotipada.     Expermiento:   G.  Control:  La  secuencia  d erecha/izquierda  de  8  respuestas   a  dos  t eclas  se  repite  igual  con  la  experiencia.     G.  Experimental:  se  puede  reforzar  la  variabilidad  d e  una   respuesta  siempre  y  cuando  la  variabilidad  sea  la  operante  a   condicionar.         Variables  del  CI   •   4   El  reforzador  instrumental   Hutt  demostró  que  la  cantidad  y  la  calidad  del  reforzador  influyen  en  la  tasa  de  respuesta.  Si  es  de   mas  alta  calidad  se  da  un  mayor  número  de  respuestas  por  minuto.     Si  se  pasa  de  una  cantidad  menor  de  reforzador  a  una  cantidad  mayor  se  da  elación,  es  decir,  efecto   positivo.  Si  pasa  lo  contrario,  pasas  de  más  reforzador  a  menos  se  da  depresión,  es  decir,  efecto   negativa.     La  efectividad  de  un  reforzador  está  basada  en  las  expectativas  de  los  individuos  en  base  a  sus   experiencias  previas.   •   Cambios  en  el  reforzador   Los  efectos  de  contraste  señalan   que  la  efectividad  de  un   reforzador  está  d eterminada,  a l   menos  en  parte,  por  las   expectativas  d e  los  individuos  en   base  a  sus  experiencias  p revias.     Efecto  del  contraste  positivo:   elación.  Debido  a l  entusiasmo   que  supone  la  obtención  de  una   recompensa  inesperadamente   grande.   Efecto  de  contraste  n egativo:   depresión.  Debido  a  la  frustración   que  supone  la  obtención  de  una   recompensa  inesperadamente   pequeña.     •   •     Relevancia  o  pertinencia:    Respuesta-­‐Reforzador   Shettleworth  (1975)  demostró  que  la  privación  de  comida  disminuía  la  frecuencia  de  ciertas   actividades  y  aumentaba  las  actividades  preparatorias  relacionadas  con  la  comida.     Cuando  un  animal  está  privado  de  comida,  su  sistema  de  respuestas  relacionado  con  la  alimentación   se  activa.     Las  respuestas  relacionadas  (preparatorias)  con  la  obtención  del  reforzador  son  más  fáciles  de   condicionar,  pero  las  resouestas  consumatorias  son  casi  imposibles  de  condicionar.   La  deriva  instintiva  Breland  y  Breland,  1961.  Define  el  efecto  de  interferencia  que  la  conducta  innata   puede  ejercer  sobre  la  conducta  operante.   Contigüidad  temporal:    Respuesta-­‐Reforzador   La  d emora  en  la  administración  d el   reforzador  produce  un  deterioro  d el   aprendizaje.   El  CI  es  sensible  a  la  demora  d ebido  a  la   interferencia  de  otras  respuestas.     -­‐   -­‐       Hay  dos  formas  de  controlar  la  interferencia:   Utilizando  reforzadores  secundarios:  en  humanos,  por  ejemplo,  dinero,  reforzamiento  verbal,  etc.   Éstos  señalan  la  demora  del  refuerzo  primario.   El  procedimiento  de  marcado:  mantiene  la  atención  del  sujeto  sobre  la  respuesta  precendente.   Hipótesis  del  marcado   Se  experimento  haciendo  que  unos  animales  tuvieran  que  escoger  un  camino  u  otro  (blanco  o  negro).  Al   final  del  negro  había  recompensa  y  del  blanco  no.  De  los  que  dieron  con  la  respuesta  a  unos  se  les  dejo   continuar  hasta  la  meta  y  la  recompensa  (grupo  control)  y  a  otros  se  les  interceptaba  justo  después  de  la   elección  y  se  les  ponía  en  la  caja  de  demora  (grupo  experimental).  Los  marcados  tuvieron  un  efecto  de   marcado  que  grabo  en  la  memoria  de  los  sujetos  su  elección  y  esto  hace  que  después  sea  mas  probable   recuperar  la  respuesta  cuando  estos  sujetos  reciben  la  recompensa  después  de  la  demora.  Lo  aprendieron   mejor.   5     5.4.  La  naturaleza  asociativa  del  CI   La  expectativa  crea  una  motivación.   Teoría  de  los  dos  procesos:  la  asociación  E-­‐C  activa  un  estado  emocional  positivo  o  negativo  dependiendo   de  si  el  reforzador  es  un  estímulo  apetitivo  o  aversivo.   Ley  del  efecto  (Thordnike):  se  da  una  relación  entre  el  entorno  y  la  respuesta.   Esto  también  está  implícito  en  la  Ley  del  Refuerzo.     Estructura  Jerárquica  o  Condicional:  Ed  (RàC)   Ed  activa  la  expectativa  d e  refuerzo:  Motivación.   Expectativa  que  a ctiva  a sociaciones  R-­‐C  aprendidas.   Se  realiza  la  respuesta  posible  aprendida.     Ed:  Estímulo  discriminativo.  El  contexto  (puede  ser  el  aparato  experimental,  o  cualquier  estímulo  discreto,   p.  Ej.  Una  luz,  o  varias)  presente  cuando  se  obtiene  la  consecuencia  (el  reforzador).   R:  Respuesta  (conducta  operante/  instrumental)   C  o  ref:  consecuencia  o  reforzador,  provocan  refuerzo  o  castigo.   6   ...