Tema 3. Arquitectura neurocognitiva del lenguaje (2014)

Apunte Español
Universidad Universidad Autónoma de Madrid (UAM)
Grado Psicología - 2º curso
Asignatura Psicología del lenguaje -Igoa
Año del apunte 2014
Páginas 9
Fecha de subida 17/07/2017
Descargas 0
Subido por

Descripción

APuntes de Matricula de Honor

Vista previa del texto

TEMA 3. Arquitectura neurocognitiva del lenguaje Un estímulo nos puede llegar a través de la modalidad auditiva o visual, lo que desencadena inevitablemente procesos de transducción sensorial: transformar la energía física en información interpretable por nuestro cerebro o sistema cognitivo. El primer paso es reconocer las palabras habladas o escritas que nos llegan por cualquiera de las dos modalidades: percepción del habla o reconocimiento de grafismos. Es inevitable reconocer palabras, es decir, el reconocimiento de palabras es un proceso en el que parece que la voluntad de la persona no interviene. No obstante, no toda la información fonética de las palabras la necesitamos de la misma manera para identificar las palabras. Tenemos que procesar los:  Procesos sintácticos: el procesamiento de enunciados y oraciones es un medio para poder descubrir el significado del enunciado. Para ello, hay que analizar la relación entre las palabras para hacer inferencias pragmáticas sobre dicho significado. Los procesos sintácticos no necesitan tanto el significado de las palabras para ponerse en marcha.
 Procesos semántico-pragmáticos: activación de significados y combinación de conceptos. Los procesos semántico-pragmáticos dependen de los procesos sintácticos.
Procesos sintácticos Procesos semáticopragmáticos Arquitectura neurocognitiva del lenguaje Producción del lenguaje Levelt propone que primero formulamos una intención comunicativa: un contenido que queremos transmitir.
El producto de este primer componente, el conceptualizador, es un mensaje pre-verbal. La forma lingüística se la da al lenguaje el formulador, que convierte el mensaje pre-verbal en un enunciado, en una cadena de sonidos). El formulador tiene un componente gramatical (codificación gramatical), que codifica la planificación de la estructura gramatical, pero también tiene que acceder al contenido, a la base de datos que forma nuestro léxico para poder expresar los conceptos a través de palabras. Es decir, tenemos que seleccionar un conjunto de palabras y ordenarlas. El tercer componente del formulador, la codificación fonológica, se encarga de organizar la representación fonológica del mensaje: determinar el patrón de acento, la entonación, etc. Pero además, cada palabra tiene una representación que se llama lema, que contiene la información gramatical de cada palabra (si es sustantivo, verbo, adjetivo, preposición,). Es decir, tenemos que pronunciar correctamente las palabras, para lo que tenemos que acceder a las formas (dónde lleva el acento, composición silábica y fonémica). Esta información es la que necesita el sistema de codificación fonológica para poder pronunciar el enunciado. Todo esto nos lleva al plan fonético, que es la oración dispuesta para ser articulada. Finalmente, tenemos que articular el enunciado o la palabra. El conjunto de procesos de producción necesita la retroalimentación por parte de la comprensión: nos escuchamos, tenemos un acceso muy rápido al producto final de todos estos procesos, podemos monitorizar el producto verbal que estamos produciendo para introducir cambios y corregir los errores.
Niveles de análisis Según David Marr, existen tres niveles que ocurren en paralelo y se relacionan unos con otros.
1) Teoría de cómputo. Se encarga del análisis de la tarea, pues especifica la definición del problema y las condiciones de entrada y de salida. El problema al que nos enfrentamos en el caso del lenguaje es cómo se acoplan sonidos con significados. Tenemos que definir qué es eso que llamamos sonido: qué información es la que 1 sirve de entrada y de salida. Lo mismo pasa con el significado: a dónde tenemos que llegar cuando estamos comprendiendo el lenguaje.
2) Algoritmo. Es un procedimiento eficaz y fiable para resolver un problema; una secuencia de pasos, un conjunto de operaciones sobre representaciones (explicación funcional, cognitiva). Si tienes un problema bien definido en el primer nivel, tienes una gran ventaja. Los algoritmos conforman la arquitectura funcional, pues pueden ser procesos (activación, inhibición, selección) o representaciones (rasgos, segmentos, morfemas).
3) Realización biológica. Completa todo el panorama, pues permite explicar cómo se llevan a cabo todos los procesos en un organismo físico. Conforma la arquitectura neuronal, y proporciona una explicación causal de los eventos físicos, estados y procesos cerebrales. Hay que descubrir el soporte físico sobre el cual se asienta el lenguaje, como las regiones cerebrales y el curso temporal de los procesos.
Según este autor, ningún nivel de análisis es prescindible. El problema se encuentra en la relación entre los dos últimos niveles, que viene a ser el mismo problema de la relación entre la mente y el cerebro. En la relación entre la arquitectura funcional y la neuronal tiene que haber una relación de identidad, un paralelismo. No es suficiente decir que la arquitectura funcional sobreviene en la neuronal, hay que definir en qué consiste dicha relación. Una posible explicación es que a cada estado mental (EM) le corresponde uno y sólo un estado neuronal (EN). El problema radica en elaborar una lista de estados mentales. A esto se le llama identidad de tipos, que establece una correspondencia muy directa entre las operaciones mentales y los estados neuronales de la misma clase. Pero si consideramos que a cada estado mental le corresponden diversos estados neurológicos y viceversa, nos encontraríamos ante la identidad de casos.
Este autor hace una distinción entre procesos centrales (controlados, conscientes) y automatizados (modulares). Los procesos que requieren más recursos son los que afectan al conceptualizador y a la codificación gramatical y fonológica, es decir, son procesos centrales. Los procesos fonológicos y articulatorios ocurren de forma más automática.
Percepción del habla La percepción es la identificación de una secuencia de sonidos en términos de fonemas, sílabas y palabras. No hay una separación muy nítida entre lo que es la percepción y la comprensión, pues no hay un acuerdo generalizado respecto a cuándo termina la percepción. Tenemos como input una serie de cambios en la presión del aire que son identificados en el tímpano y, a partir de este estímulo sonoro, identificamos en el output fonemas, sílabas e incluso palabras. El caso de la percepción de palabras es particularmente dificultoso, porque en algunos casos podemos afirmar que hemos percibido algo de forma realista y verídica, pero hay otros casos en los que no existe un objeto independiente de nuestra percepción, como el arco iris. En la percepción del habla, los fonemas y las palabras no existen en la realidad: resultan de la interacción entre el sistema auditivo y el cognitivo; son creaciones, hasta un punto, del mismo cerebro. El problema se encuentra entre la señal que llega al tímpano y lo que nosotros interpretamos: a pesar de que halla señales variables, siguen existiendo invariantes. No hay fronteras acústicas entre los fonemas, sino fronteras perceptivas: para decir la palabra ‘duda’ la pronunciación de la ‘d’ es diferente dependiendo de la posición de la vocal que le sigue. La co-articulación nos permite producir sonidos a una velocidad extraordinaria, pues los sonidos no se emiten de uno en uno, sino en grupitos. Por tanto, hay dos problemas:  Problema de la linealidad/segmentación: no hay fronteras acústicas entre fonemas.
 Problema de la ausencia de invarianza: no hay correspondencia sistemática entre rasgos acústicos y fonemas. Por ejemplo, si décimos rápidamente y-y-y-y-y-y-y-y-y-y, podemos llegar a percibir una p (consonantes oclusivas).
2 Analizamos un espectograma*** Los formantes son resonancias del aire en el tracto vocal, pero también son filtros de paso de frecuencias que modifican el sonido que se emite, dejando pasar unas frecuencias y bloqueando la transmisión de otras. Si nos centramos en el formante primero (F1), los dos de abajo, observamos que ambos son iguales. Sin embargo, los formantes segundos (F2) son diferentes.
La parte recta del formante determina la vocal que vas a producir, y las pequeñas curvitas se llaman transiciones de los formantes. La silaba di consta de dos formantes que tienen una transición ascendente, mientras que la silaba du tiene un formante con una transición ascendente y la segunda transición descendente. En cada sílaba, como mínimo, hay dos formantes, y el sistema auditivo junta los dos formantes para que tú percibas una sílaba: relación misteriosa entre la percepción y la producción.
Al problema de la segmentación y al de la ausencia de invarianzas hay que añadirle el problema de la normalización, que consiste en identificar las propiedades relevantes de la señal y filtrar las irrelevantes. Es decir, por encima de las diferencias entre hablantes diferentes y la duración del mensaje, hay ciertos aspectos que son irrelevantes para identificar ciertos sonidos. Lo que cuenta es la distancia entre los formantes.
Restricciones computacionales Nuestro sistema auditivo es un sistema constructivo: reconstruimos la información que nos llega a través de la señal acústica para dotarle de sentido.
 Constricciones del sistema auditivo  el sistema auditivo está sintonizado con determinadas propiedades acústicas de las señales auditivas, lo que se traduce en una incapacidad para percibir ciertas frecuencias o discriminar ciertos tipos de sonidos. Nuestro sistema auditivo está organizado en forma de canales o ventanas, dentro de las cuales percibimos los sonidos como idénticos. Esto tiene que ver con la resolución temporal y espectral (capacidad para distinguir tonos o frecuencias diferentes), es decir, con la forma de los canales y el tamaño de la ventana del análisis. Parece que el umbral de sensibilidad está entre 5-7 Hz. La capacidad de resolución tiene que ver con la capacidad de discriminación entre sonidos muy próximos en el tiempo o en frecuencia. Dentro de un determinado rango de frecuencias, los estímulos que se encuentren dentro de ese rango serán percibidos como iguales. Cuando la velocidad de las transiciones de los formantes es: Nuestro oído es muy o Transición lenta: advertimos una semivocal (> 60 mseg) sensible a las velocidades o Transición rápida: percibimos una consonante oclusiva (40-60 mseg) de dichas transiciones  Propiedades articulatorias del tracto vocal  cómo percibimos el habla depende de cómo articulamos el habla. En otras palabras: para poder entender el habla tenemos que saber cómo se articula. Es decir, hay una conexión muy directa entre la percepción y la articulación (acción). Una de las consecuencias acústicas de los movimientos articulatorios es el habla sinusoidal, que es una forma artificial de habla que los oídos humanos, en condiciones determinadas, pueden percibir como habla ‘real’. Lo que se hace es registrar una frase producida por un hablante y, mediante un espectrograma, se detectan los formantes de la señal. Por medios artificiales se hace una síntesis de las sinusoides (tonos puros) para emular los formantes de la voz. Finalmente, se comprueba si el sujeto, tras la manipulación de la señal, es capaz de percibir el estímulo como ‘habla’. Cuando percibimos y combinamos los tonos sinusoidales, reconstruimos los movimientos articulatorios que produjeron dichos sonidos. La percepción de este tipo de estímulos como estímulos de ‘habla’ implica hemos reconstruido estos cambios implícitamente que se producen en el tracto vocal.
3  Otras fuentes de información potencialmente relevantes: la percepción del habla también puede verse influenciada por la visión, como en el caso de la lectura labial. Es evidente que la lectura de labios no nos da una información visual completa porque hay ciertos sonidos que se producen en zonas internas (y no visibles) del tracto vocal. McGurk mostró que dos entradas sensoriales en modalidades distintas (entrada auditiva y visual) pueden activar conjuntamente el módulo de percepción del habla. ¿Cómo? Los sujetos integran las dos fuentes de información conflictivas y crean una solución intermedia.
Reconocimiento de palabras habladas Partimos de la idea de que la señal continua y variable no es lo suficientemente fiable. El primer paso en el reconocimiento de palabras habladas consiste en los mecanismos auditivos que nos proporcionan una representación espectral, donde aparecen los formantes. A continuación, hay que añadir una serie de cómputos o cálculos (¿?). Poeppel propone una descripción computacional: un algoritmo que acopla la representación espectral con representaciones léxicas. Para ello hay que saber qué sonidos son los que aparecen representados en el espectrograma, porque la salida es una cadena de segmentos con rasgos distintivos. Ahora bien, ¿cuál es el algoritmo que acopla la representación espectral con sus representaciones léxicas? El análisis-por-síntesis, proceso por el cual vas tomando pistas estimulares y cada poco tiempo intentas integrar esas pistas en una representación elaborada.
Esto genera un conjunto de posibles candidatos léxicos. Es decir, este análisis secuencial nos permite activar determinados rasgos acústicos que, a su vez, activan un conjunto de candidatos léxicos que se corresponden con los gestos articulatorios que acabamos de activar. Simultáneamente, integramos y sintetizamos los fragmentos que estamos percibiendo para formular varias hipótesis sobre la identidad de lo que estamos percibiendo. No obstante, a medida que vamos recibiendo más información acústica se va reduciendo la cohorte de candidatos léxicos. La cohorte de candidatos léxicos se actualiza en pasos sucesivos de análisis acústico, pues el muestreo se da en episodios de 30 milisegundos; también hay análisis más largos, de hasta 200 milisegundos, que es lo que dura una sílaba. El conjunto de candidatos se va reduciendo a medida que recibimos información: los candidatos se sintetizan y se rechazan aún más candidatos hasta solo quedarnos con un candidato posible. En los fragmentos de 30 milisegundos no hay activación de segmentos discretos; si colocamos una clave acústica en algún lugar de ese fragmento, no notaríamos la diferencia. Increíblemente lo entendemos con 20 milisegundos, no con 100 ni 200. Los fonemas no intervienen en la percepción del habla (no hay activación de segmentos discretos), sino que se activan cadenas de rasgos acústico-articulatorios.
Percibimos antes las palabras que los fonemas que forman parte de ellas.
¿En qué mecanismos biológicos descansa este proceso?  Circuito dorsal: se encarga de acoplar la información acústica con la información motora y la fonética.
En A1 hay una especialización distinta de cada hemisferio: el hemisferio izquierdo se encarga de analizar los componentes temporales de la señal y el derecho de analizar los componentes espectrales (frecuencia). En el GTS (A1) bilateral se da un acoplamiento entre la información acústica y fonética, gracias a la conexión de A1 con otras áreas del lóbulo parietal y frontal. El área parieto-temporal silviana se encarga del acoplamiento acústico-motor, mientras que el GFI izquierdo se encarga de procesar los códigos articulatorios. En resumen: en las tareas auditivas participan los dos hemisferios, mientras que en las tareas articulatorias participa el hemisferio izquierdo.
4  Circuito ventral: sólo se encuentra en el hemisferio izquierdo, y se encarga de recuperar la información léxica y conceptual a medida que vamos escuchando los fragmentos de la señal, ya que se van activando los posibles candidatos léxicos.
Ambos circuitos funcionan de manera coordinada y paralela. Además, las conexiones neuronales van en ambas direcciones: el flujo de información es bidireccional o multidireccional. Las ventanas de análisis están en dos velocidades: 20-50 milisegundos y 200 milisegundos.
Comprensión de palabras habladas El acceso a la información semántica quizá no es tan inmediato como nosotros creemos, y tampoco es tan sencillo. ¿Cuándo y cómo se accede a la información semántica de una entrada léxica reconocida? ¿Cuándo y cómo interviene la información del contexto en la comprensión de las palabras? Las palabras ambiguas nos dan una buena oportunidad para responder a estas preguntas, porque en ellas encontramos una única forma y múltiples significados: hay un desdoblamiento entre la forma y el significado.
Acceso inmediato al significado Una de las pruebas más concluyentes del acceso inmediato al significado es el priming semántico enmascarado (influencia que ejerce un estímulo sobre otro). Consiste en presentar una palabra como caballo para que la gente la reconozca y una palabra relacionada o no con ella un poco antes. Así podemos averiguar qué tipos de palabras contribuyen al reconocimiento de la palabra caballo. Lo particular de esta técnica es que se puede enmascarar la palabra inductora (jinete) y seguir produciendo efectos. Algunos dicen que el efecto de este priming no es semántico sino léxico: las palabras como jinete y caballo son palabras asociadas léxicamente pero no comparten significado, es decir, tienen una relación asociativa porque en la experiencia ocurren juntas. Si esto nos lo creemos, hacemos una interpretación léxica y no semántica del priming. Es importante distinguir entre léxico y semántico para conocer el funcionamiento del sistema y para ayudar a las personas en su rehabilitación, pues podemos afinar mucho el diagnóstico.
Procesamiento de palabras ambiguas La ambigüedad léxica es un fenómeno muy común, pero que pasa inadvertido; solo nos damos cuenta cuando los significados de la palabra ambigua son igual de frecuentes (banco, cabo). La resolución de la ambigüedad léxica suscita un dilema computacional:  Una posibilidad es que el contexto se utilice rápidamente en la resolución de la ambigüedad. En ese caso, la ambigüedad se resuelve rápidamente. El inconveniente es que el proceso de comprensión de las palabras se hace más complejo al incluir el contexto. El proceso es penetrable, es decir, está siendo influido por varios factores. Cuando metes tantos factores, la combinación de dichos factores puede terminar en una explosión combinatoria, es decir, en infinitas posibilidades que sobrecargarían al sistema.
5  Si el contexto interviene más tarde, el problema surge en inhibir los significados inapropiados de la palabra, porque los tenemos todos activados a la vez. Solamente el contexto me ayudaría a inhibir los significados inapropiados.
Modelos de resolución de la ambigüedad léxica:  Modelos modulares. El reconocimiento de la palabra y la comprensión de la misma se dan sin la influencia del contexto, que interviene después. Este modelo pronostica una activación múltiple de todos los significados de la palabra.
 Modelos interactivos. El contexto interviene desde el principio, por lo que sólo vamos a activar el significado correcto. Es decir, el modelo pronostica una activación selectiva del significado.
Ninguno de los dos modelos es correcto, pues no tienen en cuenta la frecuencia relativa de los significados, ya que muchas palabras ambiguas tienen un significado dominante y otro subordinado.
 Modelos híbridos. El contexto interactúa con la frecuencia de los significados: cuando el contexto favorece el significado dominante se va a dar una activación selectiva, pero cuando el contexto favorece el significado subordinado se va a dar una activación múltiple.
Pruebas favorables a la activación múltiple Swinney (1979) puso a prueba las hipótesis de estos modelos, presentando un texto por vía auditiva: Plantas es una palabra ambigua, pero el contexto favorece uno de los significados (el de flores). Además, utilizó un priming transmodal: los participantes veían una palabra escrita mientras escuchaban el texto:  Flores – palabra congruente con el contexto de plantas  Pisos – palabra incongruente con el contexto de plantas  Ruedas – palabra no relacionada con el contexto de plantas Al participante se le pedía que escuchara la frase y, que cuando apareciera la palabra escrita, apretara un botón y afirmara si la palabra presentada era una palabra real o una inventada. Esta tarea de decisión léxica te permite evaluar el tiempo de respuesta de los participantes para reconocer las palabras presentadas. Si tardaran el mismo tiempo en reconocer flores y pisos, implicaría que la palabra plantas activa ambos significados a la vez. Swinney encontró que cuando el sujeto responde a las palabras justo después de la palabra ambigua no hay diferencias en los tiempos de reacción entre flores y pisos; cuando el sujeto responde 300-700 ms después de la palabra ambigua, se produce activación selectiva de los significados. Este autor concluye que se produce una activación de todos los significados posibles cuando la tarea de decisión léxica se realiza justo después de escuchar la palabra y se descarta el significado incorrecto de la palabra medio segundo después. Estos resultados favorecen un modelo modular de activación múltiple.
6 Curso temporal de los procesos de desambiguación 1) Paradigma del mundo visual Consiste en presentar dibujos y evaluar los tiempos de fijación ocular del sujeto para cada uno de los dibujos desde que escucha la palabra ambigua.
El contexto 2 tiene un sesgo subordinado, pues favorece el significado subordinado de la palabra gato.
Tiempo global de mirada (parece que favorecen los modelos de activación selectiva): Si se registran los tiempos de fijación antes de la presentación de la palabra ambigua, en el sesgo subordinado el gato mecánico ya recibía más fijaciones. Hay un momento en el que el dibujo correcto y el competidor pueden tener una cantidad parecida de miradas: en esta ventana temporal hay una competición entre candidatos. Cuando el contexto te fuerza a abandonar el significado dominante de la palabra, el otro significado sigue incordiando y hay que inhibirlo.
2) Registro de potenciales evocados con presentación lateralizada Toman como medida la de los potenciales evocadas con una presentación lateralizada de estímulos visuales. Querían estudiar la aportación de cada hemisferio cerebral en la resolución de la ambigüedad. Se presentan 3 palabras: la primera palabra puede tener o no relación con la segunda palabra, la cual siempre tiene relación con la última palabra. La palabra asta aparece solo en la mitad del campo visual, es decir, en un hemicampo visual. Se encontraron dos componentes: o N400: aparece ante un estímulo incongruente o inesperado. En este caso, como bandera no es el significado dominante para asta, causa sorpresa. Con el contexto neutro (FRENO-ASTABANDERA), este componente aparece atenuado en el hemisferio izquierdo, pero es normal en el hemisferio derecho. ¿Por qué? Porque el hemisferio izquierdo tiene también en cuenta el significado subordinado (BANDERA-ASTA-TORO), mientras que el hemisferio derecho contiene sólo el significado dominante. Con el sesgo subordinado, el N400 aparece normal en ambos hemisferios, porque ya se ha resuelto la ambigüedad. Esto le obliga al cerebro al reanalizar las relaciones entre asta y toro, por lo que se produce un incremento tardío de LPC en ambos hemisferios.
o LPC (componente positivo tardío): responde ante un intento de reparación del error percibido, por lo que se encarga de la integración semántica tardía.
   Múltiples significados en el hemisferio izquierdo Significado dominante en el hemisferio derecho Selección del significado correcto, pero el significado dominante permanece activo en ambos hemisferios Conclusiones  Todos los significados de la palabra ambigua se activan automáticamente. El hemisferio izquierdo permite una generación rápida de múltiples significados y selección del apropiado.
7  El contexto determina de inmediato la selección del sentido apropiado; si éste es el subordinado, hay competición. El hemisferio derecho permite una activación lenta del significado subordinado.
 La resolución de este conflicto consume muchos recursos atencionales (procesos controlados). Ambos hemisferios llevan a cabo un re-análisis y supresión del significado dominante.
Producción de palabras habladas La producción de palabras habladas es un proceso más costoso y que requiere más control que la comprensión de palabras. Una palabra tiene un concepto, unos rasgos gramaticales y unas características fonológicas:  Nivel conceptual: las palabras y los conceptos no son lo mismo. Hay conceptos que son difíciles de expresar con palabras, y varias palabras pueden expresar el mismo concepto. Los conceptos tienen rasgos o propiedades, y hay rasgos compartidos entre los conceptos.
 Nivel de los lemas: es propio de las palabras. El lema contiene todas las propiedades gramaticales de las palabras.
 Nivel de la forma de las palabras (fonología) Esto lo llamamos red léxica, y es el conocimiento que cada persona tiene de una lengua.
Disociación forma-significado en la selección léxica 1) Métodos observacionales. Se recogen los errores espontáneos, también conocidos como lapsus linguae. Freud pensaba que este tipo de errores representaban manifestaciones de procesos inconscientes que, sin que el hablante pretenda, emergen a la superficie y revelan deseos inconscientes. El estudio de este tipo de errores nos ayuda a comprender el funcionamiento de los mecanismos que están detrás de la producción de palabras. Los errores se ajustan a determinados patrones, es decir, muestran ciertas regularidades y se ajustan a una lógica interna: a. Sustituciones léxicas i. Jesús hizo hablar a los ciegos (mudos)  sustitución basada en el significado. El error está en un nivel conceptual.
ii. Yo me acuerdo de cuando hice la primera confusión (comunión)  sustitución basada en la semejanza fonética. El error está en el nivel de codificación fonológica.
iii. Están nevadas las cúpulas (cúspides) de las montañas  sustitución basada en la semejanza formal y el significado.
b. Fusiones de palabras i. Entonces tú que cazabas, ¿pedernices? (perdices/codornices)  el hablante es incapaz de inhibir una de las dos palabras que están compitiendo por ocupar el hueco. El error empieza en el conceptualizador pero se sigue manteniendo en los próximos niveles.
c. Errores de movimiento (intercambios) i. He visto un lavabo en el mosquito  no es un error de selección de la palabra, sino un error en la colocación de la palabra en la frase; por esta razón, se diferencia de los demás tipos de errores. El origen del error se encuentra en el nivel de codificación gramatical y, después, fonológico, así como de los mecanismos de control.
d. Fenómeno de la punta de la lengua  pérdida parcial de información fonológica y conservación de la información gramatical (clase gramatical, género) y semántica de la 8 palabra. Para generar este fenómeno se les da a los participantes una definición de un objeto, pero hay que escoger una palabra poco frecuente, como: “instrumento de navegación que se utiliza para medir distancias angulares, especialmente la altitud del sol, la luna y las estrellas en alta mar” (sextante). Se busca si el participante tiene información sobre los fonemas iniciales y finales, el número de sílabas, el patrón de acento, etc. Muchas veces aparecen palabras asociadas en el transcurso de la búsqueda de candidatos léxicos y palabras obstáculo, que dificultan la búsqueda léxica (sexteto, secante). Para solucionar el fenómeno punta de la lengua, hay que salir del nivel fonológico y pasar al nivel semántico.
2) Paradigma de interferencia palabra-dibujo. Se presenta un dibujo de un objeto y, en un determinado momento, aparece una palabra en una zona visible del dibujo. Esta palabra puede producir una interferencia en el proceso de búsqueda de candidatos léxicos para nombrar el dibujo.
a. Si la palabra está relacionada i. Semánticamente con el dibujo (río) – si la palabra se presenta antes que el dibujo, se produce un efecto de interferencia a los -150 ms. La inhibición conceptual que ejerce rio sobre puente se traduce en un mayor tiempo de respuesta.
ii. Fonéticamente con el dibujo (puesto) – sólo hay efecto de facilitación cuando la palabra se presenta después del dibujo porque los fonemas que comparten ambas palabras ayuda a la generación de candidatos léxicos.
b. La palabra no está relacionada con el dibujo Asincronía negativa: cuando se presenta la palabra antes de que aparezca el dibujo.
Asincronía positiva: cuando se presenta la palabra después de que aparezca el dibujo.
Presentación simultánea: se presentan el dibujo y la palabra a la vez.
El error por la interferencia están en el conceptualizador.
Estos resultados muestran que puede haber una disociación entre los procesos de acceso a los lemas y los procesos de acceso a las formas: primero activamos la información de los lemas y después activamos la información de las formas. Esto se observa en los pacientes con anomia, que consiste en un problema para unir la pronunciación con la forma de la palabra.
9 ...

Tags:
Comprar Previsualizar