

















































Studia grazie alle numerose risorse presenti su Docsity
Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium
Prepara i tuoi esami
Studia grazie alle numerose risorse presenti su Docsity
Prepara i tuoi esami con i documenti condivisi da studenti come te su Docsity
I migliori documenti in vendita da studenti che hanno completato gli studi
Preparati con lezioni e prove svolte basate sui programmi universitari!
Rispondi a reali domande d’esame e scopri la tua preparazione
Riassumi i tuoi documenti, fagli domande, convertili in quiz e mappe concettuali
Studia con prove svolte, tesine e consigli utili
Togliti ogni dubbio leggendo le risposte alle domande fatte da altri studenti come te
Esplora i documenti più scaricati per gli argomenti di studio più popolari
Ottieni i punti per scaricare
Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium
Community
Chiedi aiuto alla community e sciogli i tuoi dubbi legati allo studio
Scopri le migliori università del tuo paese secondo gli utenti Docsity
Guide Gratuite
Scarica gratuitamente le nostre guide sulle tecniche di studio, metodi per gestire l'ansia, dritte per la tesi realizzati da tutor Docsity
Contiene le frasi precise così come le trovi scritte sul compito.
Tipologia: Dispense
1 / 57
Questa pagina non è visibile nell’anteprima
Non perderti parti importanti!
I processi mentali sono stati oggetto di studio fin dai primi filosofi della civiltà greca, come Parmenide, Pitagora e i primi Empiristi. Platone e Aristotele iniziarono a studiare l’Anima Razionale, sede della logica, del pensiero e del giudizio. Ben presto si delinearono due approcci distinti ai processi di percezione:
Con l’approccio fenomenologico (basato sull’esperienza), ispirato dall’opera di Brentano, nacque la Gestalt, che si basava sull’idea di Meinong sull’esistenza di oggetti mentali inferiori, strettamente dipendenti dall’input sensoriale, e di oggetti superiori, costrutti mentali dipendenti dal lavoro mentale, che si costruivano su quelli inferiori e ne rappresentavano l’insieme. Grazie alle scoperte di autori come von Ehrenfels, Koffka, Wertheimer e Kohler, i processi cognitivi guadagnarono momentaneamente il centro della scena psicologica. Questo studio dei processi cognitivi attraversò, però, un periodo oscuro, derivato dall’egemonia del comportamentismo di Watson e Skinner, che contemplava come unico oggetto di studio il comportamento osservabile, secondo un rigido schema Stimolo-Risposta (S-R), a scapito dell’investigazione di tutto ciò che poteva accadere a livello mentale tra stimolo e risposta. All’interno del paradigma comportamentista ci furono delle spinte “eretiche”, ad opera di Hull, Tolman e Hebb:
Piaget → EPISTEMOLOGIA GENETICA: sviluppò una teoria basata sui meccanismi dell’adattamento tra organismo e ambiente, cercando di conciliare empirismo e innatismo → approccio costruttivista: l’individuo costruisce e sviluppa attivamente la propria conoscenza, grazie alla sua interazione con l’ambiente, quindi tramite l’esperienza, che però viene interpretata e appresa attraverso strutture cognitive innate (schemi) APPROCCI DELLA PSICOLOGIA COGNITIVA Fin dalle sue origini, si è contraddistinta principalmente per il suo approccio sperimentale, tuttavia, per estendere i limiti teorici e metodologici della ricerca in laboratorio, negli ultimi 25 anni sono stati sviluppati altri approcci: neuropsicologia cognitiva, neuroscienze cognitive e scienza cognitiva computazionale.
Infine, ci sono studi in cui si desidera soltanto vedere se l’andamento, l’intensità o la presenza di più fenomeni distinti è casuale o si contraddistingue per delle regolarità. Qui si parla di Studi Correlazionali, il cui obiettivo è misurare la correlazione, cioè la relazione tra variabili, senza determinare relazioni di causa-effetto tra di queste. Bisogna operazionalizzare le variabili, cioè devono essere rese misurabili. Le variabili vengono classificate in base alle scale di misurazione, che determinano i tipi di analisi statistiche che è possibile poi fare sui dati raccolti: scala nominale (qualitativa, possiamo paragonare i valori solo per dire se sono uguali o diversi) - scala ordinale (è possibile paragonare i valori e ordinarli in sequenza) - scala ad intervalli (possiamo paragonare la distanza tra i valori; lo zero è arbitrario, non indica l’assenza di caratteristica) - scale a rapporti (possiamo fare affermazioni con rapporti moltiplicativi tra i valori; lo zero è assoluto, indica l’assenza di caratteristica). Per pianificare un esperimento si sviluppa il disegno sperimentale, un programma di quante e quali prove saranno presenti nella ricerca e come verranno divisi i soggetti in ciascuna condizione. Per assicurarsi che sia proprio la causa ipotizzata a produrre un determinato effetto, bisogna creare una condizione sperimentale (in cui applico il fattore che credo sia cruciale), e una condizione di controllo (una controprova in cui tutto è identico all’altra prova, eccetto che la presenza del fattore cruciale). Se ogni condizione viene affrontata da un gruppo diverso di soggetti → gruppi between Se le condizioni vengono affrontate da tutti i soggetti di un gruppo in momenti diversi → gruppi within Indipendentemente dalla tecnica statistica utilizzata per stabilire la rilevanza dei dati ottenuti da un esperimento, si ottiene un valore di probabilità (p), che rappresenta la percentuale di volte che si otterrebbero gli stessi risultati ripetendo ancora l’esperimento su altri soggetti, e va da 0 a 1. p < 0,05 → significatività p < 0,01 → alta significatività Più esperimenti possono confermare e definire delle leggi. Secondo Popper, una scienza deve produrre leggi falsificabili, cioè deve essere possibile fornire delle osservazioni o dei risultati che e neghino. Diverse leggi possono organizzarsi in modelli (rappresentazioni concettuali o matematiche dei fenomeni), per prevedere fenomeni o ipotizzarne cause e meccanismi.
Studiano dove e quando determinati processi cognitivi accadono nel cervello, utilizzando tecniche d’indagine che registrano tracce dell’attività neurale. Vantaggi e svantaggi di queste tecniche sono riconducibili alla loro risoluzione temporale (accuratezza con cui riesce a determinare il “quando” avviene l’attività) e alla loro risoluzione spaziale (precisione con cui individua la localizzazione di una certa attività). Limiti: non è detto che i processi cognitivi siano interamente spiegabili da ciò che accade nel cervello.
SENSAZIONE → processo con cui entriamo in contatto con la realtà esterna, grazie agli organi di senso, che si basano su specifici neuroni (recettori), che riescono a reagire a particolari stimolazioni entro determinate soglie, operando la TRASDUZIONE (mutamento delle stimolazioni ambientali in impulsi elettrici) PERCEZIONE → questi impulsi elettrici vengono elaborati internamente dagli organi di senso che ne creano rappresentazioni La psicologia della Gestalt si dedicò principalmente allo studio dei fenomeni percettivi, tramite un approccio fenomenologico basato sull’introspezione, definendo una serie di principi innati che regolano segmentazione e raggruppamento di stimoli nella percezione: legge della prossimità-legge della buona continuazione-legge della simmetria Questi principi sono tutti:
I nostri sensi si sono sviluppati per permetterci di rilevare le differenze, in quanto ci permettono di prestare maggiore attenzione a stimolazioni nuove piuttosto che a quelle costanti e già note ADATTAMENTO SENSORIALE: adattamento dei sensi a stimoli ripetuti o costanti Ci sono dei casi in cui l’organismo esclude l’adattamento sensoriale, ad esempio nel caso di forti dolori Il mondo ci appare molto stabile e coerente, fatto di oggetti che non cambiano mai radicalmente, grazie alla COSTANZA PERCETTIVA → capacità di mantenere l’identità di stimoli uguali in contesti percettivi e condizioni diverse. IL SISTEMA VISISVO La vista è il senso più sviluppato, quello a cui ci affidiamo più spesso e il più recente nell’evoluzione della specie. Ha alcune caratteristiche distintive: le stimolazioni visive vengono recepite in parallelo. La LUCE proveniente dall’esterno attraversa l’occhio e colpisce la RETINA, composta da recettori fotosensibili (coni e bastoncelli), la cui stimolazione eccita le CELLULE GANGLIARI, che inviano segnali al NERVO OTTICO, che si incrocia nel CHIASMA OTTICO, Da cui le informazioni prendono due strade diverse:
inibisce la percezione dettagliata del mondo esterno, in modo da mantenere stabile l’ambiente visivo) Le scoperte di Hubel e Wiesel dimostrano come il sistema visivo è organizzato in strati sensibili a caratteristiche o unioni di caratteristiche TEORIE DELL’ORGANIZZAZIONE CEREBRALE DEL SISTEMA VISIVO: Zeki → MODELLO DIVIDE ET IMPERA / TEORIA DELLA SPECIALIZZAZIONE FUNZIONALE Il flusso unitario di informazioni visive è diviso ed analizzato da varie parti della corteccia visiva (V1 e V2 elaborano il colore e la forma; V3 e V3A forma; V4 colore e orientamento linee; V5 movimento). In realtà, però, le aree visive non sono così specializzate, e inoltre questa teoria non risolverebbe il binding problem, ovvero non spiega come le informazioni divise per l’analisi possano poi essere re-integrate in un percetto unico. Lennie → TEORIA GERARCHICA Tutte le informazioni visive restano unite attraverso la corteccia, eccetto il movimento, che viene elaborato in maniera indipendente da V5. Queste teorie, pur ipotizzando un’organizzazione molto differente, sono sostanzialmente in accordo che il movimento venga elaborato indipendentemente Dalle cortecce visive primarie, il flusso delle informazioni visive si sdoppia, seguendo due vie distinte: una verso le aree infero-temporali, l’altra verso le aree posteriori del lobo parietale. Mishkin & Ungerleider → la prima via, chiamata VIA VENTRALE, ha come scopo il riconoscimento degli oggetti (via del “What”), mentre la seconda, la via dorsale, ha funzioni di localizzazione (via del “Where”) La teoria ha ricevuto supporto dalla scoperta di doppie dissociazioni in pazienti con lesioni al cervello (atassia ottica e agnosia visiva).
Le scoperte di Hubel e Wiesel supportano modelli come il Pandemonium, cioè che basano il riconoscimento sulla comparazione di caratteristiche, dimostrando che il sistema visivo è organizzato in strati sensibili a diverse caratteristiche e unioni di caratteristiche, sempre più articolate e complesse.
CAP. 3bis ATTENZIONE → processo che serve a selezionare le informazioni nell’ambiente al fine di concentrare le nostre limitate risorse su ciò che reputiamo importante Possono verificarsi dei fenomeni in cui l’attenzione sembra non funzionare come ci aspetteremmo, fare una sorta di “cortocircuito” che non ci permette di cogliere alcuni stimoli nell’ambiente:
avverrebbe nello stadio 2, uno stadio di elaborazione seriale di informazioni in diverse modalità. Gli studi di Shapiro, Driver, Ward & Sorensen rilevarono che, anche quando T2 non veniva riconosciuto a causa dell’AB, il suo ruolo di prime semantico continuava ad avere effetto sul riconoscimento di T3 → anche se T2 non viene riportato dai soggetti, sembra comunque possibile che si faccia strada nel sistema cognitivo al di sotto della soglia della coscienza. RELAZIONI TRA PERCEZIONE & AZIONE GIBSON → TEORIA ECOLOGICA La funzione principale della percezione è facilitare l’interazione tra individuo e ambiente, organizzando e guidando l’azione, sulla base delle informazioni presenti nell’ambiente (affordance), che estrae senza complicate elaborazioni cognitive intermedie (percezione diretta): Secondo Gibson, percepiamo visivamente un FLUSSO OTTICO, ovvero dei pattern dinamici di luce strutturati, che contengono informazioni evidenti, dette INVARIANTI, che vengono colti direttamente e automaticamente dalla percezione, che riesce così a ricavare tutti i potenziali usi di un oggetto (AFFORDANCE). In base alo stato interno del soggetto che sta percependo, un’affordance influenzerà più delle altre il suo comportamento nell’interazione con l’oggetto. Uno dei numerosi campi in cui le proposte di Gibson hanno trovato spazio è lo studio del TIME TO CONTACT (TCC), ovvero il calcolo del momento in cui avverrà il contatto con un determinato oggetto, mentre ci stiamo muovendo verso quest’ultimo. Secondo Lee, man mano che la distanza con l’oggetto diminuisce, l’immagine retinica dell’oggetto diventa più grande, e nel valutare il TCC ci basiamo proprio sulla velocità di espansione di questa immagine: questa variabile è chiamata TAU, ed è calcolabile come il rapporto tra la grandezza dell’immagine retinica e la sua velocità di espansione. Per quanto si creda che tau sia un indizio importante, sembra non essere l’unico fattore implicato nel calcolo del TCC.
GLOVER → ha proposto un modello per spiegare come l’informazione visiva viene utilizzata nella produzione di azioni: l’azione è programmata attraverso un sistema di pianificazione, e poi monitorata attraverso un sistema di controllo. Il sistema di pianificazione opera prima dell’inizio del movimento e nelle fasi iniziali dell’azione, regolando l’andamento temporale del movimento. Poi, il sistema di controllo agisce dopo quello di pianificazione e si attiva principalmente durante lo svolgimento delle azioni, allo scopo di curarne la buona riuscita e l’accuratezza dei movimenti. IL MOVIMENTO BIOLOGICO Johansson creò dei filmati in cui mise delle luci all’altezza delle articolazioni di attori completamente vestiti di nero, che si muovevano davanti ad uno sfondo nero. Quando mostrò questi filmati a dei soggetti sperimentali, rilevò che la maggior parte di essi era in grado di descrivere accuratamente che cosa stavano facendo gli attori, tranne nel caso in cui i filmati cominciavano con le luci ferme: capì quindi che era il movimento a rendere facilmente intellegibili degli stimoli impoveriti → MOVIMENTO BIOLOGICO Secondo Johansson, von Hofsten & Jannson, l’abilità di percepire il movimento biologico si basa su processi cognitivi di basso livello (molto precoci), probabilmente addirittura innati, infatti per coglierlo erano necessari appena 200ms di osservazione. NEURONI SPECCHIO: classe di neuroni visuo-motori situati nel lobo frontale della corteccia premotoria, che sia attivano sia quando si compie un’azione, sia quando si osserva un altro individuo che compie la stessa. Questi neuroni scaricano anche all’osservazione di azioni pantomimiche e intransitive. Dopo varie ricerche, Rizzolatti & Arbib hanno ipotizzato che il sistema dei neuroni specchio abbia avuto un’importanza centrale nell’evoluzione del linguaggio
dell’attenzione o di capacità e pianificazione, come se non si disponesse di un sistema che gestisce e organizza le risorse. TACCUINO VISUO-SPAZIALE: trattiene e manipola le informazioni visuo-spaziali. Logie ha ipotizzato che possa essere suddiviso in un deposito visivo (CACHE), che immagazzina le informazioni relative all’identità degli oggetti e delle loro caratteristiche, e un meccanismo di tracciamento (SCRIBE), che gestisce le informazioni riguardanti la posizione degli oggetti e i movimenti dello spazio. BUFFER EPISODICO: trattiene le informazioni multidimensionali in una rappresentazione episodica unitaria CIRCUITO FONOLOGICO: trattiene e manipola le informazioni acustiche e il materiale verbale. È costituito da un magazzino fonologico (memoria immediata e temporaneo di info acustiche e verbali) e da un processo di controllo articolatorio (meccanismo di reiterazione subvocalica che mantiene un’informazione, mentre se ne sta acquisendo una nuova). MLT → memoria pressoché illimitata nel tempo e nello spazio, responsabile dei ricordi autobiografici, di ciò che si sa, si conosce e si è in grado di fare. Dispone di processi di controllo che regolano il flusso di informazioni verso, entro e da essa:
l’importanza che attribuiamo ad un evento, maggiore sarà la capacità di memorizzarlo: quanto più l’elaborazione è profonda, tanto più il ricordo sarà ricco. Il problema principale del modello è la mancanza di una definizione chiara di “livello di elaborazione”, inoltre la debolezza di questa versione deriva dai risultati che si osservano in un semplice compito di orientamento allo scopo di dirigere l’attenzione su caratteristiche semantiche o non del materiale. Questi esperimenti hanno mostrato che la prestazione di memoria dipende dall’interazione tra il tipo di elaborazione effettuata al momento della codifica e il tipo di elaborazione richiesta al momento del recupero → ELABORAZIONE APRROPRIATA (Morris, Bransford e Franks). Le numerose critiche mosse alla prima versione del modello di Craik e Lockhart hanno stimolato una quantità di ricerche e nuove ipotesi interpretative, basate sul concetto di complessità e sul concetto di distintività. L’ipotesi della complessità di elaborazione sostiene che una maggiore quantità di elaborazione fornisce un maggior numero di indizi per il recupero, mentre l’ipotesi della distintività sostiene che il ricordo dipende almeno in parte dal modo in cui l’informazione codificata caratterizza l’evento da rievocare.