Riassunti Moderato Rovetto - Psicologo Verso La Professione

June 28, 2018 | Author: anno666 | Category: Behaviorism, Psychology & Cognitive Science, Cognitive Psychology, Science, Cognition
Report this link


Description

Psicologo: verso la professione(Paolo Moderato, Francesco Rovetto) Capitolo 1: PSICOLOGO: UNA PROFESSIONE SCIENTIFICA (Felice Perussia) Nasce in Europa nella seconda metà dell’800. Nel ‘900 il suo punto di riferimento diviene la psicologia statunitense. Nasce in Università come ricerca pura: la pratica clinica, intesa come psicoterapia, compare solo con la prima guerra mondiale (1913 Watson e il manifesto del comportamentismo). Negli stati Uniti: - prima guerra mondiale: sviluppo della psicometria - seconda guerra mondiale: sviluppo della psicoterapia In Italia: - 1905 nascita pubblica della psicologia - Anni 20: decadenza - Anni 50: rinascita grazie alla Liberazione e allo sviluppo di psicofarmaci. - 1978: abolizione della legge Basaglia Def. Psicologia: 1. 2. 3. 4. un sistema teorico/operativo per rapportarsi al mondo, una chiave di lettura della realtà una forma di conoscenza e quindi una scienza una forma di costruzione della propria identità (almeno per gli psicologi), un modo di vivere una professione (regolamentata da leggi, presuppone una formazione) Capitolo 2: QUALE PSICOLOGIA? QUESTIONI STORICHE ED EPISTEMOLOGICHE DELLA PSICOLOGIA (Maria Armezzani) Def. Epistemologia: la riflessione sui caratteri di scientificità che informano una disciplina Def. Dizionario: quella branca della teoria generale della conoscenza che si occupa di problemi quali la natura , i fondamenti, i limiti e le condizioni di validità, tanto delle scienze cosiddette esatte, quanto delle scienze empiriche (vedi psicologia); lo studio dei criteri generali che permettono di distinguere le affermazioni di tipo scientifico, dalle opinioni religiose, etiche, etc… Parte essenziale della filosofia della scienza. Ogni stile di ricerca e professionale dipende dalle categorie conoscitive che si sono ammesse (più o meno esplicitamente) all’inizio: si considerano “assunte” scelte che all’inizio erano problematiche. Se l’assunzione di modelli diversi non è peculiarità della psicologia, qui la frantumazione disciplinare è tale che si impone una prospettiva storico-epistemologica per comprendere questo quadro, è una delle condizioni di “competenza professionale”. La conoscenza storico-epistemologica: - rivela le implicazioni dei paradigmi e ne determina le possibilità e i limiti; - allontana il rischio di ideologizzare la propria prospettiva; - esplicita l’esistenza e la natura del “punto di vista”; - rende possibile e favorisce il confronto tra modelli. LA SCUOLA DI LIPSIA La psicologia ha “due anime”: - sperimentale (processi di BASE) - filosofica (processi SUPERIORI) 1 Fondatore ufficiale: Wundt, ha fondato a Lipsia nel 1879 il primo laboratorio di psicologia sperimentale. E’ il primo che decise di applicare la metodologia delle scienze naturali all’indagine sulla “psiche” (da criteri filosofici si passa a criteri sperimentali-quantitativi). Oggetto di indagine: “l’esperienza umana immediata”, ciò che è reperibile immediatamente nella coscienza soggettiva. Variabili controllate: processi sensoriali semplici (escluse tutto quello che oggi chiamiamo psicologia) Strumento: l’introspezione, resa sistematica da precise regole che tendono ad equipararla all’osservazione scientifica Scopo: indagare sulla struttura della mente per scoprirne regole e componenti Accanto a questa psicologia sperimentale, lo stesso W. sostiene la necessità di una psicologia filosofica, vicina alle scienze “umane”. → la psicologia è iniziata come scienza della “coscienza”: è proprio l’idea di analizzare la soggettività con criteri empirici, che fonda la psicologia moderna. Le correnti si dividono: In Europa continua la tradizione filosofica, mentre in USA quella sperimentale Correnti in Nord-America: STRUTTURALISMO E FUNZIONALISMO (fine ‘800, primi del ‘900) Strutturalismo Fondatore : Cattell, allievo di Wundt, ma dà una interpretazione diversa agli studi di Lipsia: i dati ottenuti non sono misura delle sensazioni, ma misura dell’entità fisica oggettiva degli stimoli, da misure dell’esperienza soggettiva si passa a misure dell’oggetto che provoca l’esperienza. Collabora con Galton e introduce la statistica e i test mentali; l’interesse si sposta dal soggetto, alle prestazioni soggettive (e poi alle differenze individuali). Fondatore: Titchener, allievo di Wundt, esclude tutta la parte filosofica dalla sua traduzione dell’opera di Wundt e sposta tutto l’interesse sulla parte sperimentale, “risolvendo” così la contraddizione interna. Vuole indagare la struttura della mente. Alla sua morte il movimento si dissolve. Funzionalismo Fondatore: James, più le correnti evoluzionistiche: Angell e Carr. Oggetto di indagine: non i contenuti psichici, ma i processi e le funzioni che favoriscono l’adattamento dell’organismo all’ambiente. Metodi: eclettismo, basato sull’utilità pratica e sulla capacità di indagare le interazioni dell’uomo con l’ambiente naturale (NO laboratorio!) Declino dell’introspezione! 2 Rif. culturali: teorie di Darwin, Neopositivismo. COMPORTAMENTISMO (“manifesto” del 1913) Fondatore: Watson, per garantire la scientificità della psicologia, W. elimina come oggetti di studio gli “eventi mentali”. Oggetto: comportamento osservabile, a prescindere dai rapporti che ha con la coscienza Metodo: sperimentale di laboratorio, che consente di manipolare le variabili indipendenti (ambientali), osservandone gli effetti sulle var. dipendenti (comportamentali) Modello matematico: statistica inferenziale Confermato dagli studi di Pavlov, W. utilizza il modello S-R (stimolo-risposta) che risponde ai criteri di previsione e controllo delle variabili. Oggetto: diventa l’apprendimento, con gli esperimenti sul condizionamento (classico e operante), per stabilire le leggi del comportamento. La psicologia immette così sul mercato i primi strumenti di misurazione psicometrica che offrono garanzie di controllabilità e prevedibilità. Dalla fine degli anni trenta, si introduce il criterio della significatività statistica come ulteriore rassicurazione: si può generalizzare i risultati come nelle altre scienze naturali. (criterio molto criticato: la significatività è un criterio di ordine matematico, che non può rispondere tout cour a domande di natura psicologica! Anche Hathaway critica il suo stesso test, l’MMPI) Le correnti contemporanee conservano la concezione epistemologica, ma valorizzano una visione solistica e attiva del comportamento umano con l’introduzione della nozione di “contesto”: il comportamento è sempre un atto in un contesto che attribuisce i significati e le funzioni agli stimoli specifici dell’ambiente. → rientra il “significato”!!! COGNITIVISMO (fine degli anni ’50) Def. Cognitivo: “indica tutti quei processi che comportano trasformazioni, elaborazioni, riduzioni , immagazzinamenti, recuperi e altri impieghi dell’input sensoriale. Termini […] che si riferiscono a ipotetici stadi o aspetti dell’attività cognitiva” (Neisser, 1976) Fondatori: Neisser (1967) e Miller, Galanter e Pribram, “comportamentismi soggettivi”(1960) Oggetto: attività e processi cognitivi non osservabili. Si ripropongono i problemi epistemologici. → La teoria non pretende di rispecchiare il reale stato dei fatti, ma di rappresentarlo. E viene utilizzata la metafora del computer: la conoscenza umana è una manipolazione di simboli realisticamente rappresentabile con l’analogia con il software. I paradigmi sono storicamente due: - HIP: sistema cognitivo definito come una serie di regole per la trasformazione di simboli (= un processore di segnali) paradigma computazionale simbolico teorizzato da Fodor e Pylyshyn. Le regole sequenziali e il carattere localizzato dell’elaborazione non rendono conto di fenomeni quali la riorganizzazione cognitiva, meglio spiegati dal secondo paradigma. 3 - PDP: connessionista, il sistema cognitivo è visto come una rete di interconnessioni auto-organizzato, la metafora è con il SNC reale, con i neuroni. Metodi: costruzione di modelli e verifica tramite PC Modello matematico: teoria della probabilità Critiche: - rapporto debole tra modello e esperimento - artificialità dei modelli (situazioni lontane dalla vita quotidiana) - dalla costruzione dei significati, si è passati a studiare l’elaborazione dell’informazione: di nuovo impersonalità e oggettività - sono stati esclusi dalle ricerche i processi che poco si adattano alla rappresentazione computazionale: emozioni, creatività, interazioni tra soggetti, ecc. - come nel comportamentismo, il cognitivismo è limitato dalla riduzione dell’oggetto di studio al metodo disponibile. TEORIE COSTRUTTIVISTICHE (anni ’80) Autori: Watzlawick Teoria: non esiste un mondo reale pre-esistente e indipendente dall’osservatore, ma esistono varie versioni di mondo a seconda del punto di vista. Ogni pensiero/giudizio/percezione è un’operazione costruttiva e autoreferenziale dell’osservatore. Oggetto: l’uomo come essere attivo, costruttore di significati e l’ambiente come universo di simboli e di esperienze possibili. Metodo: rivalutazione dell’osservazione nelle situazioni di vita quotidiana, dei metodi qualitativi e di strategie che prevedono un’interazione tra ricercatore e soggetto. Critiche: il cognitivismo aveva enfatizzato il metodo, adattandovi l’oggetto di studio. In modo inverso, il costruttivismo recupera il “significato” come oggetto di studio, non avendo però un metodo per studiarlo. Correnti Europee: → La psicologia Resta legata alle discipline filosofiche ed ha un carattere più accademico della psicologia nordamericana, e minore influenza sociale. GESTALT (nascita ufficiale: 1912 Germania) Fondatore: Wertheimer, nel 1912 pubblica un importante lavoro sul movimento stroboscopio che dà inizio alla scuola della Gestalt. → Gestalt = forma, come totalità significativa, le cui proprietà sono conoscibili attraverso un atteggiamento e un metodo fenomenologico.. Oggetto: “l’esperienza umana immediata” (N.B. come Wundt!!!), ma la intendono in modo diverso: l’esperienza è un “campo psicologico organizzato” dove il soggetto si lega in modo intenzionale all’ambiente. Per la Gestalt: - l’esperienza diretta è il materiale grezzo sia della fisica, come della psicologia; 4 - non esiste osservazione neutra, l’osservazione è sempre prospettica; sia la realtà fisica che quella psicologica sono “esperienze soggettive”, “fenomeni”. Metodi: esperimenti percettivi Applicazioni: psicologia della percezione, pensiero, memoria, personalità e sociale. → Kohler (1917) def. Insight:“ristrutturazione improvvisa del campo percettivo“ (≠ apprendimento per prove ed errori di Thorndike) PSICOANALISI (1900) Fondatore: Freud, nel 1900 pubblica “L’interpretazione dei sogni”: propone un’interpretazione psicologica dei disturbi psichiatrici (N.B. novità assoluta!!) Def. Psicoanalisi: 1) un procedimento per l’indagine dei processi psichici 2) un metodo terapeutico basato su tale indagine 3) una serie di conoscenze sul funzionamento psichico acquisite per questa via Oggetto: i processi psichici inconsci Metodo: metodo clinico, basato sull’interpretazione. → Dopo Freud la psicoanalisi si è diversificata anche a causa dell’esportazione dal contesto austrotedesco, restando accomunata unicamente dal riferimento alla dimensione inconscia. PSICHIATRIA FENOMENOLOGICA (inizi del ‘900) Fondatore: Biswanger Oggetto di indagine: l’ ”Erlebnis”(l’esperienza vissuta), il vissuto soggettivo Scopo: pervenire alle forme strutturali della conoscenza, attraverso un’analisi sistematica dei tratti comuni delle esperienze umane. Teoria di rif.: fenomenologia husserliana (cosa≠fenomeno) Metodo: limitazione dell’analisi a ciò che è reperibile nella coscienza (≠psicoanalisi), analizzare l’esperienza umana per comprenderne le strutture fondamentali che lo mettono in rapporto con lo spazio, il tempo, mettendo da parte ogni distinzione pregiudiziale tra normale e patologico e ogni interpretazione causalistica-meccanicistica (≠comportamentismo). EPISTEMOLOGIA GENETICA (anni ’50) Fondatore: Piaget, detta anche “scuola di Ginevra” o “costruttivismo piagetiano”. Oggetto: “conoscenza” , così come si sviluppa, nell’interazione organismo-ambiente; la relazione tra il soggetto che agisce e pensa e il mondo che lo circonda, oggetto delle sue esperienze. Metodo: sperimentale e clinico. (osservazioni sui bambini) 5 Teoria: l’attività senso-motoria determina la costruzione del reale secondo processi alternati di assimilazione e accomodamento combinati tra individuo e ambiente e, attraverso una riorganizzazione delle strutture mentali, determina lo sviluppo ontogenetico del soggetto. Osservazioni sulle diverse scuole: - coerenza e rigore sono comunque attributi della scientificità, in qualunque modo la si concepisca; - nella dialettica tra metodo e oggetto, spesso è stato sacrificato l’uno per l’altro senza trovare un giusto equilibrio; - è inevitabile operare una scelta di “punto di vista”, esserne consapevoli e esplicitarla nel lavoro di professionisti. Capitolo 3: CRITERI DI COERENZA TRA TEORIA E PRATICA IN PSICOLOGIA CLINICA (Franco Di Maria e Calogero Lo Piccolo) Def. Psicologia clinica è confusa: 1. definita dal suo oggetto: cioè la cura → identificazione della psicologia clinica con la psicoterapia 2. definita da un modello di cura → definizione dello psicologo clinico come appartenente a una determinata scuola E’ in netta ascesa la richiesta di interventi psicologici ma non psicoterapici: richiesta di soluzione di un disagio psicologico (≠ psicopatologico), formazione professionale, gestione delle risorse umane. La difficoltà di def., sta nella mancanza di coerenza tra teoria e pratica: le teorie più diffuse NON hanno al centro la relazione (ma l’intrapsichico), la pratica ha sempre al centro la relazione. Propongono il modello della psicologia Clinica come dell’ action-research: - perché tiene ben presente il significato di irruzione nel sistema, da parte del ricercatore - si allontana dai criteri di oggettività intesa come neutralità: trasformiamo la realtà nell’atto stesso di osservarla e conoscerla. - non scotomizza la relazione, ma la utilizza per i propri scopi: la relazione come metodo di conoscenzaintervento Ri-def: psicologia clinica = action-research che mira a valutare, comprendere ed trasformare i sistemi relazionali umani, tenendo presente che agire-conoscere-trasformare sono fasi inseparabili. E’ importante che ogni professionista faccia della sua tecnica un oggetto di studio, apra una riflessione teorica sul proprio operare.(teoria della tecnica) L’intervento si configura come la costruzione di uno spazio relazionale “altro” che renda pensabili e osservabili i comportamenti degli attori, anche al di fuori del setting clinico tradizionale. La relazione è il metodo di conoscenza-intervento. Analisi della domanda: come analisi di tutti gli aspetti anche fantasmatici della relazione, per la costruzione di un area di senso “comune” che possa fare da base alla relazione. Distinzione tra set e setting: set : tutti gli aspetti organizzativi che rendono possibile l’incontro (orario, frequenza, ecc.) setting: accadimenti emotivi e relazionali dell’incontro, spazio relazionale e psichico che si ritaglia all’interno di un set adeguato. Ciò che lo psicologo clinico fa è usare la propria competenza per cambiare il set in funzione di un setting più adeguato a riconoscere e pensare le emozioni. 6 Capitolo 4: CONSIDERAZIONI SUL CONCETTO DI NORMALITA’ NELLO SVILUPPO COGNITIVO (Silvia Perini) Quesito della ricerca moderna: Normalità e ritardo cognitivo fanno parte di un continuum o di continua differenti? Inizio secolo: bambino come diverso dall’adulto, inizia ad interessare la ricerca. Anni 20: Watson in USA e Piaget in Europa spiegano la genesi e l’evoluzione cognitiva. Anni 60: teorie dell’elaborazione dell’informazione Oggi: due correnti di pensiero sullo sviluppo cognitivo Sviluppo cognitivo come struttura/competenza: trasformazione quantitativa che si realizza nel corso di stadi (lo sviluppo = sovrapposizione di strati di diverso livello) Strutture come ogg. di studio dei cognitivisti studiano conoscenza e mente, cioè costrutti metaforici non osservabili. Manipolano variabili e attribuiscono le modificazioni del comportamento correlate alle attività cognitive che si presumono influenzate dalle manipolazioni. ritardo mentale: prodotto da strutture della mente deficitarie. Sviluppo cognitivo come funzione/performance: crescita, vista come incremento quantitativo e continuo. Funzioni come ogg. di studio dei comportamentisti studiano le relazioni osservabili fra eventi ambientali e attività, in termini di stimoli, risposte ed eventi contestuali osservabili. ritardo mentale: rallentamento nel processo di cambiamento; il ritardo è evolutivo. Def. Teoria: è esplicativa e rappresenta un tentativo di organizzare una serie di leggi derivate da dati empirici allo scopo di spiegare e prevedere eventi. Def. Modello: non è esplicativo, è un’applicazione metaforica della teoria, una rappresentazione della realtà, non una descrizione. Non richiede dati empirici su cui basarsi. Oggetto: sia per la teoria che per il modello, studiare lo sviluppo, significa studiare il cambiamento lungo la dimensione temporale. Teoria Cognitiva (da Piaget al connessionismo): La maggioranza degli studiosi ritiene che l’architettura cognitiva, sia una struttura immutabile dell’attività cognitiva, nel senso che il suo funzionamento non cambia nel corso dello sviluppo. L’attività dei sistemi cognitivi si può solo inferire da ciò che produce sul piano del comportamento. Un costrutto ipotetico funge da mediatore fra il comportamento e ciò che lo determina. Per Piaget si tratta delle strutture che sottostanno al pensiero, mediando le interazioni con l’ambiente esterno. I processi di assimilazione e accomodamento fanno evolvere e sviluppare sia le strutture cognitive sia le modalità con cui esse fungono da mediatori: prima i riflessi, poi schemi non simbolici, quindi rappresentazioni mentali. - Anni 60: la teorizzazione piagetiana viene influenzata dalle scienze dell’informazione, e vede la mente come un sistema che manipola simboli. il sistema cognitivo elabora i simboli in modo seriale e li finalizza in accordo a regole che si modificano nel tempo. Limiti dell’approccio seriale dell’elaborazione dell’informazione: - qual è la natura del sistema di elaborazione, la sua organizzazione e i processi che lo guidano? 7 - Come può il sistema essere adattato a compiti particolari? - I modelli connessionisti sembrano dare una soluzione: l’immagazzinamento e l’elaborazione dell’informazione sono visti come processi che avvengono in parallelo anziché in sequenza seriale, grazie a unità che hanno un reciproco effetto facilitante o inibente. Fine anni 70: metacognizione, come conoscenza introspettiva sul proprio funzionamento mentale e sui processi che lo regolano. La teoria comportamentale: da Watson all’analisi del comportamento L psicologia del comportamento considera lo sviluppo infantile un sottoinsieme della teoria generale: l’oggetto di studio è il comportamento osservabile e il metodo è quello delle scienze naturali. Sviluppo: - interazioni continue tra bambino che si evolve biologicamente e cambiamenti dell’ambiente - queste interazioni cambiano sia l’individuo, sia l’ambiente le interazioni si modificano nel tempo in base all’età. Watson: C = f (s), gli stimoli colpiscono gli organi di senso e le risposte sono azioni del corpo. (condizionamento della paura di Albert) Il comportamentismo radicale di Skinner e l’intercomportamentismo di Kantor danno forma sistematica alla psicologia del comportamento, dotandola di un chiaro ogg di studio, metodo e rapporto tra ricerca di base e applicata. Skinner: teoria dell’apprendimento operante rifiuta il dualismo mente-corpo e ritiene che anche i processi mentali possano essere indagati con metodi delle scienze naturali, in situazioni sperimentali. Diventa importante l’interazione tra comportamento e ambiente. Kantor: elabora ulteriormente il concetto di interazione. Privilegia come oggetto di studio la coordinazione dell’intero organismo all’interno di un campo. Per spiegare il comportamento umano, non solo funzioni stimolo e funzioni risposta, ma anche eventi situazionali (ciò che caratterizza il setting). Anni 60: integrazione dei due modelli ha prodotto paradigmi operanti nella ricerca in età evolutiva e applicazioni in campo educativo in soggetti con ritardo mentale. Capitolo 5: METODOLOGIA DELLA RICERCA IN PSICOLOGIA: PIANIFICAZIONE, CONTROLLO E MISURA (Paolo Moderato e Renato Gentile) Ogni disciplina scientifica è caratterizzata, oltre che da affermazioni teoriche specifiche, da una serie di riconoscimenti (assunti) più o meno espliciti che riguardano: - la filosofia della scienza (assunti metateorici) - i fenomeni da osservare (assunti teorici) - i metodi di ricerca (assunti metodologici) Kuhn ha utilizzato per identificare questi elementi, il termine paradigma. Questo termine viene utilizzato in un senso più ristretto per definire: - i dispositivi fondamentali usati dal ricercatore per produrre il fenomeno che lo interessa (rif. paradigma di ricerca). La scelta del paradigma dipende strettamente da ciò che vogliamo studiare. Quindi ogni buona ricerca deve partire da una buona definizione del proprio oggetto di studio. Considerare un fenomeno, significa formulare delle ipotesi sul processo: su quali sono le variabili e che funzione reciproca svolgono. Va elaborato, a partire dal paradigma, un piano sperimentale (progettazione del disegno sperimentale) che permetta lo studio dei singoli elementi (e la verifica delle ipotesi specifiche) con il minimo possibile di errori. Per cui vanno definite le possibili variabili interferenti (possono minacciare la validità della ricerca). 8 Un buon disegno deve rispettare due esigenze di controllo(procedimenti utilizzati per eliminare le minacce alla validità della ricerca): - individuare le fonti di errore (funz. preventiva): controllo metodologico - verificare l’effettiva influenza delle var. indipendenti che agiscono nell’esperimento (funz. diagnostica): controllo statistico CONTROLLO SUL PIANO METODOLOGICO: Il campionamento: ha la funzione di limitare o controllare possibili fonti di interferenza. Il campione deve possedere le stesse caratteristiche della popolazione per poter poi generalizzare i risultati ottenuti a tutti gli altri membri della popolazione. Quando ciò è possibile, la ricerca ha validità ecologica e i suoi risultati sono facilmente estendibili. Il campione rappresentativo risulterà tanto più selezionato quanto più numerose saranno le variabili che definiscono la popolazione. Metodo: pretest (accerta l’omogeneità dei sogg per una o più caratteristiche), parallelizzazione tra gruppo sperimentale e di controllo(casuale o in base ai risultati ottenuti al pretest), blocchi randomizzati (2 gruppi omogenei fra loro ma non internamente). Il piano sperimentale 1: il controllo riguarda : le variazioni della situazione. Standardizzazione e taratura Il compito va standardizzato (non ci devono essere differenze nella consegna) e tarato per i soggetti dell’esperimento (evitare floor effect livello troppo alto, prestazioni scarse o ceiling effect difficoltà bassa, livello massimo di performance). Bisogna ricordarsi che anche le aspettative dello sperimentatore sono una possibile var. interferente (effetto Rosenthal: influenza la condotta dello sperimentatore e la raccolta dati si elimina col doppio cieco). Il piano sperimentale 2: il controllo riguarda: il numero e tipo di variabili. Progettazione del tipo di piano → per numero di var. indipendenti: disegni unifattoriali o multifattoriali → per tipo di var. indipendenti: disegni intersoggetti (between) o intrasoggetti (within) I disegni unifattoriali: - between-subjects hanno tanti gruppi quanti sono i livelli della variabile, in modo da somministrarne uno solo per ciascun gruppo. - within-subjects hanno un unico gruppo che sottopongono a tutti i livelli della var. (disegni a misure ripetute) prestet (baseline), trattamento e post-test. I disegni multifattoriali sono più diffusi perché rispettano di più il contesto naturale dove si danno numerose var. che interagiscono: - quello between-subjects è noto come piano fattoriale a gruppi indipendenti - quello within-subjects richiede l’uso di piani fattoriali a misure ripetute (una variante è il disegno a trattamenti alternati). I disegni fattoriali a piani sperimentali combinati: - disegno con più variabili miste, è il disegno fattoriale misto - disegno con 2 variabili, di cui 1 within-subjects è il piano a quadrato latino - disegno con più variabili, di cui 1 within-subjects, è il disegno fattoriale split-plot - disegno con più variabili, di cui 2 within-subjects, è il disegno fattoriale split-split-plot Var. interferenti intra-soggettti: - sensibilizzazione: l’assuefazione altera la prestazione.(x ovviare: distanziare le prove nel tempo) 9 - pratica: effetto dell’allenamento sulla prestazione (x ovviare: utilizzare disegno between-subjects o controbilanciare l’ordine di presentazione dei compiti) - carry over: influenza degli effetti dalla prova “prima” a quella “dopo”.(Difficile da eliminare. X ovviare: distanziare temporalmente le prove) - effetti relativi all’ordine e alla sequenza (x ovviare: bilanciare i trattamenti così che un sogg li riceva in tutti gli ordini possibili nel quadrato latino si controlla l’effetto dell’ordine,ma non la successione) I disegni between-subjects risultano generalmente più validi (validità interna: la var. indipendente è la causa degli effetti osservati sulla var. dipendente) di quelli within-subjects, che invece hanno una maggiore validità ecologica (validità esterna: i risultati sono generalizzabili alla popolazione e a situazioni diverse) ed hanno una più immediata generalizzabilità dei risultati. CONTROLLO STATISTICO Le analisi statistiche dei risultati di un esperimento si operano a due livelli: - analisi descrittiva : la statistica descrittiva serve a presentare in modo chiaro le informazioni disponibili per favorire la produzione di inferenze. - inferenza statistica : verifica delle inferenze con i test più idonei. Metodi della statistica descrittiva: - Distribuzioni di frequenza: le osservazioni vengono distribuite in classi ordinate in senso crescente o decrescente, nelle quali si calcola la frequenza delle osservazioni presenti; - Misurazioni della tendenza centrale: media (Sx/N), mediana (val centrale in una distribuzione),moda (val. più frequente); - Misure di dispersione o variabilità: varianza (scostamento medio delle osservaz. rispetto alla media) e deviazione standard (scostamento quadratico medio) - Forme della distribuzione: la più nota è la curva di Gauss o curva normale. Perché i dati prendano questa distribuzione bisogna che le misure di tendenza centrale coincidano, i dati si dispongano simmetricamente rispetto al punto centrale e la curva deve essere mesocurtica - Correlazione e Regressione: servono rispettivamente per stabilire se c’è una relazione (il grado di dipendenza funzionale tra i fenomeni) e di che tipo; Metodi della statistica inferenziale: - Stime dei parametri della popolazione: si calcola il valore che con maggior probabilità corrisponde al parametro della popolazione oppure l’intervallo entro il quale il parametro oscilla; - Verifica delle ipotesi: verificare, a un certo grado di probabilità, la validità dell’assunzione che le statistiche riferite al campione siano indicative anche dei parametri della popolazione. Si sottopone a verifica l’ipotesi nulla H0: perché possa essere accettata le differenze del campione devono essere dovute al caso con una probabilità superiore a una soglia (0,05 o 0,01). Se la probabilità che siano dovute al caso è inferiore alla soglia, allora le differenze saranno significative (p<0,05) o altamente significative (p<0,01) Gli errori possibili sono di due tipi: - I tipo: respingere H0, anche se è vera. Si associa a una probabilità α - II tipo: accettare H0, anche se è falsa. Si associa a una probabilità β. La potenza di un test (di respingere H0 quando è falsa) è uguale a 1-β. MISURE E SCALE Nella verifica delle ipotesi si possono usare test parametrici: si devono usare test non parametrici se le osservazioni sono misurate su scala non parametrica o quando le popolazioni di riferimento non sono normali. Test parametrici sono più potenti dei non parametrici. 10 Def. misura: il procedimento mediante il quale le proprietà aritmetiche di un insieme ordinato di numeri reali, vengono attribuite a un insieme di eventi empirici (Caracciolo). Si considera che gli elementi dei due insiemi stabiliscano tra loro relazioni analoghe, tale per cui è possibile operare sugli eventi come sui numeri. La relazione eventi-numeri è chiamata Scala di Misura. Stevens studiò questo problema in psicologia e delineò quattro tipi di relazioni eventi-numeri: 1) relazioni di IDENTITA’: scala nominale, a classi o categorie omogenee al loro interno secondo un “etichetta”, il numero ha valore nominale; proprietà: equivalenza (riflessiva, simmetrica e transitiva) es. Sistema diagnostico DSM IV 2) relazioni di ORDINE: scala ordinale, a ranghi, i numeri hanno valore di ordine crescente/decrescente; proprietà: equivalenza + maggiore/minore di (non riflessiva, asimmetrica e transitiva) es. valutazioni di profitto con voti agli studenti 3) relazione di INTERVALLI: scala a intervalli; scala a 0 arbitrario, quantitativa:, i numeri rappresentano l’ampiezza delle distanze tra gli elementi e delle differenze tra due gradini qualsiasi della scala; proprietà: operazioni algebriche es. scala celsius o fahrenheit 4) relazione di RAPPORTO: scala a rapporti; scala a 0 reale che coincide con l’origine della scala stessa, quantitativa, i numeri rappresentano i rapporti tra gli elementi; proprietà: tutte le operazioni aritmetiche. Solo le ultime due scale sono parametriche e solo agli elementi di queste possono essere applicati i test parametrici: ANOVA, t di Student. Capitolo 6: IL METODO SPERIMENTALE NELLE APPLICAZIONI PSICOLOGICHE (Santo Di Nuovo) La ricerca di base tende all’incremento delle conoscenze e non si pone obiettivi pratici diretti, mentre la ricerca applicata mira alla soluzione di problemi operativi ed è orientata verso decisioni mirate agli interventi: il metodo sperimentale è tipico delle scienze “naturali” dove esiste una netta distinzione tra “osservatore” e “osservato”ed è’ stato applicato alla psicologia fin dalle fasi della sua fondazione. Questo metodo non si adatta in quelle aree: - dove è importante la relazione soggetto-operatore; - dove la complessità investe sia le relazioni tra variabili che le modificazioni dovute all’intervento dello sperimentatore. RICERCA SUI GRUPPI Per risolvere questo tipo di problematiche si utilizza la ricerca-intervento(def. action research proposta da Lewin nel 1948): un tipo di ricerca che è al tempo stesso momento di conoscenza scientifica della realtà (ricerca di base) e contributo all’attivo cambiamento di essa (ricerca applicata): Oggetto di studio: come avviene il cambiamento e in quale misura nel caso in cui avvenga come ipotizzato, quali siano i fattori di ostacolo e quali lo favoriscano quali sono gli effetti del trattamento a breve e lungo termine 11 Metodo: - la verifica delle ipotesi e il trattamento avvengono in contemporanea; - i destinatari dell’intervento sono coinvolti attivamente nel processo di definizione e verifica degli obiettivi; - processo ciclico ricorrente: formulazione di ipotesi e obiettivi → intervento → verifica degli effetti → aggiustamento delle ipotesi e degli obiettivi. Punti deboli: la necessità, a volte, di modificare il disegno di ricerca in itinere,sia per le variabili sia per il campionamento. Problemi caratteristici dell’action research: - la posizione del ricercatore non è neutra; - il punto di vista del ricercatore influenza non solo lo studio delle ipotesi e l’analisi dei dati, ma anche il “durante” della ricerca; - le capacità relazionali del ricercatore e i suoi valori assumono un’importanza fondamentale. Def. ricerca applicata rappresenta un processo di problem solving, nel quale la situazione-problema può essere costituita di diverse situazioni (disagio psichico,stato di incompetenza, situazione di rischio di malattia, ecc) Esso è un processo in diverse tappe: 1) delimitazione del problema 2) formulazione di un ipotesi diagnostica, mirata alla comprensione dei processi che mantengono il problema e degli aspetti strutturali; 3) definizione degli scopi 4) intervento mirato alla soluzione del problema, inserito in un contesto relazionale e guidato del ricercatore; 5) verifica periodica del cambiamento; 6) follow-up a distanza. → attenzione agli aspetti evolutivi e relazionali: c’è l’assunzione dell’impossibilità di scomporre-isolare le variabili di un oggetto che è un sistema complesso.(la ricerca di base scompone il fenomeno per studiarlo e ridurne la complessità; l’action research non può farlo!) Nella sperimentazione si usa il massimo controllo delle variabili, usando gruppi di controllo, al fine di ridurre il più possibile l’errore. Il controllo tra gruppi non è usato perché spesso poco affidabile: è difficile trovare gruppi confrontabili, o a volte eticamente scorretto, e spesso influenzato in maniera poco prevedibile dal drop-out. Il metodo per garantire l’equivalenza è la randomizzazione (selezione casuale della pop. di riferimento e assegnazione casuale a gruppi), ma se non è possibile, si può fare il matching dei soggetti tra gruppo sperimentale e di confronto, che hanno le stesse caratteristiche nelle var. da controllare. Se né randomizzazione, né matching sono possibili, si ha un disegno “quasisperimentale”(il gruppo di controllo non è equivalente). La varianza di errore attribuibile a mancato controllo delle variabili diventa un’informazione essenziale sulla diversità dei soggetti e degli effetti: con un campione ampio, anche se non casuale, è necessario conoscere le caratteristiche dei soggetti e le variabili osservate per correlarle (disegno correlazionale). Ma anche la correlazione può essere dovuta a una variabile “altra” latente, di livello superiore a quelle analizzate. Al criterio di significatività si sostituisce quello di rilevanza in relazione agli obiettivi fissati: il trattamento funziona e i risultati non sono dovuti al caso. La composizione del campione nell’action research, quasi mai ha criteri di casualità o stratificazione tipici dei disegni sperimentali. Attività fondamentale diventa l’assessment: valutazione e monitoraggio degli effetti. Servono strumenti: - che possano essere somministrati in modo rapido; - ripetibili frequentemente; 12 - adatti al contesto (≠ strumenti già validati, ma in altri ambiti); - adatti al campione con cui si lavora; Esempi: colloquio, l’intervista, questionari self-rating e altri strumenti utilizzati invece solo occasionalmente, questo per avere un assessment multiplo che permetta ipotesi diversificate. I disegni applicativi privilegiano misurazioni in fasi successive delle variabili da modificare mediante il trattamento. I dati ottenuti si dispongono in serie temporali (time- series) che permettono lo studio del cambiamento: - Per controllare il fattore “tempo”, esso può essere inserito nei disegni fattoriali quale variabile. 1. 2. 3. Disegno a un baseline: misurazione della baseline: si registrano le var. a intervalli regolari; intervento: continuano le misurazioni; verifiche periodiche. - Disegno a baseline multipli: verificare se gli effetti di trattamenti diversi si verificano in corrispondenza dell’introduzione di questi in momenti diversi. Possono valutare: • Var. differenti nello stesso sogg. (fra comportamenti) • Stesso var. in sogg. diversi (fra soggetti) • Stessa var. nello stesso sogg. In situazioni diverse (fra setting) Questi disegni pongono molti problemi metodologici in aggiunta a quelli che già si pongono con la baseline semplice. Critiche: il controllo delle var. è limitato a una o poche per volta; non vengono considerate adeguatamente le differenze individuali dei soggetti; gli strumenti di assessment spesso hanno effetti sulle var. RICERCA SU CASI SINGOLI Il soggetto è controllo a se stesso e l’uso di sequenze alternative di trattamenti alternativi fa da controllo logico, per confrontare ipotesi contrapposte nella spiegazione degli effetti di ciascuno di essi. Sono un utile strumento per il controllo e monitoraggio del lavoro quotidiano. Ma hanno scarsa generalizzabilità: si diventa ragionevolmente sicuri del successo/insuccesso del trattamento su quel caso (interesse per il clinico), ma non sul fatto che quell’intervento sia valido per altri soggetti (interesse per il ricercatore). Per aumentare la generalizzabilità, vanno ripetuti numerosi interventi su casi singoli (disegno “N = 1 alla volta”), ripetizione che può essere sistematica per variabili prese in considerazione. → La generalizzazione non può essere solo su base logica, ma deve avvenire su base empirica con studi di meta-analisi. Capitolo 7: PROBLEMI E METODOLOGIA NELLA RICERCA PSICOSOCIALE (Saulo Sirigatti e Cristina Stefanile) Premessa La ricerca psicosociale accetta una visione deterministica dei fenomeni, per cui il comportamento è un oggetto definibile e causato da eventi specificabili. Per questo, il metodo sperimentale è quello preferibile. Nel contesto applicativo, dove le var. sono complesse e difficilmente isolabili, vengono utilizzati i disegni cosiddetti deboli come i disegni quasisperimentali, correlazionali, descrittivi. 13 DISEGNI: Le minacce alla validità della ricerca sono raggruppabili in 4 categorie: statistica, interna, di costrutto di causa-effetto, esterna. Esaminiamo quindi diversi tipi di ricerca con validità diverse: 1. Pre-test e Post-test con un gruppo (es. progetto sul burn-out) Viene incluso tra gli approcci pre-sperimentali. Si fa un test come diagnosi del quadro iniziale, si applica l’intervento, e si fa un test di verifica sugli stessi soggetti. Minacce: - drop-out selettivi (dovuti forse ad attenuazione dell’evento indipendentemente al trattamento) - effetti dovuti alla storia (eventi estranei al trattamento,maturazione) - effetto Hawthorne (miglioramento nelle prestazioni dovuto alla consapevolezza nei soggetti di essere studiati) - regressione verso la media (per probabile errore di misurazione) Qualità: disegno snello, poco invasivo e poco costoso l’effetto Hawthorne comunque va nel senso del cambiamento cercato 2. Pre-test e Post-test con due gruppi non equivalenti (es. Ed. motoria su bambini e funz. cognitive) E’ il disegno quasi-sperimentale più frequente: si effettuano il pre-test e il post-test su due gruppi ma solo su un gruppo si applica l’intervento. Minacce: interazione tra elementi come storia, maturazione, ecc. e modalità di selezione diffusione o imitazione del trattamento all’interno del gruppo di controllo (validità di costrutto) impiego di campioni “opportunistici” (validità esterna) Qualità: disegno snello controlla gli effetti principali: storia, maturazione, effetto Hawthorne 3. Approccio correlazionale (es. anomia e caratteristiche sociali negli anziani) Mira a identificare le possibili relazioni tra due variabili. Non definisce un rapporto di causalità perché non controlla la possibilità di terze variabili latenti che influenzino entrambe le var. prese in considerazione. Qualità: setting naturale acquisizione di informazioni utili sulla popolazione generale utile nelle fasi iniziali di una ricerca 4. Approccio descrittivo (es. questionario sulla scuola x infermieri) Disegno di ricerca finalizzato all’illustrazione/rappresentazione, il più accurata possibile, di eventi che interessano il ricercatore. Ai dati ottenuti, per esempio, attraverso un sondaggio di opinione vengono applicate analisi statistiche descrittive, che danno un’idea generale sull’oggetto di studio. 5. Ricerca-intervento (vedi Cap. 6) 14 Action-research lewiniana, introdotta negli anni 40, si proponeva di applicare sul campo i risultati degli studi sulle dinamiche di gruppo. I punti cardine consistono quindi nell’attenzione al cambiamento sociale e nella partecipazione attiva dei gruppi coinvolti. Qualità: procedura flessibile e adattabile durante l’esperimento prevede verifica in ogni fase può produrre profonda conoscenza socioculturale della realtà in cui si fa l’esperimento consente integrazione tra conoscenza teorica e applicazione Critiche: troppo influenzabile da eventi accidentali validità scientifica insufficiente e risultati poco generalizzabili campioni scarsamente rappresentativi TECNICHE PER LA RACCOLTA DEI DATI Dopo aver deciso il disegno da usare, si deve decidere con quale tecnica raccogliere i dati. Le informazioni utili al ricercatore in psicologia sociale sono: comportamenti, stati emozionali o mentali, dati riferiti al contesto-situazione. Possono derivare da varie fonti: - informazioni soggettive-verbali acquisite da colloqui, questionari,ecc. - informazioni acquisite dall’osservazione - informazioni acquisite da registrazioni di indicatori psicofisiologici Fonti di minacce alla validità delle misure (Webb, Campbell e al.): - soggetti: effetto reattivo alla misurazione, consapevolezza di essere esaminati, stili sistematici di risposta (response set) o scelta di un ruolo per rispondere, la misura può produrre cambiamento su ciò che misura. - ricercatore: aspettative, caratteristiche personali, cambiamenti nella tecnica durante la ricerca - campione: restrizioni che attengono al reperimento dei soggetti, limitazione nell’utilizzo di alcune misure (es. saper leggere, disporre della vista,ecc), la popolazione da cui estraggo il campione può modificarsi nel tempo. Colloquio e Intervista Sono modalità di raccolta delle informazioni che prevedono lo scambio verbale faccia a faccia tra ricercatore e soggetto. Possono essere impiegati in diverse fasi dell’esperimento. Sono più o meno strutturati, duttili e flessibili: l’intervista può essere organizzata lungo un continuum che va da non strutturata (detta anche tematica o in profondità) a completamente strutturata (detta anche standardizzata). Comunque sia, il materiale ottenuto con un intervista è spesso molto abbondante e necessita di essere organizzato per poterlo interpretare. Le informazioni vanno codificate per mezzo di griglie per poi procedere ad un’analisi quantitativa. Questionario Tecnica di auto somministrazione che richiede minima partecipazione da parte del ricercatore. E’ corredato da istruzioni dettagliate, e la somministrazione può essere individuale o di gruppo. Gli item sono domande o affermazioni, e attengono a svariati argomenti. Diverse forme di risposta: - domande aperte (risposta libera): utilizzato se non si hanno indicazioni circa la gamma delle possibili risposte ottenibili dai soggetti. - domande chiuse (risposta multipla):ampiamente usate, prevedono risposte a livello categoriale(es. diploma, laurea, master,ecc), ma anche ordinale (quando si chiede di mettere in ordine di preferenza) 15 Qualità: - strumento rigido e standardizzato comparabilità delle risposte - tempi di rilevazione modesti riduzione dei costi - strumento versatile impiegabile in diversi tipi di ricerche - impiegabile per grandi numeri e garantisce l’anonimato Difetti: - resoconto soggettivo: si presta a falsificazioni intenzionali delle risposte - registra quello di cui una persona è consapevole (se non capisce la domanda, risponde male) - non registra direttamente il comportamento, ma un resoconto di questo. - scarsa motivazione dei soggetti informazioni poco accurate Focus group Affine all’intervista, si caratterizza per il tipo di setting e per le procedure di attuazione. E’ un’intervista basata sulla discussione di gruppo, che produce un particolare tipo di dati qualitativi. Particolarmente usata in psicologia della salute. L’incontro è programmato quanto alle linee essenziali e finalizzato alla raccolta di informazioni. La discussione si attiva a partire da uno “stimolo” che propone il ricercatore. Questa tecnica evidenzia sia le dinamiche di interazione, che i contenuti. Il gruppo deve avere da 6 a 12 persone. La durata di una sessione è di 1 o 2 ore. La discussione viene generalmente audio- o videoregistrata. Osservazione diretta Registrazione dei comportamenti verbali e non verbali di alcuni soggetti in una specifica situazione. Di solito implica un osservatore esterno alla situazione che registra; si usa anche l’osservazione partecipante, nella quale il ricercatore svolge duplice ruolo, prendendo parte attiva alla situazione che osserva. La consapevolezza di essere osservati influenza il comportamento dei soggetti (effetto Hawthorne). Una corretta osservazione è volta a ricavare campioni rappresentativi del comportamento e a questo scopo si deve definire prima, chi e cosa osservare, per quanto tempo e in che modo. Il ricercatore può registrare una vasta gamma di indicatori, vanno definite: - le categorie di osservazione - le unità di comportamento - frequenza delle osservazioni - durata delle osservazioni Il ricercatore si costruisce una griglia di osservazione dove le categorie si autoescludono e coprono tutta la gamma dei comportamenti possibili (registrazione degli eventi) L’osservazione è considerato un buon metodo nella ricerca sociale, ma piuttosto complesso e impegnativo. Il supporto audiovisivo consente una maggiore affidabilità dello strumento. Diari La tecnica del diario trova utilizzi nella ricerca psicosociale, soprattutto negli ambiti della salute e del lavoro. Registrazione di eventi, effettuate direttamente dalla persona coinvolta, e ancorati a determinati periodi temporali. Possono essere più o meno strutturati. Nell’ottica della ricerca-intervento, questa tecnica di auto-osservazione, facilita il coinvolgimento del soggetto che può favorire il cambiamento desiderato. Può produrre anche effetti reattivi indesiderati e minare la validità della ricerca. Tecniche proiettive Vari materiali che hanno in comune l’ambiguità dello stimolo, ampia libertà di espressione, l’assenza, spesso, di rigidi criteri quantitativi. Permettono di indagare in maniera indiretta vissuti profondi e aree delicate della personalità. Sono stati oggetto di critiche per la loro scarsa obiettività, e per la supposta 16 appartenenza a modelli di riferimento aprioristici. Sono utili e hanno una validità accettabile, se utilizzati nelle fasi preliminari di una ricerca. Tecniche psicofisiologiche Tecniche che consentono di misurare reazioni psicofisiologiche in un soggetto in relazione a un eventostimolo. Il loro impiego richiede apparecchiature complesse e competenze specifiche. Sembra importante evitare di fondarsi su singoli indicatori, ma utilizzare molteplici elementi che consentano di ottenere un ampio profilo di risposta individuale. Tecniche non intrusive Tecniche di osservazione indiretta, registrazione all’insaputa del soggetto di informazioni attuali o passate tratte frequentemente da materiale d’archivio. Il problema più evidente è la scelta degli indicatori da utilizzare. CENNI PER L’ELABORAZIONE DEI DATI Esplorazione di strutture latenti Si ricorre a statistiche come: - analisi fattoriale (es. SPSS) - uso di rotazioni di fattori - analisi dei cluster (raggruppare unità o oggetti simili tra loro) Le ricerche svolta in questo modo spesso danno risultati contrastanti o poco confrontabili per diverso numero di fattori estratti, differente rotazione applicata. Verifica della corrispondenza dei dati empirici ai modelli teorici Procedura statistica complessa: l’analisi fattoriale confirmatoria, si basa su quattro indici: - χ quadro (bassi valori corrispondono a un buon Fit) - relativi gradi di libertà (buon modello = χ quadro/G.L. ≤ 2.0) - indice di Goodness-of-fit (GFI) grado di adeguatezza del modello; si usa per confrontare due modelli (0-1: dove 1 è perfetta adeguatezza) - misura dell’ampiezza media dei residui stimati (RMR) L’esame di differenze tra gruppi La ricerca prevede a volte di accertare le differenze tra gruppi per una caratteristica. Dopo una elaborazione descrittiva (media e deviazione standard) si procede all’analisi della varianza a una via per determinare l’eventuale significatività statistica delle differenze. Limiti quando si svolgono ripetuti confronti, c’è la probabilità che alcuni risultino casualmente statisticamente significativi. Inoltre variabili intercorrelate, vengono trattate come indipendenti. Previsione di eventi Un obiettivo importante è dato dalla previsione di eventi futuri basato sui dati disponibili. Procedure statistiche sui dati disponibili: - regressione semplice - regressione multipla con il calcolo del coefficiente di correlazione. → sono tecniche parametriche e si posso applicare solo su dati parametrici! Analisi di contenuto Nelle indagini psicosociale, spesso si raccolgono dati qualitativi. Per trattarli bisogna predisporre uno schema di classificazione, conosciuto come analisi di contenuto. Vi sono diverse tecniche per la formazione di uno schema di classificazione dei dati qualitativi secondo tre differenti approcci. L’approccio può essere: 17 - qualitativo: se si vuol comprendere il significato del materiale - quantitativo: per ottenere dati numerici da elaborare in seguito - strutturale: mettere in luce relazioni latenti tra il materiale raccolto. In ogni caso il ricercatore dovrà decidere quali categorie impiegare in base ai suoi scopi. Per rendere questa procedura più attendibili è utile utilizzare più codificatori e poi calcolare un indice di accordo. PROCEDURE RECENTI - Simulazioni al computer reti neurali basate su modelli connessionistici. - Meta-analisi sintesi delle conoscenze acquisite da diversi studi sullo stesso argomento. Capitolo 8: EFFICACIA DEGLI INTERVENTI TERAPEUTICI E PSICOSOCIALI (PierLuigi Morosini e Paolo Michielin) Def. efficacia: in campo sanitario, la capacità di modificare in senso favorevole il decorso di una malattia o di un problema, o in altri termini, di produrre esiti di salute migliori di quanto non possa avvenire in caso di decorso spontaneo. Occorre inoltre che i benefici siano superiori ai possibili affetti collaterali. Efficacia sperimentale ≠ efficacia nella pratica: la prima riguarda gli studi su soggetti selezionati e in laboratorio, mentre la seconda riguarda le condizioni quotidiane della professione, con soggetti non selezionati.. Fattori che ostacolano l’attribuzione di successo di casi singoli alla psicoterapia applicata (var. interferenti): miglioramento o remissione spontanei regressione verso la media effetto placebo fattori aspecifici appartenenti alle varie tipologie di psico-terapie (es. alleanza terapeutica) selezione dei casi soggettività nell’interpretazione degli esiti. 1. 2. 3. 4. 5. 6. Principi di valutazione dell’efficacia: - Confronto tra pazienti trattati in modo diverso - Confrontabilità dei gruppi a confronto ( i gruppi dovrebbero essere simili per i fattori di significato prognostico, come età, gravità di malattia, ecc) - Confrontabilità delle rilevazioni dei dati: utilizzare stessi criteri di rilevazione per la diagnosi, la prognosi, e l’esito, utilizzando il doppio cieco. - Completezza degli esiti: devono essere valutati soprattutto gli esiti importanti per la qualità di vita del paziente e non solo quelli fisiologici. - Completezza del follow-up: valutare gli effetti a lungo termine (benefici iniziali possono tradursi in peggioramenti) - Replicabilità dei trattamenti: devono essere ben descritti, così da poterli replicare - Valutazione dell’importanza della variabile “casualità” - Comparabilità tra pazienti trattati (pazienti sui quali si è vista l’efficacia, devono essere simili ai pazienti sottoposti agli altri trattamenti) - Continuità nel tempo dello studio (valutare eventuali effetti collaterali dopo la fine della terapia) - Costi (a parità di efficacia, quale trattamento costa meno in termini di tempo e soldi?) Disegni di ricerca per la valutazione degli interventi: Si può operare uno studio di ricerca controllato randomizzato (Trial): se approvato da un comitato etico, i soggetti si assegnano casualmente ai due trattamenti da confrontare. 18 Perché lo studio sia ben condotto è necessario: - mascheramento della randomizzazione - doppio cieco - scelta degli esiti importanti e completezza- sufficiente durata del follow up - considerazione della var. casuale Questo è il miglior strumento a disposizione, ma ha il limite della ricerca sperimentale: in centri di terapiaricerca applicata, con pazienti non selezionati e poche risorse, non è detto che si avrebbero gli stessi dati. Un altro disegno è la meta-analisi: studio sistematico delle ricerche effettuate su un determinato argomento e loro confronto al fine di ottenere evidenze di vari livelli. Solo una piccola parte degli interventi psicosociale nel mondo è stata oggetto di valutazione rigorosa dell’efficacia. Si sa che spesso sono efficaci anche interventi brevi, interventi cognitivo-comportamentali e interventi gruppali, che hanno un ottimo rapporto tra costi e benefici. Capitolo 9: IL PRIMO COLLOQUIO NELL’ASSESSMENT CLINICO (Ezio Sanavio) Assessment valutazione iniziale che uno psicologo clinico svolge in rapporto alla possibile presa in carico di un paziente, al fine di: - ricostruire meccanismi che sottendono i problemi lamentati - concordare obiettivi immediati e a lungo termine - identificare un trattamento adeguato - decidere per la presa in carico Vengono formulate ipotesi su relazioni tra disturbi e situazioni, ipotesi di ordine eziopatogenetico, ipotesi sulle strategie di approccio e sulle tecniche di trattamento: l’assessment procede quindi per falsificazione di ipotesi. Il primo colloquio è un sottoinsieme dell’assessment. Nell’assessment si usano tre classi di indici: - indici soggettivi (autoriferiti dal sogg) cognitivo-verbale - indici motori e comportamentali (dall’osservazione esterna del sogg) comportamentale-motorio - indici fisiologici (con strumenti di registrazione) psicofisiologico Il primo colloquio non è autonomo, ma si inserisce in un assessment multidimensionale (comunemente l’assessment iniziale prevede 2-3 colloqui) e tende a stabilire una relazione collaborativi col paziente. Attraverso ridefinizione e riformulazione del problema, il colloquio termina con un avanzamento conoscitivo da parte del paziente. Topografia dei colloqui iniziali: - presupposti il colloquio è reso possibile da un contesto motivazionale - Fase dei preliminare convenevoli e richiamo degli eventuali antefatti (invio da parte di altri) - Apertura qual è il problema? - Specificazione del problema ottenere descrizione del problema - Ipotesi di mantenimento esaminare eventuali stimoli che elicitano i disturbi - Allargamento specificare problemi attuali oltre al problema di base - Storia dei problemi ricostruzione dell’inizio del disturbo e formulazioni di ipotesi eziopatogenetiche - Storia personale tralasciando problemi e patologia, cenni storici sul paziente - Aspettative di trattamento approfondire le aspettative del paziente - Ipotesi di trattamento precisazione di obiettivi di trattamento possibili - Formulazione conclusiva e chiusura restituzione delle informazioni raccolte dai colloqui ed esami 19 Capitolo 10 IL COLLOQUIO IN PSICOLOGIA CLINICA (Franco Del Corno, Margherita Lang) (Wiens) Def. Il colloquio è un processo interattivo che ha luogo tra almeno due persone, diverso dalla conversazione in quanto l’interazione è finalizzata al conseguimento di un obiettivo predeterminato. Il paziente che si autoinvia è da considerare che c’è differenza tra un paziente che si rivolge per la prima volta a un terapeuta ed uno insoddisfatto della diagnosi di un altro. Il paziente inviato dai familiari capire perché i familiari l’hanno inviato e cosa pensa il paziente. Il paziente inviato da un collega capire perché lo invia e come il pz ha vissuto l’invio Il paziente inviato da altre figure se l’invio è corretto bisogna differenziare l’approccio tra pz volontario o coatto. Dopo aver stabilito un’alleanza diagnostica, bisogna rilevare elementi informativi diretti o inferiti, in modo da farsi un quadro del paziente. E’ fondamentale indagare anche il funzionamento emotivo, il funzionamento mentale, le sue modalità di interazione ed eventualmente, se necessari, si possono interpellare familiari che chiariscano i punti oscuri. Capitolo 11: VALUTARE E SCEGLIERE UN TEST (Luigi Pedrabissi e Alessandra Romito) Qualità di un test Il significato del costrutto Bisogna che sia chiaro il significato del costrutto a cui si è interessati e vedere se corrisponde a quello del test. I significati espliciti sono riportati nel manuale, ma i significati impliciti si possono ricavare solo dall’analisi degli item e vanno quindi verificati. Vanno controllate le affermazioni dell’autore del test in riferimento agli scopi e all’uso del test. Attendibilità Grado di ripetibilità dei punteggi ottenuti con un test (necessaria ma non sufficiente per la validità di un test). Le fonti di errori sistematiche sono eliminabili. La fonte di errore sempre presente è la casualità, quindi un certo margine è tollerato (maggiore è l’errore casuale, minore la coerenza dello strumento). Punteggio ottenuto = punteggio “reale” + quota di errore Si può testare un gruppo di sogg e utilizzare medie e DS dei punteggi del gruppo per derivarne le stime dell’attendibilità. Questa stima sui gruppi si calcola come: - fedeltà test-retest (correlazione tra risultati del test in due tempi diversi: maggiore è la correlazione, maggiore è l’attendibilità) - coerenza interna, cioè dell’omogeneità degli item (metodo dello split-half, alfa di Cronbach) - coerenza tra forme diverse (coerenza tra punteggi in forme parallele di test) Validità Posto che un test ha punteggi ripetibili (ed è quindi attendibile), ci si chiede se i suoi item hanno indagato davvero il costrutto che volevamo. Intesa tradizionalmente come: - validità di costrutto (detta anche di contenuto) gli item rappresentano il costrutto? - validità predittiva il punteggio predice il comportamento? - validità concorrente relazione con punteggi di altri test che misurano la stessa cosa - validità discriminante relazione col punteggio di altri test che misurano cose diverse 20 Il campione normativo Deve essere rappresentativo della popolazione e corrispondere alle caratteristiche del soggetto. Importante è la metodologia di selezione, l’ampiezza e l’attualità del campione. Item Chiari come formulazione privi di bias Essere a una sola dimensione rappresentare solo un comportamento, concetto. Rappresentare il costrutto indagato Questioni pratiche Somministrazione Le istruzioni devono essere chiare ed assicurare l’interpretabilità di tutti i punteggi: item omessi, tempi, livello di abilità necessarie,ecc. Scoring Metodi di calcolo dei punteggi: - Modello cumulativo più alto è il punteggio, più è presente il costrutto nel sogg - Modello di categorizzazione inserisce la persona in classi,categorie a scopo predittivo - Modello ipsativo valuta se la prestazione del sogg è diversificata rispetto a certe variabili Costi I costi di un test sono economici o sociali. Le informazioni importanti devono essere esplicitate nel manuale. Altre fonti di informazione sono: le revisioni critiche e le ricerche pubblicate su quel test. Per l’utilizzo responsabile di un test psicologico, bisogna avere competenze: - specifiche sull’uso del test - relazionali (→ attenzione per le minoranze) - psicodiagnostiche Capitolo 12 IL PROCESSO DIAGNOSTICO IN PSICOLOGIA CLINICA (Francesco Rovetto) Nosografico/descrittivo : la classificazione è basata sulla descrizione del quadro patologico osservato Sistema Interpretativo /esplicativo: la diagnosi si riferisce a un modello epistemologico che ritiene le patologie espressione di cause sicuramente identificate e descritte. [se si facesse unicamente riferimento a tale sistema, la comunicazione tra operatori di diverso indirizzo sarebbe impossibile e assumerebbe aspetti paradossali] Nessuna classificazione dei disturbi mentali può avere un numero sufficiente di categorie specifiche per comprendere tutti i casi clinici immaginabili. Pertanto ogni operazione diagnostica, per quanto corretta e accurata, costituisce una forzatura, un limite e non solo un vantaggio per la comprensione del paziente in quanto individuo. In psicologia clinica non esistono i casi puri e lineari, nonostante ciò bisogna cercare di collocare il quadro patologico del paziente in un sistema nosografico, per potersi “intendere” con i colleghi. Bisogna evitare 21 impulsività diagnostica ed eccessivo tecnicismo: utilizzare test per confermare o respingere le ipotesi costruite sulla prima impressione. E’ anche vero che una precoce e puntuale diagnosi consente di fare riferimento alla esperienza della comunità scientifica, di comunicare quanto si è fatto, di esprimere una prognosi o valutare i rischi di trasmissione ereditaria o le possibili evoluzioni di un quadro patologico. Il sistema multiassiale oltre a consentire di identificare in modo universale le patologie tiene conto di alcuni dei principali aspetti della vita e dell’esistenza del paziente (DSM IV) La diagnosi viene emessa solo quando i sintomi superano il valore di soglia sia per durata che per intensità, diventando così invalidanti. Def. La diagnosi è un ragionamento plausibile e utile che mette ordine tra i fenomeni psicopatologici osservati, utilizzando un minimo di inferenze. I disturbi mentali sono spiegati partendo da diverse prospettive e da diversi concetti: 1. lo stress (es. disturbo acuto da stress) 2. l’alterato controllo (es. disturbi del controllo degli impulsi) 3. la menomazione e la disabilità (es. demenza) 4. mancanza di flessibilità (es. disturbi dell’adattamento) 5. quadro sindromico, sintomatologico e comportamentale presentato (es. DCA, disturbi sessuali) 6. eziologia (es. disturbi d’ansia, disturbi da sostanze) 7. deviazione statistica (es. disturbi di personalità, ritardo mentale) Se la diagnosi è corretta si tratta della migliore ipotesi fattibile in quel momento. A essa deve seguire un costante tentativo di validazione. L’andamento nel tempo del caso e la risposta alla terapia possono fornire occasione per una conferma, una modificazione o una smentita della diagnosi. Finalità diagnostiche: 1. indirizzare la scelta terapeutica 2. facilitare la comunicazione tra operatori 3. rendere possibili le indagini epidemiologiche ed eventuali studi genetici oltre alla stesura di statistiche sanitarie 4. rendere possibile una prognosi in base all’andamento tipico di pazienti con patologie 5. valutare l’efficacia di un trattamento farmacologico psicoterapeutico. 6. facilitare la reperibilità su mezzi informatici 7. facilitare la formazione di gruppi omogenei di pazienti sui quali c0mpiere ricerche 8. fornire un chiarimento lo stesso paziente che può sentirsi rassicurato nel vedere che la sua patologia è nota ed esistono realistiche possibilità terapeutiche 9. fornire i concetti base necessari per formulazioni teoriche i ambito scientifico Il processo diagnostico, soprattutto se mal condotto e mal utilizzato, presenta notevoli rischi. La diagnosi è una previsione che spesso tende ad autoavverarsi [ETICHETTATURA]. La persona deve essere vista come un tutto senza dimenticare che i disturbi psicopatologici variano nel tempo, per cui la diagnosi ha una sua validità limitata nel tempo Una sindrome è un insieme di sintomi che, di solito, si manifestano in concomitanza. Dopo aver identificato un sintomo, per esempio una condizione di tristezza, il passo successivo consiste nell’analizzarlo più approfonditamente. La tristezza può essere un sintomo isolato o la punta di un iceberg. Se è affiancata ad altri sintomi accuratamente descritti può consentire la diagnosi di disistima o depressione. Una volta identificato il sintomo primario si va quindi alla ricerca di eventuali sintomi correlati. 22 La diagnosi multiassiale secondo il DSM-IV Asse 1: disturbi clinici e altre condizioni che possono essere oggetto di attenzione clinica. Asse 2: disturbi di personalità e ritardo mentale. Utilizzato anche per annotare meccanismi di difesa maladattivi che non raggiungono la soglia per un disturbo di personalità. Asse 3 : condizioni mediche generali Asse 4: problemi psicosociali e ambientali. Sull’asse IV si riportano i problemi psicosociali ed ambientali che possono influenzare la diagnosi, il trattamento e le prognosi dei disturbi mentali. Asse 5: Scala per la valutazione globale del funzionamento (VGF): Questo tipo di informazione è utile per pianificare il trattamento o misurare il suo impatto e per predire l’esito. Il VGF può essere utile per misurare i progressi clinici. Il VGF riguarda il funzionamento psicologico, sociale e lavorativo. Nel DSM-IV per la descrizione di ogni classe patologica sono descritte: - Caratteristiche diagnostiche; - Sottotipi e/o specificazioni; - Procedure di registrazione; - Manifestazioni o disturbi associati; - Caratteristiche collegate a cultura, età e genere; - Prevalenza; - Decorso; - Familiarità; - Diagnosi differenziale. I sintomi, per diventare indicatori di patologia, devono essere quantificati, valutati, posti in relazione con le condizioni di vita del paziente , con le sue condizioni fisiche e con la sua cultura di riferimento. La diagnosi secondo il modello multimodale di Lazarus Lazarus propone di prendere in considerazione 7 dimensioni in ciascun paziente : BASIC ID B = comportamento A = processi emotivi S = sensazioni e funzionamento degli organi sensoriali I = immaginazione C = cognizioni I = rapporti interpersonali D = aspetto organico (farmaci e dieta) La diagnosi in ambito cognitivo comportamentale Il modello legato alla diade S-R non è mai stato applicato fuori dall’ambito sperimentale. Negli ultimi anni si è usata l’ analisi funzionale e la strategia diagnostica, definita come “formulazione del caso”: non specifica una diagnosi, ma mette a fuoco le condizioni che precedono la comparsa del problema, compresi gli schemi cognitivi appresi in età infantile e rinforzati dall’abitudine. Oltre agli aspetti motori vengono compresi aspetti affettivi e fisiologici. Particolare importanza viene attribuita alle dinamiche individuali e sociali di induzione e mantenimento del quadro patologico. 23 Capitolo 13 PSICOFISIOLOGIA SPERIMENTALE E CLINICA (Daniela Palomba, Luciano Stegagno) Def. Interessi primari della psicofisiologia clinica sono lo studio e la comprensione di quei meccanismi di anomala reattività dell’individuo: la relazione reciproca tra eventi mentali, comportamento e disfunzioni somatiche o psichiche è l’elemento centrale di studio. La psicofisiologia clinica ha l’impianto concettuale e metodologico della psicofisiologia dalla quale deriva ed ha due elementi fondanti: - la psicologia sperimentale (da cui prende il metodo di studio) - la fisiologia (da cui prende gli strumenti d’indagine e le basi funzionali) es. patologia coronaria (correlazione tra personalità e modificazioni fisiologiche) La psicologia clinica, la medicina e la psichiatria possono quindi ricorrere alla psicofisiologia clinica per l’indagine dello stato funzionale di apparati fisiologici, risposte endocrine, ecc e per la correlazione delle modificazioni osservate con eventi mentali e comportamentali. L’assessment psicofisiologico: L’assessment si riferisce alla raccolta di tutte le informazioni necessarie per inquadrare il disturbo del paziente, per stabilire un’ipotesi patogenetica e per impostare un intervento: l’accertamento può riferirsi sia alla fase diagnostica, che alla fase di verifica dell’andamento del disturbo durante il trattamento. Caratteristiche dell’accertamento psicofisiologico: Il requisito fondamentale deve includere componenti soggettive (resoconto del paziente) e oggettive (alterazioni fisiologiche e comportamentali) Strumenti principali dell’assessment psicofisiologico Gli strumenti indagano il disturbo a tre livelli: - soggettivo-cognitivo valutazione della condizione psicofisica e del proprio stato emotivo da parte del paziente comportamenti manifesti o situazioni sociali che precedono, si - comportamentale-espressivo associano o conseguono al sintomo - fisiologico modificazioni somatiche correlate al sintomo-malattia. Viene valutato in condizioni basali e di attivazione. Criteri metodologici: I dati devono essere decifrati e interpretati in modo da costituire elementi informativi utili alla diagnosi e al trattamento. Per far ciò bisogna: - effettuare misurazioni di base ripetute (baseline) e replicare l’accertamento in condizioni diverse (es. al lavoro) - eseguire l’accertamento ai tre livelli, soggettivo, comportamentale e psicofisiologico - tentare una valutazione quantitativa della sintomatologia (in modo da confrontarla con il posttrattamento) % di miglioramento = valore di baseline – valore post-trattamento x 100 valore di baseline L’accertamento psicofisiologico è utile se inserito in un programma più ampio che preveda tre aspetti: ricerca(es. stress sul lavoro), prevenzione (es. prevenzione cefalea) e inquadramento diagnosticotrattamento (es. disturbi d’ansia). 24 Capitolo 14: APPRENDIMENTO (Paolo Moderato e Maria Lea Ziino) L’apprendimento è prima di tutto uno strumento di adattamento dell’uomo verso l’ambiente come l’evoluzione: Darwin per primo mise in evidenza come l’evoluzione e l’apprendimento interagiscano. In termini più moderni: la trasmissione genetica e l’apprendimento non sono fattori antagonisti, ma processi che interagiscono in funzione di un miglior adattamento dell’uomo al suo ambiente. Def. apprendimento: quella modificazione comportamentale che consegue a, o viene indotta da, un’interazione con l’ambiente ed è il risultato di esperienze che conducono allo stabilirsi di nuove configurazioni di risposta alle situazioni-stimolo esterne. Ogni organismo percepisce le variazioni dell’ambiente in cui vive: queste variazioni sono chiamate stimoli o evento-stimolo. Il cambiamento ha come oggetto la risposta, intesa come forma diversa di comportamento. Le modalità di produzione di risposte dono due: - risposte elicitate: conseguono automaticamente alla presentazione dello stimolo, sono reazioni psicofisiologiche in reazione al perturbamento di un sistema che le attiva in funzione di ritrovare l’omeostasi; - risposte emesse: comportamenti tendenti a modificare l’ambiente, sono molto variabili, dalle più semplici alle più complesse, praticamente comprendono l’ampia gamma delle manifestazioni umane. La relazione stimolo-organismo è influenzata (acquista significato e rilevanza differente) da una terza variabile, il contesto: definibile come l’insieme di eventi situazionali che fanno da sfondo a una particolare situazione. Vi sono anche cambiamenti non imputabili all’apprendimento: - dovute a fattori fisiologici (es. crescita), oppure patologici - fenomeni come l’assuefazione (diminuzione della risposta di fronte al ripetersi dello stimolo) e la sensibilizzazione (es. fuga davanti all’iniezione) si estinguono rapidamente I cambiamenti dovuti all’apprendimento hanno perlopiù valore adattivo: La sopravvivenza della specie è assicurata dall’apprendimento e dalla selezione naturale. Misure del cambiamento in psicologia: 1. la forza della risposta (in senso analogo a quello fisico) 2. l’ampiezza della risposta (misura quantitativa: es. salivazione nel paradigma pavloviano) 3. la latenza della risposta (tempo tra stimolo e risposta) 4. la durata (periodo durante il quale il comportamento appreso è attivo) 5. la frequenza (numero di volte in cui un comportamento viene attuato in una situazione) 6. numero di tentativi o prove che vengono effettuate prima che un soggetto abbia appreso un comportamento APPRENDIMENTO E CONDIZIONAMENTO: PAVLOV Pavlov era un fisiologo russo che mise a punto, con la pubblicazione del 1927 di “Riflessi condizionati” , il paradigma del condizionamento classico o rispondente. Pavlov studiava l’attività digestiva dei cani, e notò che la salivazione compariva anche in presenza del solo sperimentatore senza cibo. 25 Salivazione in presenza di cibo = risposta incondizionale (RI) Cibo = stimolo incondizionale (SI) Associando per un certo numero di volte uno stimolo neutro (SN) come una luce, al cibo (Si), si assisteva alla comparsa del riflesso condizionato (RC). Un evento neutro acquista valenza di evento-stimolo perché è associato (associazionismo) a un eventostimolo. Si (carne) Ri (salivazione) Si (carne) + Sn (luce) Ri (salivazione) Sn (luce) Rc (salivazione) APPLICAZIONI DERIVATE DAL PARADIGMA PAVLOVIANO Il paradigma pavloviano, non riguarda solo gli animali, ma interessa molti fenomeni umani: su questi si basa la tecnica del bio-feedback per l’eliminazione della paura e delle fobie. Se si ha paura di uno stimolo non pericoloso, essa non è adattiva e quindi significa che si è instaurata una fobia. Watson, negli anni ’20, descrisse il caso del “Piccolo Albert”: W. condizionò Albert sperimentalmente alla paura di una cavia bianca (associandola ad un forte rumore improvviso). Albert generalizzò la sua paura ad altri stimoli percettivamente simili. W. voleva spiegare la genesi delle fobie e le possibili soluzioni terapeutiche tramite l’estinzione sperimentale o il ricondizionamento. L’applicazione delle conoscenze sperimentali sull’apprendimento, prende il nome di “terapia del comportamento”. Il decondizionamento della paura per mezzo di uno stimolo competitivo gradito (rilassamento progressivo), si diffuse solo trentenni dopo, grazie a Wolpe, con il nome di desensibilizzazione sistematica. Negli ultimi anni si sono proposte nuove interpretazioni del condizionamento classico, in particolare con Rescorla (1988) che ha pubblicato un celebre articolo “It’s not what you think it is” dove sostiene che l’apprendimento avviene all’interno di un contesto, l’associazione non è condizione necessaria e sufficiente per stabilire il condizionamento. L’organismo è visto come dotato di preconfezioni e attivo: utilizza relazioni logiche tra eventi per costruirsi una visione del mondo sempre più sofisticata. APPRENDIMENTO E CONDIZIONAMENTO: LA TRADIZIONE SKINNERIANA Questa concezione prende in considerazione gli effetti del comportamento sull’ambiente e di questi, in retroazione, sull’organismo: le conseguenze di un comportamento aumentano/diminuiscono la probabilità che questo avvenga successivamente. Esponenti: Thorndike e Skinner Thorndike mise i gatti in una situazione di problem solving: una gabbia da cui si poteva uscire premendo su un chiavistello, dall’altra parte c’era del cibo (scatole problema). Studiò il comportamento dei gatti: la soluzione compariva per caso e poi l’animale gradualmente eliminava i comportamenti inutili e sviluppava sempre più precisamente la risposta. Chiamò questo comportamento: apprendimento per prove ed errori. E formulò la legge dell’effetto: è l’effetto (satisfaction) di un comportamento che determina la maggiore/ minore probabilità dell’associazione S-R . Sulla base degli studi di Thorndike, Skinner costruì il paradigma del condizionamento operante. I comportamenti sono di due tipi: - rispondente (r. elicitate) risposte condizionali o incondizionali provocate da stimoli conosciuti che precedono il comportamento 26 - operante (r. emesse) sull’ambiente risposte emesse liberamente e rafforzate dalle conseguenze che producono Metodo: Skinner box (gabbia con un operante programmato per emettere cibo). Definì gli elementi della sua teoria: - operante: classe di comportamenti funzionalmente simili la cui emissione è influenzata dalle conseguenze che hanno sull’ambiente; - sono le conseguenze prodotte dal comportamento che determinano la probabilità di comparsa; - lo stimolo discriminativo: indica le occasioni in cui le conseguenze sono in atto. Il processo mediante il quale un comportamento viene influenzato dalle sue conseguenze è detto rinforzo. Positivo: quando si aggiunge alla situazione (es. cibo), negativo: quando viene a mancare (es. rumore che cessa). Il concetto di rinforzo non è opposto a quello di punizione: l’apprendimento che ne consegue è minore come intensità e durata, non seleziona un comportamento vincente. La punizione determina comportamenti di fuga o evitamento: molto resistenti (forse collegati al piacere di un’immediata caduta dell’ansia). Thorndike ≠ Skinner: - la situazione di Sk. non è problemica, in Th. sì - in Th. c’è nesso tra compito e meta: uscire dalla gabbia vuol dire avere cibo, in Sk, no. - in Th. c’è associazione S-R (stimolo – risposta) in Sk. c’è associazione R-R (risposta rinforzo) - in Th: punizione = cancellazione dell’apprendimento in Sk: punizione = apprendimento a non fare APPRENDIMENTO E VARIABILITA’ Il contesto muta costantemente, come far fronte a questo? Generalizzazione capacità di reagire in modo simile a stimoli simili. Implica la capacità di categorizzare. Discriminazione capacità di reagire in modo differente a stimoli simili, ma differenti 1- l’operante può essere sia un comportamento osservabile, sia non direttamente osservabile. 2- Il comportamento produce delle conseguenze che hanno qualche effetto sul comportamento stesso. 3- Le relazioni ambiente-comportamento sono di tipo contestuale (non meccanicistico) e funzionale (non deterministico) APPRENDIMENTO E COGNIZIONE: L’ANALISI DI BANDURA Def. modellamento: quel tipo di apprendimento che entra in gioco quando un comportamento di un organismo che osserva si modifica in funzione di un altro organismo assunto come modello. Bandura ha chiamato in causa fattori cognitivi e esperienze senza contatto diretto. Ha messo in evidenza come le aspettative proprie e altrui influenzino la valutazione degli effetti e quindi l’apprendimento. Non conta solo il successo, ma anche l’attribuzione delle cause del successo: - causa interna → aspettative maggiori e motivazione all’impegno - causa esterna → aspettative minori 27 Il luogo della causa ha un effetto particolarmente forte sui sentimenti di stima e orgoglio: l’attribuzione interna porta a credere nella stabilità e controllabilità delle proprie prestazioni e ad aspettative più positive (teoria della self-efficacy), che diminuiranno l’ansia da prestazione. APPLICAZIONI DELLA TEORIA DELL’APPRENDIMENTO La più nota è la behavior therapy, un approccio psicoterapico che spiega la maggior parte dei disturbi psicopatologici come il risultato di pattern di risposta appresi inadeguati e disadattivi. Le tecniche concernono l’apprendimento di nuovi comportamenti adattivi, eliminazione-riduzione di risposte disadattive, potenziamento di comportamenti già presenti. Esempi di tecniche comportamentali: - desensibilizzazione sistematica: per ansia e fobie - training di assertività: mira ad aumentare le abilità sociali dell’individuo, per risolvere problemi relazionali Esempi di tecniche comportamentali-cognitive: - ristrutturazione cognitiva: riformulazione dello stile cognitivo del paziente - modificazione immaginativa: si addestra il pz a interrompere le fantasie ansiogene e sostituirle con fantasie piacevoli. - Modeling: la persona impara osservando il comportamento del terapista (es. coaching) COMPORTAMENTO GOVERNATO DA REGOLE Def. comportamento governato da regole: esiste una classe di eventi-stimolo precedenti, detti “regole”, che influenzano il comportamento attuale. La regola è una descrizione verbale che indica quale comportamento eseguire in quale determinata circostanza. La regola permette di apprendere gli effetti di un comportamento senza averne fatto esperienza. Reese (1989) distinse: - regola come generalità: cosa che accade regolarmente - regola come prescrizione: descrive ciò che dovrebbe accadere Il comportamento governato da regole è insensibile alle proprie conseguenze empiriche, o sensibile indirettamente, sotto mediazione verbale (es. soldato che non fugge di fronte alla guerra). E’ stato ipotizzato che il comportamento istruito tenga conto di “conseguenze collaterali” di tipo sociale IMPARARE AD APPRENDERE Può succedere che la successione di due attività faciliti l’apprendimento o l’esecuzione dell’ultima di esse, o comporti per la stessa qualche difficoltà. Questi effetti di interazione si chiamano transfer: sperimentalmente consiste nell’effetto (positivo o negativo) giocato da un apprendimento su un altro che lo segue o lo precede temporalmente. Per transfer di generalizzazione si ha il learning set, ossia la capacità che si verifica come risultato di precedenti esperienze con problemi dello stesso tipo. Capitolo 15; MEMORIA (Gesualdo Zucco) La memoria associativa sembra essere la forma più primitiva di memoria e l’ultima a spegnersi. Def. memoria: il prodotto di tre distinti momenti: 1. acquisizione: fase in cui ai soggetti vengono presentati gli stimoli da apprendere 28 2. ritenzione: fase durante la quale avvengono i cambiamenti nelle tracce mestiche (che non è dato rilevare direttamente) 3. recupero: fase corrispondente alla riproduzione del materiale. Primi studi: Ebbinghaus (1885): usa sé stesso come soggetto sperimentale, nel suo laboratorio. Usò solo trigrammi senza senso, e osservò che l’apprendimento di due serie (una originale e una derivata) era tanto più semplice quanto più simili erano le serie: questa era una dimostrazione semplice e d efficace che la memoria procede per associazioni. GLI STUDI IN AMBITO ASSOCIAZIONISTA (1940/60) Presupposti del concetto associazionista sono: - legame tra tracce e concezione dell’uomo passivo di fronte alla informazioni; - riduttivismo e ricerca di unità elementari della funzione del ricordo; - visione della mente umana come tabula rasa sulla quale l’ambiente imprime le modificazioni. La visione associazionista porta a studiare la memoria come un semplice contenitore. Metodi: Presentazione seriale Consiste nel presentare ai soggetti lettere, numeri, parole in serie, con un ritmo costante. E poi nell’invitarli a riprodurli nell’ordine esatto. Fenomeni studiati: - Risparmio: se, dopo un certo periodo di tempo, si invitano i soggetti a imparare la serie fino alla prima ripetizione corretta, si riducono sia il tempo, che il numero delle prove necessarie. - Esercizio: è solo la pratica che favorisce l’apprendimento - Span di memoria: capacità individuale, intesa come numero di elementi ricordati Apprendimento per coppie associate Consiste nella presentazione di coppie di parole con l’invito ad apprenderle. Successivamente si presentano al soggetto i primi elementi di ciascuna coppia e si chiede di rievocare i secondi. La rievocazione può essere: seriale o libera (senza vincoli di ordine). Fenomeni studiati: - Interferenza: influenze tra i vari apprendimenti, proattiva (effetti deleteri derivanti da apprendimenti precedenti) e retroattiva (derivata da apprendimenti successivi). Gli item centrali sono sottoposti a tutti e due i tipi di interferenza, e quindi sono i meno ricordati. L’interferenza è massima per materiali simili. - Transfer positivo: facilitazione nell’apprendimento di una serie, dato dall’apprendimento di una serie precedente. Riconoscimento Consiste nel riproporre ciascuno degli item oggetto di studio insieme a uno (r. binario) o più item nuovi (r. multiplo) e nel chiedere ai soggetti di individuare l’item originale. Nel riconoscimento occorre confrontare una traccia mestica con uno stimolo. Nella rievocazione occorre una ricerca attiva della traccia mestica in assenza di indizi, per cui sono due compiti diversi. - Teoria della detezione del segnale: si presentano 20 parole ai sogg, poi le si mischia con altrettante parole nuove. Si mostrano ai sogg gli stimoli uno ad uno. I sogg possono riconoscere uno stimolo della serie originale (Hit), rifiutare correttamente uno stimolo non appartenente alla serie originale (Correct rejection), non riconoscere uno stimolo della serie originaria (Missing) o riconoscere uno stimolo che non fa parte della serie originaria (False alarm).Su questi dati si calcola l’indice d’, che rappresenta la capacità di discriminare tra uno stimolo nuovo e uno già presentato. 29 Categorizzazione e organizzazione Bousfield (anni ’50) osservò che in compiti di rievocazione libera di elementi posti in serie in modo casuale, i soggetti tendevano a raggrupparli per categorie semantiche. Tulving (1962) osservò che i legami non erano solo oggettivi, ma riflettevano anche caratteristiche personali dei soggetti. Osservarono anche che item eterogenei, in categorie omogenee, si ricordano meglio. Questa osservazione era già stata fatta da Von Restorff ed in modo più sistematico. Recentemente è stato nominato “distintività dello stimolo” . LE INDAGINI SULLA MEMORIA A BREVE TERMINE (anni ‘50/’60, in Gran Bretagna) Due ipotesi sul perché si dimenticano le informazioni a breve termine: ipotesi del “Decadimento dell’Informazione”: solo per il passaggio del tempo Esperimento di Peterson & Peterson: 1. Presentazione di trigrammi senza senso 2. compito di disturbo per impedire il rehearsal (ripetizione subvocalica) Osservazione: la probabilità di rievocare il trigramma è funzione quasi lineare dell’intervallo di ritenzione → conferma dell’ipotesi di decadimento. ipotesi dell’ “Oblio per Interferenza”: per interferenza con apprendimenti successivi Al di là delle conferme sperimentali, è l’ipotesi che gode più credito. Esperimento di Waugh e Norman (1965): Metodo: tecnica del “digit probe”. 1. Presentazione di una lunga lista di numeri con uno stimolo che si presentava due volte: in posizione casuale e alla fine della lista. 2. Consegna: rievocare il numero che segue l’item critico (probe). Gli autori spostavano la posizione dell’item critico in modo da aumentare/ridurre l’interferenza retroattiva. Osservazione: maggiore è l’interferenza, minore è il ricordo → conferma della teoria dell’oblio per interferenza. Per la teoria dell’interferenza la distinzione MBT – MLT non aveva molto senso, invece lo aveva per la teoria del decadimento. Attualmente, in modo curioso, si sostengono le ipotesi: - teoria dell’interferenza - MBT distinta da MLT Già allora c’erano prove a favore di questa distinzione: 1) Miller nel 1960 pubblicò un lavoro sul “magico numero sette” ± 2 , che testimoniava come la MBT avesse una capacità inferiore alla MLT; 2) Nei compiti di rievocazione libera si osserva che il ricordo degli item nella serie ha una distribuzione a “U”: si ricordano meglio i primi e gli ultimi (effetto di “primacy” e “recency”). Il rehearsal sposterà i primi item in MLT , e gli ultimi staranno in un magazzino a capacità limitata, cioè la MBT. 3) Le prestazioni dei soggetti in compiti di memoria, sono influenzate dal tipo di materiale: in MBT sono influenzate da somiglianze acustiche tra gli item, in MLT semantiche. 4) Osservazioni di pazienti con danni neurologici dimostrano che i danni sono selettivi per MBT e MLT. LA RICERCA MANIACALE DEI MODELLI DI MEMORIA (inizi anni ’60) La psicologia cognitivista si impose sul panorama scientifico, scalzando quello associazionistacomportamentista, con: - ritorno dello studio sui processi interni e invisibili della mente (es. memoria, pensiero, ecc) 30 - concezione dell’uomo come soggetto dinamico e attivo (interviene sulle informazioni e le elabora a differenti livelli) Ci fu un proliferare di modelli. H.I.P. (Human Information Processing) Atkinson e Shiffrin (1968) presentano un modello di memoria che diventerà popolarissimo. La memoria non era più un contenitore inerte, ma una funzione mentale attiva. Videro nel PC un modello della mente: Il modello per la memoria si componeva di tre stadi corrispondenti a rispettivi magazzini: 1. registro SENSORIALE catturare l’informazione in entrata 2. MBT informazione trasferita dal reg. sensoriale 3. MLT informazione trasferita da MBT La trasmissione: → 1: modalità preattentiva e precategoriale 1→2: attenzione 2→ 3: rehearsal La perdita avviene: in 1 per decadimento in 2 per interferenza e per decadimento in 3 per interferenza Il formato: in 1 copia rudimentale dell’input in 2 fonetica in 3 semantica Capacità: in 1 illimitata in 2 variabile: 7±2 in 3 illimitata Durata della traccia: in 1 millisecondi in 2 fino a 30 secondi in 3 illimitata Recupero: in 1 non è recuperabile in 2 favorito da indici fonetici in 3 favorito da indici esterni riguardanti il contesto - Componenti strutturali: i tre magazzini - Processi di controllo: le operazioni svolte consapevolmente per facilitare l’immagazzinamento e il recupero, strategie di memoria (es. reiterazione, immaginazione e categorizzazione). Atkinson e Shiffrin utilizzarono solamente materiali visivi e verbali: non hanno mai confermato la validità del loro modello per altri tipi di materiale. Critiche → ruolo del rehearsal: è stato dimostrato che non sempre la ripetizione libera produce apprendimento. A. e S. hanno ipotizzato due tipi di rehearsal: superficiale e profondo (se si bada al significato delle parole), solo il secondo produrrebbe apprendimento. Sperling (1960, 1963) nel tentativo di spiegare il riconoscimento di stimoli presentati al tachistoscopio, scoprì il registro sensoriale. Dai suoi studi emerse con chiarezza l’esistenza di un magazzino sensoriale dalla capienza illimitata, ma in cui le tracce restano un tempo brevissimo. S. chiamò questa memoria “iconica” . Rilevò che è pre-categoriale e pre-attentiva, poiché non consente il riconoscimento del materiale in entrata che avviene solo in MBT. 31 TEORIA DELLA PROFONDITA’ DI CODIFICA Esperimento di Hyde e Jenkins (1969) 1. presentazione di stimoli nella situazione di apprendimento incidentale. 2. richieste diversificate nella “situazione di orientamento”, stabilire: - grado di piacevolezza ( analisi semantica) - frequenza d’uso nel linguaggio comune - presenza di una determinata vocale - il numero di lettere 3. rievocazione Osservazione: gli stimoli sottoposti a analisi più profonda (semantica), sono più facilmente rievocabili. Craik e Lockart (1972) Influenzati dagli esprimenti di H e J, formulano la teoria della profondità di codifica: la durata della traccia presente nella memoria dipende dalla profondità con cui lo stimolo è stato elaborato in fase di codifica. Ipotizzarono tre livelli di elaborazione: 1. strutturale 2. fonetico 3. semantico Craik e Tulving (1975) Approfondirono e sistematizzarono le osservazioni e il metodo di Hyde e Jenkins, inducendo con domande precise una codifica: strutturale, fonetica o semantica. Osservazioni: - a un’analisi più profonda corrisponde un tempo di reazione più elevato - l’accuratezza di riconoscimento e rievocazione è strettamente connessa alla profondità di codifica - tutto ciò è indipendente dal tempo dedicato all’elaborazione Questo modello funziona anche per il riconoscimento dei volti. Critiche: - non è chiaro perché un compito di natura semantica deve condurre a prestazioni migliori - se i suggerimenti in fase di recupero corrispondono al livello di elaborazione in fase di codifica, il ricordo può essere buono anche per livelli superficiali di elaborazione - nell’eseguire elaborazioni semantiche le risposte di tipo sì erano ricordate meglio dei no, e non si sa perché - l’esistenza di una sequenza ordinata e lineare di stadi sperimentalmente è stata contraddetta. Gli autori risposero: - il codice semantico è superiore per complessità di elaborazione e distintività (effetto von Restoff): gli altri livelli sono meno elaborati e meno specifici. TEORIA DELLA SPECIFICITA’ DI CODIFICA Tulving e Thomson (1973) Le operazioni che si svolgono all’atto della codifica di un particolare materiale, possono essere un valido suggerimento (cue) per il recupero (es. codifica a livello fonetico, seguita da suggerimento a livello fonetico) Spiega: - la differenza tra risposte sì e risposte no - il miglior ricordo se i suggerimenti sono “compatibili” con la codifica - come suggerimenti apparentemente sganciati, sono utili se collegati tra loro in fase di codifica (es. Cappuccetto e antico) - il rapporto influente tra tono dell’umore e ricordo 32 Questa teoria si è dimostrata utile, per la rievocazione di ricordi da parte di testimoni. ALTRI FERMENTI COGNITIVISTI (1970 / ’80) Memoria di lavoro Baddeley e Hitch nel 1974, proposero il concetto di “Working memory”. La memoria di lavoro è un sistema dove vengono mantenute delle informazioni mentre stiamo svolgendo un altro compito (per es. decidere, ragionare) La memoria di lavoro fornisce il sostegno cognitivo necessario allo svolgimento di prove che coinvolgono l’immagazzinamento a breve termine di svariate informazioni. La centrale esecutiva sovrintende ai compiti di ragionamento e decisione, e supervisiona i due “servomeccanismi” (sottoinsiemi verbale e visivo): processo articolatorio ↔ centrale esecutiva ↔ magazzino visuospaziale (articulatory loop) (per materiale visivo) immagazzinamento ed elaborazione verbale attraverso immagazzinamento ed elaborazione visuospaziale ↓ magazzino fonologico (per materiale verbale) L’articulatory loop ha la funzione di mantenere attive e disponibili le informazioni verbali: rehearsal. Il magazzino visuospaziale ha la funzione di “Taccuino per appunti” per materiale visivo. ≠ Miller: capacità limitata a 7±2 elementi o “chunk” Spiega le interferenze selettive (per compiti dello stesso tipo): questi compiti impegnano uno stesso servosistema, che si satura. Compiti di tipo diverso si distribuiscono su due servosistemi. Le ipotesi di Baddeley vennero poi confermate appieno da numerose ricerche successive: esiste una memoria di lavoro ( ≠ MBT intesa come contenitore) che consente lo svolgimento di operazioni in parallelo, e appare plausibile la sottodivisione in due sistemi verbale-visivo. Memoria dichiarativa e procedurale Tulving nel 1972, propose una interessante distinzione nella memoria a lungo termine, a seconda dei contenuti: Memoria dichiarativa ↓ ↓ semantica episodica ≠ Memoria procedurale Conoscenze di tipo dichiarativo (o proposizionale): consentono di definire gli eventi per proposizioni. Si divide in: - Episodica: autoconsapevole (“autonoetica”), connotativa, contraddistinta da chiari riferimenti spaziotemporali, spesso autoreferente (es. ieri marco mi ha detto del suo divorzio) - Semantica: rigida, simbolica, impersonale, denotativa, consapevole (“noetica”), non ha riferimenti spazio-temporali ed esprime le nostre conoscenze del mondo (es. il burro si ricava dal latte) Questa distinzione è stata confermata a livello neuroanatomico: dagli studi su pazienti amnesici, e da studi effettuati con la PET. Tulving ha inserito la memoria autobiografica all’interno del sistema episodico. Conoscenze di tipo procedurale: sono le conoscenze che abbiamo sul come si svolgono le attività (es. andare in bici). Sono conoscenze “anoetiche” (non sappiamo quando e come le abbiamo apprese). 33 Anche qui si sono trovate prove sperimentali di una divisone neuroanatomica. L’attenzione e la consapevolezza hanno un ruolo differente nei vari tipi di memoria: importante per episodica, meno importante per semantica, nullo per procedurale. Memoria e immaginazione Il cognitivismo ha riacceso l’interesse per lo studio delle immagini mentali. Le ricerche hanno dimostrato che la mente si crea immagini che hanno particolarità proprie rispetto agli altri tipi di rappresentazioni: possono essere esplorate, ruotate e modificate, come gli oggetti esterni. Una delle più note teorie è quella del “doppio codice” sviluppata da Paivio nel 1971 e poi perfezionata. L’autore sostiene che le informazioni sono codificate ed elaborate da due sistemi distinti: verbale e nonverbale. Codifica verbale → processo sequenziale Codifica per immagini → analisi globale e parallela Spiega il fenomeno sperimentale per cui: figure e parole concrete ad alto valore di immagine vengono codificate dai due sistemi e ricordate meglio di parole astratte. Trovate sperimentalmente analogie tra immagini concrete e mentali: studi sullo “scanning” (ispezioni mentali) hanno dimostrato che vi è analogia tra le operazioni svolte nella realtà e quelle rappresentate mentalmente. Kosslyn (1980) ha dimostrato che il tempo che si impiega mentalmente per spostarsi da un punto di un immagine a un altro è funzione sia della distanza, sia degli oggetti che si frappongono, i tempi seguono le leggi della percezione . Shepard (1971) ha dimostrato che il tempo per decidere se due figure geometriche orientate in modo diverso sono uguali oppure no, è funzione direttamente dell’angolo di rotazione. Processi automatici e controllati Hasher e Zacks (1979)hanno ipotizzato che alcuni attributi degli stimoli, nel processo di memoria, sono esenti dall’influenza di strategie di memorizzazione o dalla volontà di apprendere. Tali attributi vengono quindi codificati in forma automatica. Prendendo una serie di item, gli attributi più importanti sono: - frequenza (es. serie di parole e figure presentate in una lista: quante volte la parola x è comparsa?) - posizione spaziale (es. cartoncini con parole agli angoli: in che angolo era la parola x?) - ordine temporale di comparsa I primi due sono stati sottoposti a rigorose prove sperimentali. Le autrici definiscono il processo di memoria automatico quando il ricordo non è influenzato: - dalle istruzioni - dalla pratica con il materiale da apprendere - dall’uso di strategie - dal carico cognitivo (simultanea esecuzione di pochi o più compiti) - dalle caratteristiche individuali e psicofisiche (stress, stati alterati) La ricerca non concorda sulle conferme/disconferme di questa teoria. La rappresentazione delle conoscenze Vi è accordo tra i ricercatori nell’affermare che: nella MLT le conoscenze sono organizzate in reti gerarchiche in base al loro significato. Un’organizzazione ad albero per categorie semantiche sovraordinate (es. animali), intermedie (es. pesce) e sottordinate (es. trota), collegate da nodi. 34 Esperimento di Collins e Quillian (1969) Presentazione: item (affermazioni) in serie Consegna: Giudicare VERO/FALSO il più velocemente possibile Osservazione: tempi più lunghi per affermazioni che implicavano l’appartenenza a categorie sovraordinate (“la trota è un pesce” era più veloce di “la trota è un animale”). Conferme alla teoria. Critiche: il modello non spiega due fenomeni 1. maggiore rapidità con cui si risponde agli animali tipici di una specie (es.”una trota è un pesce?” è più veloce di “un orca è un pesce?”) 2. la struttura gerarchica non sempre è collegata con i tempi di reazione. (es. “la balena è un mammifero?” richiede più tempo di “la balena è un animale?”) Successiva specificazione/modificazione del modello: Collins e Loftus (1975) Teoria della “propagazione dell’attivazione”: l’associazione non è lineare/gerarchica, ma procede per tutti i possibili collegamenti-associazioni di un concetto: - nodi semantici (non solo categoriali) - nodi ± potenti (effetto tipicità es. penna è più connessa a carta, rispetto ad albero) Questo modello spiega le precedenti anomalie. Fu ripreso ed esteso da Anderson (1976) con il concetto di “priming semantico” : facilitazione prodotta da uno stimolo nell’elaborazione del successivo (es. si riducono i tempi di reazione se si chiede “la trota ha le branchie?” e poi “la trota è un pesce?”, perché appartengono alla stessa categoria semantica) INTELLIGENZA ARTIFICIALE E MODELLI CONNESSIONISTI ( dal 1960) Idea sostanziale: la mante umana opera in modo analogo a un calcolatore, riceve informazioni, codifica, elabora, decide, fornisce un output. Da qui → il pensiero intelligente può essere riprodotto-simulato tramite un calcolatore. In sintesi: modello: analogia mente-computer metodo: simulazioni dei processi cognitivi applicazioni: programmi utili alla soluzione di svariati problemi: decisioni in campo economico, progettazioni di manufatti, diagnosi mediche. I programmi per PC che simulano il ragionamento umano sono composti da due tipi di elementi: - euristiche: strategie generali e creative che consentono di affrontare situazioni nuove - algoritmi: regole specifiche e rigide che favoriscono la soluzione in automatico di microproblemi all’interno di quello generale. Nel 1986 Rumehlart e Mc Clelland supplicano il volume: “Parallel distribued processing” che diffonde la teoria delle reti neurali. Fanno riferimento alla teoria pionieristica di Lashley (1929), per cui le informazioni non sono disposte in punti precisi, ma distribuite su regioni (come la corteccia associativa). Queste informazioni possono essere elaborate da più unità che lavorano simultaneamente la distruzione di alcune parti delle aree su cui sono depositati i ricordi non da luogo alla perdita totale delle informazioni. La metafora della mente stavolta è il cervello come organo, ed il PC diventa lo strumento per elaborare simulazioni. 35 - Il modello di una rete PDP (Processi Distribuiti e Paralleli) concepisce: un organizzazione delle informazioni in rete un certo numero di nodi (informazioni) connessioni ± potenti tra i nodi e che agiscono in due sensi: eccitatorio (+) e inibitorio (-) organizzazione molto flessibile: la rete si riadatta continuamente per i nuovi apprendimenti le informazioni si trovano in più punti e non si cancellano se un nodo viene danneggiato Critiche: le più importanti da Edelman - incapacità di tenere conto delle differenze individuali (biologiche, di storia personale, di contesto) - il cervello non è dotato di generalizzazioni rigide precostituite - il modello non gestisce le novità e gli imprevisti della vita reale Capitolo 16: PROCESSI COGNITIVI (Marta Olivetti Belardinelli) Cognitivismo e Scienza Cognitiva Con l’introduzione del HIP, la rivoluzione concettuale operata dal nuovo cognitivismo che si presentava con caratteristiche compiute di corrente, sembrava risolvere il problema fondamentale della psicologia, generato dalla interconnessione tra oggetto e metodo. Il successo del cognitivismo era dovuto all’adozione dell’impostazione modellistica centrata sull’analogia mente-computer. Dalla metà degli anni 70, il cognitivismo si scinde in due impostazioni, che attribuiscono a questa analogia un diverso valore: - Normann, Neisser, Pribram sottolineano i limiti e il valore simbolico dell’analogia - Newell l’analogia diviene connotativa dell’identità tra mente e computer, come due esempi distinti del medesimo sistema. La scienza cognitiva ha prodotto,oltre a ipotesi generali sui processi cognitivi, anche una molteplicità di ricerche. La crisi sembra investire le radici stesse del cognitivismo, quando Neisser dichiara di non ritenere più possibile una teoria unificata dei processi cognitivi (processi costruttivi di pensiero ≠ processi percettivi) Negli anni 80, si assiste al recupero della considerazione qualitativa dei fenomeni psichici. La nuova corrente del connessionismo emerge alla fine degli anni 80 con ricerche sull’elaborazione massiva distribuita in parallelo nelle reti neurali: le reti neurali sono capaci di simulare tutti gli aspetti del pensiero. Concetti e categorizzazione Per la scienza cognitiva, lo studio dei concetti è nodale, essendo questi considerati come le componenti fondamentali del pensiero, oltre che del linguaggio e delle rappresentazioni mentali. Fino alla metà degli anni 70, la ricerca psicologica si è occupata dello studio dei concetti e della loro formazione. Solo con gli studi della Rosch, l’orientamento naturalista viene ad essere applicato anche allo studio dei concetti e delle categorie. L’interesse maggiore della psicologia è centrato sui processi di categorizzazione e sui concetti come prodotti di questi processi: la formazione della prima categoria (madre buona), che si costituisce a causa della frattura dell’identificazione primaria madre-bambino, rappresenta il modello di tutte le categorizzazione successive. Con il progredire dell’esperienza, l’identità identificata dal linguaggio si costituisce in una categoria socioculturale la quale facilita i seguenti comportamenti adattivi. Il problema della categorizzazione si innesta su quello della memoria, grazie agli sviluppi dell’ Intelligenza Artificiale, della teoria degli schemi dei frames, degli scripts. Pensiero, ragionamento e teorie della mente Il pensiero è da sempre un tema focale della psicologia, anche se ha posto difficoltà ai diversi approcci che se ne sono occupati. Le difficoltà sono riconducibili a tre ordini di problemi: - la complessità del pensiero come attività connessa e condizionata da motivazione, emozione, percezione, memoria, apprendimento e linguaggio. - la ricerca sul pensiero deve richiamarsi ad una specifica teoria della mente 36 la ricerca sul pensiero è caratterizzata da intrinseche difficoltà metodologiche (coincidenza oggetto e metodo) Nell’ultimo decennio, la ricerca sul pensiero è distinta in un approccio che considera il pensiero come ragionamento guidato da regole di inferenza (come il linguaggio) e un approccio che caratterizza il pensiero come ricerca euristica che procede attraverso il cambio di operatori. Questa dicotomia risale all’antica dicotomia tra il pensiero accompagnato da rappresentazioni e pensiero senza immagini. L’intelligenza e il comportamento di soluzione dei problemi Il comportamento di soluzione problemica fa parte della definizione stessa di intelligenza, poiché essa può essere solo inferita come costrutto, attraverso l’osservazione di un comportamento che non è né abitudinale né istintivo. Per ragioni di ordine metodologico, gli associazionisti di Wundt ritennero le attività cognitive superiori non indagabili sperimentalmente e focalizzarono il loro interesse sulla percezione. I gestaltisti furono i primi ad indagare l’attività di modificazione del rapporto organismo-ambiente, posta in essere dal soggetto, considerando il “pensiero produttivo” un buon esempio dell’attività strutturante dell’organismo. Nascono così i problemi di “insight”, caratterizzati dal fatto che solo alcuni dei passi che bisogna compiere per giungere alla soluzione sono cruciali. Una volta risolti, la soluzione segue rapidamente, sempre che non subentri una fissazione funzionale, che ostacola la ristrutturazione produttiva. Il comportamentismo escluse totalmente l’impiego della metodologia di tipo soggettivo: la ricerca adottò come argomento privilegiato di indagine il problem solving. L’avvento del cognitivismo frantuma lo stretto nesso deterministico fra stimolo e risposta, accentuando il ruolo dei processi di elaborazione dell’informazione, a proposito dei quali si possono formulare solo dei modelli di funzionamento (HIP) La regolazione affettiva della cognizione Possiamo classificare gli argomenti relativi alla vita affettiva come pertinenti a: - definizione-descrizione dei costrutti all’origine della determinazione affettiva del comportamento - individuazione-definizione dei sistemi di controllo direzionale del comportamento - individuazione-classificazione degli scopi del comportamento affettivamente regolato - interazione-interferenza di fattori cognitivi e affettivi nella regolazione del comportamento - origine-evoluzione-modificazione dei processi di regolazione affettiva. O principali costrutti che si collocano all’origine del comportamento cognitivo, sono motivazione ed emozione, anche se ne sono stati indicati altri (pulsione, istinto, tendenza, affetto, impulso) Negli anni 90, tra i due costrutti, è stata svolta maggior ricerca sulle emozioni. I processi cognitivi di comunicazione Lo sviluppo storico delle ricerche psicologiche sulla comunicazione è stato enormemente accelerato dall’affermarsi dell’impostazione cognitivista: tutti i processi psichici vengono considerati come processi di elaborazione di un’informazione comunicata in input al sistema elaboratore, il quale a sua volta comunica al termine del processo, in output, la risposta. Centrali per l’attuale scienza cognitiva sono le ricerche sul linguaggio: il linguaggio è un sistema oggettivato di categorizzazione interrelate, passibile di manipolazioni sperimentali. Al fine di ottenere indicazioni sulla struttura e le modalità di funzionamento della mente i cognitivisti hanno individuato un altro linguaggio specie-specifico, quello musicale. Capitolo 17: MOTIVAZIONE E REGOLAZIONE DELLE EMOZIONI (Pio Enrico Ricci Bitti e Roberto Caterina) Il comportamento di un sogg è orientato alla realizzazione di un certo numero di scopi e alla soddisfazione di determinati bisogni mediante azioni e attività coordinate. L’attività cognitiva e l’attività comunicativo-espressiva fanno parte integrante del processo che porta all’attivazione dell’organismo per il conseguimento di determinati obiettivi. In quest’ottica, si tende a esaminare in maniera congiunta motivazione ed emozione (ruolo di mediazione tra esigenze ambientali e individuali). - 37 Motivazione ed emozione rappresentano due facce della stessa medaglia: - studio della motivazione perché un comportamento viene attivato (non verificato) - studio dell’emozione analisi del come viene attivato.(sottoposto a controllo e verifica) Il collegamento tra emozione e motivazione risiede nella potenzialità che hanno le emozioni di modificare la relazione tra organismo e ambiente. Concezione tradizionale: l’emotività era connessa a un’eccitazione disorganizzata e disfunzionale, la motivazione a un’eccitazione organizzata e finalizzata a uno scopo. Adesso si tende a evitare distinzioni così nette: si è visto che emozioni moderate aumentano la capacità di raggiungere obiettivi. Le emozioni di paura e angoscia sono del tutto adeguate alla situazione e predispongono l’organismo ad agire con la massima celerità; vi sono invece nella psicopatologia emozioni non legate a situazioni di emergenza o in cui la reazione non è adeguata alla situazione. Esiste quindi una quota dell’esperienza emotiva che può risultare non funzionale per il conseguimento di determinati scopi da parte dell’organismo. Soggetto ↔ Ambiente ↓ ↑ Bisogni (φ e ψ) → Obiettivi → Attività Comunicativo-espressiva → Attività Cognitiva → Azioni Sistema motivazionale-cognitivo-emotivo Modello proposto dagli autori Bitti e Caterina: Questo sistema può situarsi a tre livelli gerarchici, a cui corrispondono vari pattern di combinazione degli aspetti (motivazionale, cognitivo ed emotivo): - motivazionali - emotivi - cognitivi - comunicativi - strutture cerebrali prevalenti - apprendimento Intervengono in modo interdipendente fattori interni, interpersonali e sociali, e la sfera motivazionale e quella emotiva sono viste come processi che interagiscono. Livello in termini di filogenesi Livelli della motivazione (ontogenesi Aspetti emotivi dalla nascita alla maturazione) I. livello dell’esistenza riflessi, istinti Risposte biologica: gli animali fisiologiche con strutture cerebrali adattamento poco evolute (arousal) II. livello della vita sociale motivazioni primarie Emozioni in gruppo: animali fondamentali organizzati in gruppi III. livello dell’acquisizione motivazioni secondarie Emozioni del linguaggio: uomo secondarie di I livelli della motivazione: Riflessi Prime forme di attività dell’organismo biologico. Sono risposte automatiche e non apprese. Istinto ≠ Pulsione L’istinto: sequenza di comportamento automatica e diretta verso una meta. Dotazione genetica. 38 Pulsione: forza interna (es. fame e sete) senza essere correlato da comportamenti di soluzione, questi devono essere appresi. Motivazione primaria e secondaria Bisogno = pulsione con un oggetto concreto (es. fame → bisogno di cibo) Maslow (1954) propone il modello a livelli gerarchici di classificazione dei bisogni: - Bisogni “primari”: (1)bisogni fisiologici e (2)di sicurezza - Bisogni “sociali”: (3)bisogni di amore e appartenenza, (4)di riconoscimento e rendimento - Bisogni del Sé: (5)di realizzazione di sé. si potrebbe aggiungere il bisogno di trascendenza. I bisogni appartenenti a un gruppo superiore richiedono sempre l’esistenza di quelli propri del livello inferiore. In situazioni di emergenza, i bisogni superiori possono venire meno. (es. mangiare cibo senza chiedersi se è inquinato) Teoria sulla motivazione La differenza tra bisogni primari e secondari implica anche una differenza tra pulsioni primarie e secondarie. Miller (1948), attraverso gli studi sul condizionamento, cercò di legare gli stimoli appresi a pulsioni secondarie (anche esse apprese). Gabbia bianca con scossa --- collegata a --- Gabbia nera senza scossa Dopo un po’ i ratti fuggivano dalla gabbia bianca anche se il fondo non era elettrificato. Si era creata un nuova “pulsione appresa” (da pulsione “evitamento del dolore” a pulsione “paura del colore bianco”). → Questo non dimostra però che tutte le motivazioni secondarie siano frutto di apprendimento e di trasformazioni di pulsioni primarie. Allport (1961) le pulsioni secondarie non sono trasformazioni di quelle primarie. Alla base del comportamento umano ci sono una serie di azioni ripetute e legate a dei successi: la ripetizione e il consolidamento di queste azioni producono abitudini. Queste danno vita a nuove motivazioni autonome, le ricompense si trasformano in nuovi bisogni (es. lavoro per vivere → provo soddisfazione perché faccio bene il mio lavoro → Nuova motivazione: Motivazione al successo). Critiche: - non tutte le azioni ripetute diventano abitudini - non è evidente l’autonomia dalle motivazioni primarie Con il cognitivismo, le motivazioni sono viste come concetti dinamici, che mutano in rapporto al numero di informazioni provenienti dall’ambiente, che l’organismo è in grado di elaborare. Le informazioni in entrata provocano una continua ristrutturazione dei piani progettati per il conseguimento degli obiettivi. Critica: non in tutte le motivazioni c’è un’importanza fondamentale delle funzioni cognitive (es. fame e sete). Freud (1911) nella sua teoria “dei due principi dell’accadere psichico”, ipotizza due tipi di motivazione: il principio del piacere (primaria) e il principio di realtà (secondaria). I processi primari sono orientati dal principio del piacere. La necessità di dover agire sull’ambiente comporta la rappresentazione a livello psichico di ciò che è reale. L’apparato psichico si ispira quindi al principio di realtà. Il passaggio da uno all’altro comporta conseguenze in termini di ristrutturazione cognitiva. Il primo non è annullato dal secondo , ma gli cede il passo per un migliore adattamento alle richieste interne ed esterne. 39 I processi di base interagiscono con la motivazione, per esempio la percezione: vedere un oggetto intensifica il desiderio di averlo, quando lo stimolo è ambiguo sono le motivazioni a influenzare la percezione (vedi Test proiettivi). Applicazioni: - “psicologia del consumatore” Si studia con metodi che mirano a individuare le motivazioni inconsce: interviste in profondità, tecniche proiettive - “motivazione al lavoro” Tre tipi di approcci in linea con i bisogni di Maslow: razionale-economico (incentivi economici), sociale (bisogno di affiliazione), di autorealizzazione (promuove un arricchimento qualitativo del lavoro). La leadership più funzionale è diversa per ogni approccio e anche i compensi più motivanti. EMOZIONE Nello studio si soni intraprese due direttrici: - emozioni nel rapporto tra l’essere umano, i suoi simili e il mondo esterno, che segnano in maniera duratura l’esistenza individuale; - analisi dei singoli episodi emotivi e delle manifestazioni espressivo-motorie. Le emozioni hanno indicatori: - verbali: consentono di comunicare l’esperienza emotiva e rifletterci - non-verbali: in particolare le espressioni facciali, trasmettono in maniera diretta e efficace le emozioni. Le emozioni hanno differenti componenti: - cognitiva: valutazione cognitiva degli stimoli ambientali - fisiologica: salivazione, battito cardiaco, ecc - espressivo motoria: postura, tono di voce, ecc - motivazionale: predispongono l’organismo ad agire, per soddisfare bisogni e raggiungere scopi determinati - soggettiva: consentono l’attribuzione di significati e nomi specifici a stati emotivi Per D’Urso e Trentin (1998) esistono quattro prospettive teoriche abbastanza delineate: 1) filone di studi che inizia con James e definisce le risposte fisiologiche; 2) la prospettiva evoluzionistica darwiniana con gli studi sulle emozioni fondamentali; 3) la prospettiva cognitivista con la concezione dell’emozione come informazione da elaborare, come uno dei processi inseriti nell’interazione individuo-ambiente; 4) il costruttivismo sociale con l’importanza data dal contesto sociale nella determinazione dell’espressione e del significato delle emozioni. Teoria di James-Lange (1884) Affermava che gli elementi valutativo-cognitivi non precedono le risposte motorie-espressive, ma sono determinate da queste ultime (es. si è tristi xchè si piange). Esperimento di Hohmann (1966) su pazienti con aree estese del corpo paralizzate: l’insensibilità corporea era correlata con una diminuita capacità a provare emozioni intense. Teoria di Cannon (1927) e Bard (1934) Sosteneva una contemporanea attivazione del sistema espressivo-motorio e del sistema cognitivovalutativo, dal momento che entrambe dipendevano dall’attivazione del talamo. Cannon rilevò una certa indipendenza dei due sistemi. 40 Esperimento di Schachter e Singer (1962) Indussero mediante iniezione di adrenalina delle reazioni fisiologiche tipiche di arousal. Alcuni soggetti erano stati informati correttamente, un altro gruppo fu informato in modo sbagliato, un terzo gruppo informato per nulla. Gli ultimi due gruppi si lasciarono coinvolgere più facilmente da uno sperimentatore in compiti emotivi e attribuirono alle emozioni le modificazioni dell’arousal. Critica: arousal indotto ≠ arousal spontaneo Ma risulta valida la conferma dell’ipotesi di Darwin e James che l’attivazione può essere fonte della valutazione cognitiva. Oggi si tende a ridimensionare il peso di queste contrapposizioni e a considerare i rapporti tra sistema cognitivo e sistema espressivo-motorio variabili a seconda del tipo di emozione e del tipo di stimolo. Non sempre gli aspetti espressi dalle diverse componenti concordano tra loro (anche perché possono essere inibiti-controllati in quantità diverse). Piuttosto che di primato, si parla di relativa autonomia tra le singole componenti. Aspetti applicativi Nel 1990 Salovey e Mayer proposero il concetto di “Intelligenza Emotiva”, reso famoso dal libro di Goleman (1995) con lo stesso titolo. Goleman riprende la concezione di Gardner e sostiene che esiste un tipo di intelligenza a carattere emotivo che permette di vivere meglio e spesso più a lungo. Riguarda: - la consapevolezza delle proprie emozioni - la capacità di controllo e regolazione - la capacità di sapersi motivare - l’empatia (riconoscimento delle emozioni altrui) - capacità di gestire le relazioni di gruppo Goleman vede l’applicazione di training per l’apprendimento emozionale in vari ambiti: scuole, lavoro, ecc FORME DI CONTROLLO DELLE EMOZIONI Controllo cognitivo Modello di Scherer (1987) Le emozioni sono insiemi di informazioni che entrano in contatto con un individuo. L’individuo come un computer attua una serie di controlli sull’input. Questi controlli hanno un’organizzazione gerarchica e hanno una funzione di valutazione dello stimolo: I) grado di novità II) piacevolezza/spiacevolezza III) compatibilità con i fini ritenuti prioritari dal soggetto IV) riguarda la possibilità di comportamento nei confronti di uno stimolo (confronto con le proprie capacità potenziali) V) compatibilità dello stimolo con le norme sociali e il concetto di Sé Controllo delle risposte fisiologiche Le risposte emotive implicano un’attivazione del Sistema nervoso centrale, del sistema nervoso autonomo e del sistema endocrino. SNC: il suo ruolo è collegato: - all’elaborazione cognitiva, - alle modificazioni dell’attività corticale - all’attivazione dei muscoli volontari (soprattutto facciali) deputati all’espressione delle emozioni 41 SNA: causa molteplici cambiamenti corporei: osservabili (sudore, arrossamento, modificazioni del diametro pupillare, del ritmo respiratorio) e rilevabili solo con apparecchiature specifiche (modificazioni nella conduttanza cutanea, pressione sanguigna,ecc). Sono tutti fenomeni involontari ed estremamente difficili da inibire. SNE: la produzione da parte delle surrenali di Adrenalina e Noradrenalina è essenziale per l’attivazione del SNA. Ma esiste un vero e proprio profilo ormonale collegato all’attività emotiva, ed è particolarmente evidente nelle manifestazioni di ansia e stress. Aspetti motivazionali Le emozioni sono una forma di risposta orientata all’azione, reazioni di fronte al turbamento di un equilibrio tra elementi pulsionali-cognitivi-esperienziali di un individuo. Frijda (1986) ha indagato i rapporti tra processi cognitivi e azione. Ha elaborato il concetto di “precedenza del controllo”: spesso l’azione ha la precedenza sull’elaborazione cognitiva, per le emozioni primarie esistono schemi di azione che vengono valutati in blocco e spingono verso la loro esecuzione in tempi brevi (tanto da interrompere atti che si stavano compiendo). Altre emozioni funzionano in un altro modo, sono altri elementi che vengono valutati: per es. Emozioni → Affetti: tramite il passaggio da una valutazione primaria (che tiene conto dell’arousal) a una secondaria che considera il proprio sistema di valori e il contesto relazionale-sociale. L’espressione facciale delle emozioni Darwin sostenne l’universalità dell’espressione facciale delle emozioni, tanto che è reperibile anche nei primati superiori. Numerose ricerche vanno in senso opposto. Ekman e Friesen (1969) effettuarono uno studio molto importante: sottoposero al giudizio di un gran numero di giudici provenienti da molte nazioni e di aree socioeconomiche diverse, delle espressioni facciali da loro prodotte. Poi studiarono i giudizi di individui provenienti da due società “primitive” della Nuova Guinea. Produssero un gran numero di dati che confermarono l’accordo di giudizio e quindi l’universalità ipotizzata da Darwin. Un’ipotesi che tiene conto delle differenze culturali è quella che le differenze stiano nelle regole che governano l’espressione delle emozioni (es. società orientale). Esperimento di Ekman: ha dimostrato che soggetti giapponesi controllano di più le espressioni facciali rispetto a soggetti americani, e soprattutto se sono in presenza di compatrioti. L’espressione/mascheramento delle emozioni è un importante indicatore clinico dello stato psichico di un paziente: la stereotipia nell’espressione è indice di patologia. Importanti sono anche i gesti e la postura. Molte ricerche hanno dimostrato come l’inibizione della comunicazione emotiva (soprattutto in conseguenza a eventi traumatici e luttuosi) abbia importanti ripercussioni sulla salute degli individui a lungo termine, a breve termine può aiutare a attenuare il dolore. Capitolo 18 LINGUAGGIO E COMUNICAZIONE (Guglielmo Gulotta) Il concetto di comunicazione viene utilizzato in svariati ambiti: dalle relazioni umane, al più generale contesto delle relazioni sociali, al mondo della tecnologia. In ambito psicosociale, l’attenzione si è focalizzata sulla comunicazione nei termini dell’interazione sociale. 42 La comunicazione non è un processo lineare da un emittente e un ricevente. La comunicazione crea un punto di contatto, apre un processo dinamico che vive degli apporti dei due comunicanti e usa canali e strumenti appropriati al ruolo di ciascuno. Si parla di circolarità di sistema. I processi comunicativi devono tener conto di alcuni elementi: - elementi linguistici, nel senso di segni - strutture che appartengono all’atto del linguaggio, come parlare/comprendere Negli studi si sono assunti opposti punti di vista: - posizioni centrate sulla struttura vs posizioni centrate sulla funzione - linguaggio-pensiero vs linguaggio-comunicazione - linguistica del codice vs linguistica dell’inferenza Nei primi ambiti è prevalso lo studio dei processi cognitivi, nel secondo la dimensione di azione. Il problema attuale è quello di conciliare queste due posizioni, come si propone di fare la prospettiva conversazionale. Storia: Modello tecnico di Shannon e Weaver (1949) Linguaggio come passaggio di informazioni da una fonte a un destinatario, mediante codifica dei segnali di natura binaria (corrispondenza significante-significato) Modello linguistico Si riconosce l’importanza del contesto e del partecipante come soggetto sociolinguistico Modello psicosociologico di Anzieu e Martin (1971) Comunicazione come rapporto tra locutore e allocutario, finalizzato alla produzione di significati attraverso registri verbali, non-verbali, paraverbali e prossemici. Modelli a interlocutori Comunicazione come interazione, come luogo di fondazione dell’intersoggettività in un rapporto di reciprocità e cooperazione. La comunicazione ha una dimensione contrattuale dove la posta in gioco è la persuasione e gli attori sono enunciatario-comunicante e enunciatario-interpretante. COMUNICAZIONE E INTERAZIONE La comunicazione può essere studiata come: - sintassi: in relazione alla teoria dell’informazione (codici, canali,ecc) - semantica: in relazione al significato come convenzione tra individui - pragmatica: in relazione alla capacità di influenzare il comportamento altrui. Nella prospettiva pragmatica, secondo Watzlawick ogni comunicazione ha un aspetto di contenuto e uno di relazione, in modo tale che il secondo determina il primo ed è quindi “metacomunicazionale”. La natura di una comunicazione dipende dalla punteggiatura delle sequenze di comunicazione tra i soggetti, cioè dall’ordine causa-effetto che i sogg danno alle loro azioni e controreazioni. Gli esseri umani comunicano: - per parole, cioè nomi convenzionalmente legati all’oggetto (numerica) es. “mi sono tagliato un dito” - per immagini, che sono simili all’oggetto e legate ad esso da nesso specifico (analogica) es. esprimere il taglio a gesti o urlando Gli scambi sono, rispetto alle relazioni tra interlocutori: - simmetrici - complementari (up / down) Le relazioni duali impostate secondo gli scambi simmetrici, tendono a essere competitive: avviene un’escalation simmetrica dove uno vuole essere sempre più uguale all’altro. 43 Le relazioni complementari, tendono a incrinarsi quando sono troppo rigide. Le manovre comunicazionali sono risposte che mirano a definire o ri-definire un rapporto e consistono in richieste, suggerimenti, istruzioni all’altra persona, ecc. Le strategie sono invece definite come metodi sottili, ma sleali, per raggiungere il controllo del comportamento altrui e modificarlo in modo favorevole per se stessi. Le strategie disorientano l’interlocutore consistono nell’uso di artifici dialettici che hanno la caratteristica di essere paradossali: es. “io mi sbaglio sempre”, “io scherzo sempre”,ecc. Frequenti sono le prescrizioni paradossali, caratterizzate da un’ingiunzione che richiede un comportamento da parte dell’altra persona, che può essere attuato soltanto disobbedendo all’ingiunzione stessa. Es. “sii spontaneo!”, “dovresti amarmi”,ecc. Le prescrizioni possono investire la sfera sessuale: diventano strategie per infrigidire e/o castrare. Ci sono poi strategie per colpevolizzare e possono essere di tipo introiettivo (fare la vittima) o proiettivo (dimostrare la colpevolezza dell’altro). Vi sono poi strategie per imbarazzare e per irritare. COMUNICARE PER INFORMARE La funzione essenziale della comunicazione è quella sociale: essa è il frutto di un gruppo di individui, ne modifica la realtà soggettiva, è lo strumento di contatto. Essenziale è quindi la funzione referenziale: lo scambio di informazioni tra interlocutori su un oggetto (referente). L’uso del linguaggio come di ogni altro strumento è condizionato dalla competenza, in questo caso, linguistica. Il concetto di competenza deriva dagli studi di Chomsky (1965): indica l’insieme di conoscenze che un parlante ha della lingua che impiega, cioè delle regole che usa per produrre e comprendere potenzialmente un numero infinito di frasi. Competenza ≠ Esecuzione è la conoscenza della lingua è il modo concreto di usare il linguaggio in una determinata situazione. Assunti chomskyani: - esiste una grammatica universale: tutti i linguaggi sono tagliati sullo stesso modello “profondo” - le regole del livello profondo sono innate e non apprese e forniscono una base generale per l’apprendimento del livello superficiale Austin e Searle (1969, 1974): “Parlare è agire”, il fenomeno linguistico è equivalente a un’azione. Distinguono tra enunciati performativi indicano il fare all’interno di un contesto (es.”mi dimetto”) ≠ constatativi (o referenziali) sono usati per affermare proposizioni delle quali ci si può chiedere se siano vere o false. Nell’atto linguistico ci sono tre aspetti: - locutorio: attività fisica necessaria per dire qualcosa e la conoscenza del codice grammaticale - perlocutorio: dire qualcosa con l’ intenzione di procurare effetti su chi ascolta - illocutorio: significato convenzionale dell’atto linguistico in un determinato contesto es.” verrò da te domani” può essere promessa o minaccia) Esistono indicatori di forza illocutoria, come postura o tono di voce, che aiutano nella decifrazione. Searle ha proposto l’analisi degli atti linguistici indiretti, cioè di quegli atti che appartengono a una classe, ma hanno lo scopo illocutorio di un’altra. (es. “e se tornassimo a casa?” sono domande che però richiedono azioni) Un altro fenomeno studiato è l’adattamento all’interlocutore (Orsetti, 1983): quando parliamo con individui con ridotte capacità linguistiche (o età inferiore, status sociale,ecc.) tendiamo a adattare la nostra produzione al suo livello di comprensione. 44 LINGUAGGIO La comunicazione umana è un importante strumento per coinvolgere più individui, per portare parlante e ascoltatore in uno stesso schema interpretativo. E’ un insieme complesso di segni e simboli, che ci servono anche a interpretare il nostro ruolo sociale secondo un copione che noi stessi scriviamo. Robinson (1978) il linguaggio copre tutta la gamma dei rapporti interpersonali, cioè: - area operativa: domanda e offerta (es. chiedere o dare suggerimenti, giudizi, informazioni,ecc) - area socioemotiva positiva: manifestazioni di solidarietà, ridere, comprendere, ecc. - area socioemotiva negativa: manifestazioni di dissenso, odio, tensione, ecc. Queste funzioni possono essere raggruppate in un ordine più elevato: analisi del problema, soluzione del problema, sintesi della soluzione. Queste funzioni vengono utilizzate per risolvere specifiche situazioni interattive. Principali funzioni: Funzione di eteroregolazione Per realizzare la regolazione del comportamento altrui abbiamo a disposizione diverse forme, dalle più dirette (es. dammi il libro) alle più sfumate (es. bisognerebbe comprare il pane) - Regolatoria è la prima funzione e consiste nell’intenzione del soggetto di far passare un’informazione per esercitare un’influenza. Richiama la capacità di codifica e decodifica. - Riproduzione corrispondenza tra messaggio e mezzo di comunicazione che si intende usare. Caratterizzazione del Ruolo Il ruolo è l’insieme di comportamenti prescritti o attesi da una certa persona che occupa una determinata posizione sociale (es. differenti comunicazioni dal vicino di casa e dal capoufficio). Alcuni ruoli richiedono forme linguistiche precise (associati verbali), in particolare riguardo agli allocutivi (es. dare del TU o del VOI). L’uso degli allocutivi è regolati da norme secondo le relazioni di ruolo: - differenze di status - differenze di età - differenze di status occupazionale Brown (1965) enuncia due regole fondamentali: - norma di status: ci si rivolge a tutte le persone di status basso in modo informale, e elevato in modo formale, indipendentemente dal grado di intimità; - norma di solidarietà: si usa la forma educata con tutte le persone con le quali non si è in confidenza, quella informale con i partner, a prescindere dallo status sociale. Caratterizzazione del parlante Il linguaggio rivela caratteristiche del soggetto: sociodemografiche(es. lavoro, istruzione,ecc) e di personalità. La funzione metalinguistica Una volta intrappolati in una certa formulazione verbale che abbiamo dato al problema, può diventare difficile vedere le cose diversamente watzlawick dice che le persone possono restare intrappolate dalle stesse soluzioni che danno ai loro problemi. COMUNICAZIONE NON VERBALE E’ considerata un linguaggio di relazione, che sostiene e completa la comunicazione verbale fungendo da canale di dispersione in quanto, essendo meno controllabile del linguaggio verbale, lascia filtrare contenuti profondi. Classificazione: - linguaggio dei segni: tutte quelle forme in cui parole, numeri e punteggiatura sono costituite da gesti - linguaggio dell’azione: tutti i movimenti che non sono usati esclusivamente come segnale (es. bere comunica che “ho sete”) 45 - linguaggio degli oggetti: esibizioni intenzionali e non di cose materiali che ci circondano (auto, vestiti, cellulare,ecc) Il linguaggio non verbale è stato chiamato linguaggio silenzioso, e ne sono stati classificati vari tipi: a) Apparenza fisica: la bellezza è un importante fattore che facilita i rapporti sociali; b) Abbigliamento: come dato visibile, ancora prima in senso di distanza dell’espressione facciale; c) Postura: manifesta il diverso grado di accessibilità consentita all’altro; d) Orientamento spaziale: posizioni reciproche che le persone assumo nello spazio; e) Mimica facciale e sguardo: per rinforzare ciò che viene detto e fornire feedback all’altro; f) Distanza interpersonale: intima (0-35cm), personale(da 35 cm a 1 mt), sociale (da 1 a 3 mt), pubblica (da 3 mt in su). Studi sull’importanza dei fattori nell’attribuire il significato ai messaggi, hanno indicato che: - le parole 10 % - il tono della voce 40% - comportamento non verbale 50% Se il tono di voce e il comportamento non verbale contraddicono le parole, il messaggio non passa o passa solo parzialmente, mentre l’effetto è massimo quando i canali si rinforzano tra loro. COMUNICARE PER PERSUADERE Sembra che le variabili che correlano con l’efficacia della persuasione siano: - Attendibilità: se la fonte è attendibile, veniamo influenzato da messaggio che altrimenti ci lascerebbero indifferenti. Effetto latenza: dopo un mese aumentano gli effetti del messaggio poco attendibile e diminuiscono gli effetti del messaggio attendibile, perché l’informazione viene scissa dalla fonte. - Attrattività fisica: si ascolta di più una persona piacevole da guardare - Affinità tra emittente e destinatario: affinità per stile di vita,atteggiamenti,etnia, religione,ecc. - Presunte Intenzioni: il messaggio acquista più rilevanza soprattutto se si considera il mittente disinteressato La disposizione ad accogliere varia in rapporto inverso con l’autostima del destinatario bassa autostima del destinatario, lo porta a credere a ciò che sente) Perelman (1981) Chi comunica deve tenere conto di: - tesi dell’uditorio (da utilizzare come aggancio all’argomentazione) - area di accettazione e rifiuto Gli individui tendono a rifiutare le comunicazioni che sollecitano un eccessivo cambiamento d’atteggiamento (errore della petizione di principio). Quando la discrepanza è elevata, il messaggio non viene accolto. L’ascoltatore è inoltre refrattario ad accettare il messaggio se si considera personalmente coinvolto. Festinger (1973): Teoria della dissonanza 1. ognuno di noi tende alla coerenza con sé stesso 2. conoscenze discrepanti creano disagio 3. la pressione per eliminare la dissonanza è funzione dell’importanza data alle componenti in gioco 4. la dissonanza può essere appianata trasformando gli elementi cognitivi o aggiungendone di nuovi Il bisogno di coerenza influisce sulla “prima impressione”, che condiziona il modo in cui le informazioni seguenti saranno percepite ed organizzate. Allo stesso bisogno si ricollega l’effetto alone (Asch 1946): la tendenza a raggruppare i tratti in modo che siano tutti positivi o tutti negativi (teoria implicita della personalità). Asch propose due liste di tratti che differivano per un solo tratto: caldo – freddo. Questo tratto modificò tutto il prospetto di personalità fantasticato. Le nostre percezioni tendono a essere uniformi e a raggrupparsi attorno a dei tratti centrali. 46 I ricordi risentono della sequenza di apprendimento dei dati: effetto primacy (la prima informazione è più importante delle altre) ed effetto recency (l’ultima informazione ha maggior rilievo delle precedenti) La psicologia sociale ha individuato fattori paralinguistici che aumentano la persuasività del linguaggio: la velocità del linguaggio aumenta la persuasività e l’attendibilità. Norton (1983) ha studiato gli stili comunicativi: - dominante e rilassato → comunica fiducia - sottomesso e nervoso → comunica insicurezza - drammatico influenza positivamente la percezione, l’attrattiva e l’affidabilità della fonte - animato enfatizza e sottolinea aspetti del discorso La combinazione dà luogo a vari effetti. L’efficacia della comunicazione aumenta con uno accorto delle interrogazioni, che stimolano l’attenzione. Nella comunicazione persuasiva quindi entrano in gioco diversi fattori riconducibili a un doppio canale: centrale (variabili di tipo logico) e periferico (elementi analogici: tutto ciò che fa da contorno al discorso). Toulmin (1979) ha studiato come deve essere strutturata un’argomentazione per essere efficace: - Devono essere esposte in modo chiaro le asserzioni - Devono essere supportate in modo attendibile da dati e fatti rilevanti - Deve essere esplicitato il diverso grado di certezza o probabilità delle asserzioni - Devono essere espresse riserve riguardo a circostanze eccezionali che potrebbero falsificare le asserzioni Anche la persuasione è considerata attualmente un processo interattivo tra persuasore e persuaso. La scelta del tipo di tattica dipenderà di conseguenza dall’uditorio e dal contesto. Capitolo 19 L’INTELLIGENZA (Ornella Andreani) Def. popolare: appare chiara, intuitiva, è un concetto d’uso comune per valutare una persona in molteplici contesti in cui è necessaria una definizione di funzioni e ruolo oppure una previsione di successo nella carriera (scolastica o lavorativa). ≠ Def. scientifica: criteri di misura frequentemente criticati come selettivi, poco affidabili, intrisi di pregiudizi di razza, cultura, classe sociale. E’ un argomento trasversale a tutta la psicologia. STUDI PSICOMETRICI I primi studi risalgono ai primi del ‘900 e si basavano sull’analisi delle differenze individuali in abilità (talvolta specifiche e irrilevanti, talvolta più legate ai processi di base che ai processi superiori). Ebbero però un forte sviluppo perché rispondevano alle esigenze della società industriale di allora (selezione per scuola o lavoro). Due linee principali nella costruzione dei test: - Indici globali che differenziano diversi livelli di età (es. Scala di Binet) o di posizione rispetto alla media dello stesso gruppo di età (Scala di Wechsler) Nella scala binet, l’Età Mentale (EM) presuppone un parallelismo tra maturazione cronologica e sviluppo intellettuale che non è lineare e non c’è dopo i 15-18 anni, mentre le scale Wechsler colgono degli aspetti di esperienze e conoscenze, piuttosto che potenzialità intellettuali. - Metodi analitici (test di Thurstone) che misurano diverse dimensioni non correlate tra loro e permettono di costruire un profilo dell’individuo confrontabile con i profili tipici del gruppo di riferimento (classe o gruppo professionale) il valore predittivo dei test fattoriali è minore rispetto a quello degli indici globali 47 Metodi fattoriali Def. l’analisi fattoriale è un metodo statistico basato sull’analisi delle correlazioni tra vari test mentali e prove, con cui si cerca di scoprire le unità funzionali : - di tipo cognitivo abilità - di tipo comportamentale tratti oppure i fattori che stanno alla base di fenomeni associati tra loro. I metodi fattoriali non partono da una definizione precisa e aprioristica dell’intelligenza (come le scale wechsler o Binet), ma partendo da un largo numero di osservazioni empiriche (misurazioni effettuate con uno o più test) fatte su larghi campioni di soggetti, calcola le correlazioni e cerca di identificare: - la struttura fattoriale sottostante - il peso dei singoli fattori - attribuire ai fattori un significato I fattori ripetutamente evidenziati sono di tre tipi: 1) Fattore generale, chiamato anche G di Sperman: corrisponde alle capacità di ragionamento misurate dal Q.I., spiega la correlazione trovata più o meno tra tutti i test; 2) Dal fattore G derivano per effetto dell’educazione e della cultura due grandi fattori di gruppo: verbale-numerico e percettivo-spaziale, spiega la correlazione tra test a contenuto simile; 3) La scuola americana (≠inglese) segnala l’esistenza di fattori specifici, le abilità mentali primarie, presenti solo in un compito determinato, come la percezione, la memoria ecc. da cui deriverebbe in seconda istanza il fattore G. Forse questa differenza è dovuta alla diversa impostazione delle scuole americane dove la specializzazione è precoce. I modelli più recenti hanno cercato di dare non solo una descrizione, ma anche una spiegazione: - Guilford (1950) Pensiero divergente e convergente Ipotizza una struttura dell’intelligenza a tre dimensioni (operazioni, contenuti e prodotti) con funzioni di pensiero convergente (lineare e conformistico) e divergente (creativo). Critica ai test d’intelligenza di misurare, con risposte predeterminate, solo il pensiero convergente. Cattell (1950/60) Intelligenza fluida e cristallizzata Distingue l’intelligenza potenziale, dall’intelligenza frutto dell’interazione con il contesto educativo, sociale, culturale (quella misurata dai test). E introduce la distinzione tra l’intelligenza fluida (che si basa su abilità percettive, di ragionamento, di apprendimento) e cristallizzata (che si basa sulle conoscenze). La seconda con la vecchiaia non decade, e in alcuni casi addirittura migliora. Queste due distinzioni sono molto importanti, ma spesso sfuggono alle misurazioni testistiche e alle valutazioni sul peso che hanno sui risultati. Entrambi gli autori hanno costruito questi modelli utilizzando informazioni provenienti da test costruiti per verificare altre ipotesi e sottoponendoli ad analisi fattoriale. Le applicazioni dei test psicometrici per l’intelligenza vanno dal campo clinico a quello della psicologia del lavoro. I fattori trovati attraverso l’analisi matematica non hanno una realtà psicologica, ma servono per semplificare la descrizione della mente e per costruire dei modelli che possono essere usati per scopi molto diversi. I fattori isolati attraverso operazioni matematiche non hanno una realtà psicologica, ma funzionano come modelli: - descrivere il funzionamento di un individuo rispetto a un gruppo - per comprendere il funzionamento - per delineare le strutture FATTORI EREDITARI E AMBIENTALI Negli anni ’60 / ’70 si accese un dibattito attorno al problema dell’importanza dei fattori ereditariambientali e delle modalità educative (uguaglianza delle opportunità scolastiche) Due blocchi ideologici: - teorie che accentuano il peso dei fattori genetici e chiedono un’educazione tesa a valorizzare le differenze individuali 48 teorie che accentuano l’importanza dei fattori acquisiti e chiedono un’educazione completamente egualitaria. Tra le conseguenze più radicali: un attacco di Jensen nel 1969 ai programmi di educazione compensatoria per bambini svantaggiati. J. Portò dati a favore dell’inferiorità razziale dei negri e affermò l’inutilità di questi programmi. Recentemente Herrnstein e Murray (1994) hanno portato dati provenienti dall’analisi di molti studi che attribuiscono un Q.I. medio diversificato per razze: - Giapponesi: 105 - Bianchi: 100 - Negri: 84 I risultati mostrano un’inferiorità delle classi più basse e anche che in certi casi i programmi compensatori non sono stati molto utili perché l’intervento non ha cambiato le dimensioni veramente importanti dell’ambiente che influisce anche sugli aspetti biologici (malnutrizione, malattie,ecc) oltre che psicologici. In quasi tutti gli studi sulle differenze individuali l’ “effetto razza” viene confuso con l’ “effetto classe sociale”. Le ricerche più recenti hanno messo in dubbio non solo il peso dei fattori, ma anche la loro interazione e evidenziato l’esistenza di modelli individuali di sviluppo e la plasticità dell’intelligenza soprattutto nel caso di interventi precoci. L’ambiente: - esercita un’influenza più forte nelle prime e nelle ultime fasi della vita - agisce già a livello prenatale aumentando i fattori di rischio a svantaggio delle classi povere L’intelligenza è molto più plastica di quanto si credeva (aumento di 10/15 punti di QI nei bambini adottati da classi di livello socioculturale più alto). Agli effetti dell’ambiente sulla biologia dell’organismo e sul bagaglio culturale, vanno aggiunti: - effetto cumulativo dei deficit di esperienze culturali e di linguaggio sullo sviluppo delle operazioni logiche - effetti delle esperienze di successo/insuccesso nel formare l’immagine di Sé, - effetto dell’ambiente sui valori culturali e quindi sulla motivazione al rendimento intellettivo(curiosità, bisogno di competenza). → genetico non vuol dire “che non cambia” Il QI misurato in età adulta è abbastanza stabile, ma varia molto in età di passaggio, anche nell’adolescenza dove le influenze emotive sono molto importanti e possono influenzare in un senso o in un altro la prestazione a seconda di come sono gestite. STUDI SPERIMENTALI Nel periodo dal 1920 al 1950 si affermò il behaviorismo e gli studi sperimentali sull’intelligenza. L’interesse era centrato soprattutto : - sull’osservazione del comportamento intelligente - sui processi di apprendimento - l’associazione stimolo-risposta - il ruolo dei rinforzi esterni Nel 1956, Bruner e coll. Pubblicarono un interessante lavoro sulle strategie del soggetto per il problem solving e per la decisione: l’innovazione era lo studio di processi non direttamente osservabili. Negli stessi anni, nascono gli studi di psicolinguistica di Chomsky che elabora il suo modello della Grammatica Generativa. Nel 1958 compaiono i primi lavori di Newell e Simon sull’Intelligenza Artificiale. Nel 1960 , Miller, Galanter e Pribram pubblicano “Piani e strutture del Comportamento” e danno l’avvio al Cognitivismo. - 49 In Europa: è la scuola della Gestalt che si occupa dell’intelligenza e si applica il concetto di ristrutturazione unitaria del campo percettivo (insight) anche ad ambiti più vicini all’intelligenza come la memoria e il problem solving. INTEGRAZIONE TRA STUDI SPERIMENTALI-COGNITIVI E RICERCHE PSICOMETRICHE E’ un approccio recente, che nasce dalla convenzione che è un errore separare lo studio dei processi cognitivi dallo studio delle differenze individuali. Hunt (1994) insieme con altri autori ha fatto un’analisi dei possibili modelli teorici che spiegano le differenze individuali (risultati delle analisi fattoriali). Esiste un unico fattore G o multipli? Emergono tre possibilità: 1. G = fattore (abilità) generale secondo il modello di spearman T1 e T2 sono compiti di base che comprendono una parte di G e una parte specifica; 2. G = un piccolo numero di processi indipendenti (abilità multiple) T1 e T2 misurano sottoinsiemi di abilità specifiche, che fanno parte di G. 3. G = largo numero di abilità non separabili T1 e T2 misurano sottoinsiemi inscindibili di G Kyllonen (1994) Si basa sulle ricerche della recente psicologia cognitiva e ipotizza che l’Intelligenza sia un processo dell’elaborazione dell’informazione che si basa su quattro componenti: A. Capacità della memoria di lavoro B. Velocità di esecuzione dei sistemi di elaborazione C. Ampiezza delle conoscenze dichiarative D. Ampiezza delle conoscenze procedurali Sperimentalmente, una batteria di test costruita su questo modello rende conto di circa la metà della varianza individuale Metodo genetico e Meccanismi di sviluppo: Piaget La teoria costruttivista: per Piaget, l’intelligenza è un caso di adattamento individuo-ambiente. Vi sono delle funzioni del pensiero costanti (invarianti funzionali): organizzazione e adattamento. L’adattamento è ottenuto attraverso processi di assimilazione e accomodamento. La spinta all’organizzazione determina le strutture attraverso cui il pensiero organizza se stesso. L’attività intellettuale nasce dal bisogno di conoscere che è una motivazione primaria. Le operazioni mentali astratte si sviluppano da quelle concrete attraverso il processo dell’interiorizzazione . La molla interna è il bisogno di equilibrio che va sempre riorganizzato e si dispone in configurazioni chiamate stadi. Una critica fatta al modello piagetiano è proprio che non spiega i fattori della transizione tra stadi. Dal modello piagetiano sono derivati molti e interessanti studi recenti che tendono a recuperare l’importanza del contesto culturale, dei metodi educativi e dell’interazione fra pari nel senso di favorire l’emergere dei processi di pensiero superiori. LA CONOSCENZA E LA TRASMISSIONE CULTURALE Esponenti importanti sono due autori sovietici: Vygotskij e Lurija che considerano determinante il ruolo dell’interazione sociale nell’emergere delle funzioni psichiche superiori. Per Vygotskij (1930) il linguaggio non serve solo per comunicare, ma per trasformare e guidare i processi di pensiero. Per Lurija (1976) la formazione dei processi di pensiero più alti avviene tramite l’interazione sociale nelle relazioni tra adulti e sottolinea come la maturazione individuale riflette la storia dell’umanità. IL COGNITIVISMO E L’ELABORAZIONE DELL’INFORMAZIONE Fondatore Neisser che nel 1967 pubblicò: “Cognitive Psychology”, ma le basi erano già presenti nell’opera di Miller, Galanter, e Pribram. Lo studio è riportato ai processi interni: si usa la metafora del Computer per la costruzione di modelli, la misura dei tempi di reazione e le simulazioni per produrre le prove sperimentali. 50 Si studiano non solo i risultati del comportamento intelligente, ma i processi e le strutture che lo compongono. Si sentono le influenza di Chomski e dell’I.A. Attualmente il più importante esponente è Sternberg (1988 – 1996) che ha proposto un modello di intelligenza triarchico. Tre processi fondamentali: 1. metacomponenti:processi esecutivi che pianificano e controllano l’elaborazione dell’informazione; 2. componenti di performance: che eseguono le strategie pianificate; 3. componenti per l’acquisizione delle conoscenze. Questa teoria cerca di spiegare l’intelligenza secondo tre subteorie: - contestuale: adattamento all’ambiente esterno - componenziale: adattamento all’ambiente interno - esperienziale: che riguarda sia l’esterno che l’interno Il comportamento è intelligente in quanto ha funzione di adattamento all’ambiente, oppure di selezione e modellazione dello stesso. Ha il grande merito di integrare lo studio dell’Intelligenza con lo studio della Personalità, ma non si adatta facilmente a tutte le realtà: i soggetti più dotati sono quelli che riescono di più a modificare l’ambiente e ad affrontare compiti nuovi, attraverso una combinazione di processi automatizzati e di adattamento alle novità, che riguardano abilità di ragionamento, problem solving, verbali e sociali. IL PENSIERO CREATIVO E LA PERSONALITA’ Gardner (1983, 1985) ha formulato la teoria delle Intelligenze Multiple. Sostiene che vi sono molte forme particolari di Intelligenza, che vengono sviluppate in culture diverse e vengono sviluppate in particolar modo in individui in cui il talento coincide con i valori della cultura che lo circonda, dalla quale riceve il sostegno. Esempi: l’intelligenza sociale (riguarda abilità interpersonali), l’intelligenza personale (valorizzazione di sé attraverso forme di arte espressiva). Gardner ha studiato casi di plusdotati e ha confermato che ogni persona è un sistema unico e particolare tra abilità innate e ambienti favorevoli, in cui le abilità si sono sviluppate in anni di lavoro durissimo. L’Intelligenza creativa è: - curiosità - apertura verso il nuovo - anticonformismo - amore per il rischio - capacità di risolvere tensioni interne ed esterne Lo studio dell’intelligenza si sposta quindi anche con Gardner verso lo studio della personalità. Capitolo 20 PERSONALITA’ (Gian Vittorio Caprara e Concetta Pastorelli) La Psicologia della personalità affronta tematiche che riguardano i nessi tra natura e cultura, mente e corpo, individuo e società. Questi temi hanno una tradizione antica di riflessioni, ma una storia recente di studi sistematici. “Persona” = termine latino che significa maschera dell’attore, evoca sia l’apparenza individuale, sia l’appartenenza a un ruolo sociale che può essere interpretato da molti. Gli interrogativi recenti concernono le radici e le espressioni di quanto vi è di condiviso e unico nel modo di presentarsi, agire, sentire di un individuo. Def. personalità: un’organizzazioni di modi di essere, di conoscere, di agire, che assicura unità, stabilità e coerenza e progettualità alle relazioni dell’individuo con il mondo. 51 La personalità si muove tra i due poli: - struttura (come la personalità si presenta e si identifica nei tratti dell’individualità) Tratti: sono disposizioni ad agire relativamente stabili rispetto al variare delle circostanze. E’ un concetto centrale nella psicologia della personalità Carattere: termine usato come sinonimo di personalità, o in alternativa al concetto di personalità con un’accentuazione delle componenti valutative-morali. Rimane controversa la tematica relativa alla natura e al numero dei tratti: alcuni li considerano espressioni del patrimonio genetico (→ genetisti), altri espressioni fenotipiche che risultano dall’interazione con l’ambiente. La configurazione dei tratti dà l’elemento strutturale dell’individuo. Temperamento: aspetti che concernono caratteristiche energetiche e temporanee dell’individuo: la reattività, l’irritabilità, … più collegate al substrato biologico, rispetto ai tratti. Tipi: costellazioni di tratti o mega-tratti riassuntivi. Dinamica: il funzionamento della personalità come sistema autoregolatore, autoconsapevole, capace di riflettere su sé stesso e interagire con l’ambiente in modo da perseguire delle mete. In particolare si riferisce ai processi che presiedono alla costruzione del Sé, della propria identità, alla messa in atto di strategie appropriate. La Psicologia della Personalità mira a svolgere una funzione di giuntura tra gli studi degli aspetti di base e le applicazioni nei contesti operativi. Spesso in contesti applicativi si è dovuto sopperire con l’intuito alle lacune date dall’impossibilità di sperimentare in questi campi. Recentemente si è affermata la posizione che la personalità è una costruzione che avviene nel corso dello sviluppo e alla quale l’individuo può contribuire attivamente. TAPPE DI SVILUPPO DELLA PSICOLOGIA DELLA PERSONALITA’ La psicologia della personalità si è spesso intrecciata con la “vecchia” psichiatria tassonomica, con la psicoanalisi, con la psichiatria clinica di Janet, con la tradizione delle differenze individuali. Nell’ottica di una distinzione, negli ultimi 70 anni, la psicologia della personalità si è sviluppata nel nordamerica e può essere distinta in tre fasi: - Una prima fase di “ricerca delle definizioni” in cui la psicoanalisi porta un modello criticabile, ma non prescindibile, di concezione dell’uomo e dello sviluppo e di cosa possa essere la psicologia della personalità. Tra gli anni ’40 e ’70: dopo aver creduto nella possibile integrazione di varie discipline (sociologia, antropologia e psicologia) e di vari indirizzi (comportamentismo, Gestalt e psicoanalisi), viene meno questa convinzione e si rafforzano le scissioni tra: - studio del comportamento individuale vs studio dei movimenti sociali e culturali - le diverse prospettive vs. principi della psicologia scientifica. La psicologia della personalità è sempre più confinata allo studio delle differenze individuali. Sembra quindi inevitabile rinunciare ai grandi temi e ripiegarsi su problemi meno ambiziosi: proliferano le micro-teorie. Con gli anni ’80, si apre una nuova fase, si afferma il paradigma “socialcognitivo”: - nuova curiosità per le differenze individuali - rinnovato interesse per la ricerca su casi singoli - nuove tecniche di elaborazione Il funzionamento e lo sviluppo della personalità è concepito come un processo triadico di reciproche influenze: persona → ambiente → condotta (che risulta dagli scambi tra ambiente e persona e li condiziona a sua volta). Il dualismo eredità-ambiente si risolve con il concetto di interazione: sin dal concepimento l’interazione ambiente-eredità determina ciò che una persona è. - 52 INDIRIZZI E STRATEGIE DI RICERCA Diverse scuole o correnti di pensiero: quelle che si fondano sul metodo clinico: di ispirazione psicoanalitica e fenomenologia; quelle che utilizzano il metodo correlazionale: studi sull’individuazione dei tratti e ricerca della struttura di personalità; quelle fedeli al metodo sperimentale: che mirano a trovare leggi generali che regolano i vari aspetti della personalità. Psicologia del profondo Freud: la psicoanalisi ha posto al centro dell’interesse la teoria del conflitto tra le istanze psicologiche profonde: conscio-inconscio, pulsioni-strutture adattive, affetti-cognizioni-comportamento. E’ stata sempre maggiore l’importanza riconosciuta alle prime esperienze e alle relazioni affettive nello sviluppo della personalità. Le pulsioni sono le determinanti psichiche: forniscono l’energia e la motivazione all’azione. La personalità è un’organizzazione articolata su tre strutture (Io – Es – SuperIo) che deriva dalla necessità di soddisfare i bisogni dell’organismo, tenendo conto delle istanze ambientali. Gli anni dell’infanzia acquistano un’importanza particolare. Adler: “psicologia individuale”, in cui acquista maggiore importanza la sfera della consapevolezza, si accentua l’importanza delle relazioni interpersonali e delle condizioni sociali e la tendenza dell’individuo all’autorealizzazione. Jung: “psicologia analitica”. La personalità appare il risultato di una storia personale, di una storia collettiva e di un’istanza che spinge all’autorealizzazione del Sé. La libido diventa energia psichica e l’inconscio si divide in personale e collettivo. La personalità risulta dalla combinazione di quattro funzioni psicologiche fondamentali: - pensiero - sentimento - sensazione - intuizione e di due orientamenti: - introversione - estroversione Sviluppi post freudiani: - Anna Freud: “Psicoanalisi dell’Io” - Klein e Winnicott: “Psicoanalisi delle relazioni oggettuali” - Bion: studio dei gruppi Psicologia umanistica Gli indirizzi fenomenologico-esistenziali hanno sottolineato soprattutto il valore dell’esperienza soggettiva, e il diritto di ogni uomo a realizzare un proprio progetto di vita. Le fonti di disagio psichico sono le limitazioni poste dagli altri a questo progetto. C’è una decisa lotta al riduzionismo psicologico che penalizza l’individualità. Psicologia dei tratti Alla base c’è la convinzione dell’esistenza di una struttura latente di tratti (o disposizioni) che rende ragione della diversità delle manifestazioni psicologiche. Spesso è implicita la convinzione che questa struttura sia innata e radicata nella biologia dell’individuo. Hanno usato sistematicamente l’analisi fattoriale. Allport ha definito i tratti come “sistemi neuropsichici generalizzati e focalizzati, capaci di rendere molti stimoli funzionalmente equivalenti, e capaci di iniziare e guidare coerenti forme di comportamento adattivo ed espressivo”. 53 Altri autori: Cattell e Guilford Le ricerche attuali convergono sostanzialmente su 5 tratti fondamentali, i cosiddetti Big Five: 1) Estroversione/Introversione 2) Amicalità 3) Coscienziosità 4) Stabilità emotiva/Nevroticismo 5) Intelletto Il Modello Big Five si basa sull’”ipotesi lessicale” che assume che il vocabolario naturale contenga le parole per descrivere la personalità, più importanti sono le differenze individuali e più è probabile che vengano espresse con singole parole. Da qui il Big Five Questionnaire (BFQ). Situazionismo (Comportamentismo) Quello che caratterizza le teorie dell’apprendimento in psicologia della personalità, oltre agli elementi che valgono anche in altri ambiti, è l’attenzione al contesto. La personalità corrisponde a una gerarchia di abitudini e di apprendimenti consolidati da rinforzi. Recentemente la diffidenza verso il mentale si è stemperata e l’erede è la teoria cognitivo-sociale di Bandura. Social-Cognition Autore fondamentale è Bandura. L’ambiente ha ancora una grande importanza ma svolge la sua influenza su un apparato mentale strutturato, i rinforzi sono esterni, ma anche interni e la personalità si configura come un sistema attivo. La personalità riflette, assimila e trasforma le influenze del mondo esterno. Concetto di “Autoefficacia percepita”: la fiducia nelle proprie capacità di organizzare una serie di azioni al fine di raggiungere uno scopo. Nasce da specifiche condizioni che ha un soggetto sulle proprie capacità di far fronte a specifiche prove. E’ di conseguenza, una misura del controllo che un soggetto ha sull’ambiente. Si modifica con le esperienze, la persuasione verbale, l’osservazione di modelli. L’Interazionismo Ha avuto due fasi: il primo interazionismo era “meccanicistico”, mirava alla spiegazione delle differenze individuali impiegando l’analisi della varianza. Una seconda generazione “dinamica” ha studiato i rapporti di causalità reciproca tra gli individui come soggetti attivi con l’ambiente. L’interazionismo non si pone il problema di stabilire il primato tra strutture e situazione, ma di capire come avvengono le influenze tra i due sistemi. La ricerca longitudinale è il metodo privilegiato. Da questi studi emerge la stabilità nel tempo dei tratti, non come comportamenti, ma come stili di condotta personali. Capitolo 21 PERCEZIONE (Walter Gerbino) Funzioni della visione Il mondo percepito non è una rappresentazione completa e veridica del mondo fisico di cui l’uomo fa parte. Generalmente però questa rappresentazione è adeguata. Le anomalie sono dette illusioni visive, sono un insieme eterogeneo di effetti accomunati dalla sorpresa del soggetto per le aspettative tradite. Dipendono: - dai meccanismi di registrazione dell’input ottico (e costituiscono una fonte di conoscenza di quest’ultimo) - dai meccanismi di codifica dell’input sensoriale da parte del sistema rappresentazionale-visivo 54 Nel quotidiano, la scena visiva appare come un mondo internamente coerente, con strutture e attributi integrati in un unico codice linguistico. Sintesi: La funzione del sistema visivo è assicurare una rappresentazione adeguata del mondo esterno. Per farlo il sistema ricorre a regole di funzionamento. In situazioni di input visivo ridotto, si assiste a fenomeni (illusioni) di instabilità percettiva o ambiguità che rivelano le regole di funzionamento del sistema visivo e il peso dato alle varie fonti di informazione. La scienza della visione ha dei limiti strutturali riguardo alla conoscenza: l’esperimento di pensiero noto come “Inversione dello spazio dei colori” (due individui con davanti colori diversi ai quali danno lo stesso nome) dimostra come non ci è dato di conoscere i “qualia” (natura qualitativa degli elementi) dell’esperienza visiva, ma solo i rapporti reciproci fra gli elementi. Abbiamo solo prove di tipo comportamentale che confrontano la percezione (appunto!) ma non i “qualia”. Possiamo comunque rassicurarci di stare studiando un insieme di rappresentazioni equivalenti allo spazio dei colori per esempio, e essere sicuri che la struttura del nostro sistema e di quello “esterno” non varia. Koffka (1935): “Why do things look as they do?” La risposte del senso comune sono di due tipi: 1. realismo ingenuo: perché il mondo reale è così, ma a volte questa ipotesi non regge 2. adattamento: l’individuo si è adattato alle circostanze prevalenti nel suo ambiente (anche su base culturale) Nella scienza della visione la posizione è quella del realismo critico: il mondo percepito è un modello del mondo fisico, elaborato a due livelli (input sensoriale, rappresentazione visiva). La rappresentazione deve essere: - adeguata agli scopi dell’azione e della descrizione verbale del mondo fisico (adeguatezza della rappresentazione) - aderente all’input sensoriale (all’informazione ottica). Catena psicofisica: Mondo fisico → informazione ottica → input sensoriale (1) (2) Il primo passaggio è un mappaggio distruttivo (confusione tra componenti che nel mondo fisico son ben separate e riduzione da 3 a 2 dimensioni), il secondo passaggio è un mappaggio ricostruttivo (il sistema visivo cerca di recuperare le proprietà del mondo fisico, perse). FENOMENI ACROMATICI L’ “indeterminazione fotometrica”: la quantità della luce che raggiunge l’occhio è: L (luminanza) = r (riflettanza) x I (illuminazione) Da questa equazione risulta impossibile stabilire dalla luminanza direttamente la riflettanza (proprietà dell’oggetto). 55 Questa conclusione è formalmente corretta, ma errata. Esperimento Gelb (1929): Apparecchiatura: proiettore, stanza buia, cerchio di cartone. Un cerchio grigio appare bianco, ma se mettiamo accanto un cerchio più chiaro, appare bianco quest’ultimo e grigio l’altro. In condizioni quotidiane prevale la “costanza del colore acromatico”, ma se mancano le condizioni per la determinazione fotometrica (sotto illuminazione localizzata), si verificano grossolane illusioni. Conclusioni: il sistema usa, per determinare il colore di superficie, non la luminanza locale, ma i rapporti tra le varie luminanze e prende come riferimento la luminanza più elevata. Esempi: Luna, neve/bianco delle case. Contrasto simultaneo: il grigio su sfondo bianco appare più scuro del grigio su fondo nero. Viene attribuito a: - un meccanismo fisiologico: l’inibizione laterale, che accentua il contrasto ai bordi, - al “filling-in”: fenomeno di riempimento delle zone delimitate da bordi (vedi Anello di Benussi-KoffkaWertheimer) Prove sperimentali ulteriori suggeriscono che più che il contrasto locale, sia importante l’appartenenza alle varie unità: - che danno luogo a fenomeni di luce/ombra (il contrasto si accentua se è disposto sulle facce di un cubo in prospettiva) - che creano effetti di trasparenza/sovrapposizione (effetto di tessuto “scozzese”) L’intero sfondo (≠ zone di confine) circostante una determinata zona fa da schema di riferimento: fenomeno dell’ “ancoramento al contesto”. PROPRIETA’ GEOMETRICHE E PERCEZIONE Nel caso dell’ “indeterminazione radiale” la stessa grandezza può corrispondere a differenti distanze, e la stessa forma a diverse inclinazioni rispetto all’asse visivo. Da qui derivano due principi della rappresentazione visiva: - invarianza forma/inclinazione - invarianza distanza/grandezza Regioni identiche sul piano pittorico assumono diversa forma/grandezza, se sono disposte in un contesto a distanze e inclinazioni diverse . Questi criteri rispondono a un’esigenza di coerenza dell’immagine visiva con il mondo fisico, nel quale le grandezze rimangono costanti anche a dispetto di informazioni ottiche molto diverse. Come queste costanza vengano ottenute, non è ancora chiaro. L’ “indeterminazione occlusiva”: gran parte dei corpi nel mondo fisico, non lasciano passare la luce, quindi occludono parti di sé o parti di altri oggetti e determinano il problema dell’organizzazione figura/sfondo. Rubin dal 1921 studiò questi fenomeni, prendendo in causa il principio di minimo o di economia. Dimostrò alcuni effetti: - Area minore: a parità di altre condizioni, tendono a diventare figure le regioni più piccole - Costanza di larghezza: a parità di altre condizioni, tendono a diventare figure le parti a larghezza costante (segno del mulino a vento) - Orientamento gravitazionale: tendono a diventare figure gli oggetti coerenti con l’orientamento gravitazionale (nella parte bassa del campo visivo) - Organizzazione duale: se la configurazione complessiva lo consente il sistema visivo ammette l’esistenza di un bordo anche se non è segnato. Può essere: 1. stratificata: una figura davanti a un’altra 2. non-stratificata: due figure adiacenti 56 La stratificazione comporta la creazione di contorni: - modali: che si vedono - amodali: dati dall’interpolazione delle zone occluse, non si vedono Petter (1956) ha dimostrato che la tendenza generale è quella di minimizzare i contorni modali (figure). Un caso speciale di organizzazione duale sono le “figure anomale”, delimitate dai contorni illusori: la più famosa è il “triangolo di Kanisza”. E’ un caso speciale perché il bianco si scinde in due parti: una fa da sfondo e una da figura. Il completamento amodale è un fenomeno tipico e molto diffuso: ha la funzione di costruire e mantenere l’identità degli oggetti. OGGETTI Wertheimer fu il primo a occuparsi delle condizioni per la formazione degli oggetti fenomenici intesi come totalità indipendenti dalle proprietà degli elementi che li formano. Formulò una serie di leggi, molto eterogenee e ancora oggi non è chiara la loro sistematizzazione. Principi di Wertheimer: - Prossimità Il sistema visivo collega gli elementi più vicini tra loro. - Articolazione senza resti Il sistema tende a formare unità in modo che non rimangano elementi isolati, senza significato. - Somiglianza E’ un concetto complesso anche in ambito filosofico: vanno definiti i criteri che usa un sistema per rendere operativo il concetto di somiglianza. Esperimento di Beck: sotto attenzione focale, la somiglianza tra le strutture è più importante della somiglianza di orientamento es. le T sono più simili) ≠ se l’attenzione è distribuita: prevale l’orientamento sulla struttura. Capitolo 22 LO SVILUPPO SOCIOCOGNITIVO NELL’INFANZIA (Paola Di Blasio ed Elena Camisasca) Gran parte delle teorie attuali sullo sviluppo sociocognitivo nell’infanzia si fondano sulla genesi sociale e interattiva dei processi psichici e sull’idea che tali interazioni vadano intese come attività coordinate in un insieme unitario e significativo. La psicologia dell’età evolutiva tradizionale non considera questi aspetti, centrandosi di più sull’ambiente esterno e sui processi ad esso impliciti, come l’allevamento, le modalità di nutrizione, ecc. Si necessita però di un paradigma che tenga conto dell’interattività per comprendere meglio aspetti del genitore e del bambino. La relazione non è un obiettivo dello sviluppo, ma una condizione presente da subito, resa possibile dalla predisposizione dei neonati alla vita sociale. Nella relazione con l’adulto e poi coi pari, si realizza un costante scambio-adattamento che modifica le risposte del bambino e dei genitori-coetanei. Le competenze cognitive e sociali precoci Fin dalle prime settimane di vita il bambino influenza la vita degli adulti ed è ad essi strettamente coordinato. Può identificare una sorgente odorosa e al sesto giorno può riconoscere l’odore della madre. Fin dalla nascita è sensibile al gusto, tanto da manifestare preferenza per sapori dolci. E’ predisposto a ricevere ed elaborare informazioni che provengono dall’ambiente, soprattutto se provenienti da voci e volti umani. Ha preferenza per il volto umano del quale scopre prima i contorni e poi i dettagli interni. Ha sensibilità percettiva per le espressioni dei volti e a tre mesi, le distingue, rispondendo in modo appropriato. L’udito, alla nascita, risulta particolarmente sensibile alla voce umana: la voce materna era nota già dalla vita intrauterina. Si presuppone l’esistenza di un’organizzazione temporale endogena, che gli permette di apprendere regole dell’interazione sociale, come l’alternanza dei turni. 57 Nei primi mesi si assiste alla coorientazione visiva, come premessa di ogni interazione; seguono gli pseudodialoghi e infine, verso i 10 mesi, dialoghi veri e propri. Inizia a stabilirsi quindi una relazione con il caregiver. nel periodo postatale l’obiettivo principale consiste nel regolarizzare i processi fisiologici fondamentali per renderli compatibili con le richieste ambientali. Dai 6/8 mesi, i bambini iniziano a dimostrare timore per l’estraneo: M. Ainsworth ha studiato in strange situation l’attaccamento. Le reazioni del bambino all’estraneo variano in concordanza con la modalità interattiva e sono modulate in base alle caratteristiche dell’ambiente circostante. I genitori maltrattanti accentuano emozioni negative e influenzano negativamente lo sviluppo della competenza emotiva dei figli, che presentano difficoltà a regolare e comprendere le emozioni proprie e altrui. Teorie della mente e comprensione delle intenzioni Ricerche recenti sulla “teoria della mente”, negli anni 80, hanno contribuito a spiegare sia gli stati di coscienza (es. credenze, pensieri), sia gli stati intenzionali (es. emozioni, intenzioni) Def. Originale: teoria della mente capacità di attribuire stati mentali agli altri, dove stati mentali sono sia le esperienze soggettive emotivamente ricche (es. desiderare qualcosa), sia condizioni più astratte (es. pensare, credere, ecc) Secondo Wellman (1990) un bambino: - a 2 anni psicologia del desiderio Riescono a rappresentarsi correttamente i desideri e la loro funzione nel modulare il comportamento umano. - mentre dai 3 in su psicologia del desiderio-credenza Cominciano a riferirsi agli stati cognitivi, di ciò che loro od altri sanno, pensano o ricordano. Non si tratta di rappresentazioni adulte e quindi vere o false, ma di copie fedeli della realtà. - 4-5 anni il bambino è in grado di rappresentarsi l’altro, come un soggetto con desideri e credenze, vere o false, rispetto alla realtà esterne e differenti dalle proprie. E’ in grado di risolvere il False belief task paradigma sperimentale di Perner (1983), basato sul compito di preveder il comportamento di un attore o in base alla sua credenza o in base al dato di realtà. E’ a quest’età che si arriva quindi a formulare una teoria della mente e a capire come diverse percezioni, possano indurre le persone a interpretazioni diverse. Dunn (1990) sostiene che la natura dei rapporti intrafamiliari solleciti lo sviluppo delle capacità di intuire sentimenti e intenzioni delle persone, rapporti di potere e principio di giustizia è nei rapporti coi fratelli che i bambini vivono a 2-3 anni le esperienze sociali più intense, comprendendo sentimenti e intenzioni altrui. A quest’età capiscono che le regole si applicano in modo diverso a persone diverse. Perner et al. hanno ipotizzato dagli studi di Dunn, che sia il numero di fratelli presenti in una famiglia, sia la loro differenza di età, possa favorire la capacità di comprendere i pensieri e sentimenti altrui. poiché i figli unici danno uguali prestazioni, si pensa che le variabili cruciali siano le sollecitazioni fornite dall’interazione con gli adulti. Stili di attaccamento e competenze metacognitive e sociali nei bambini Le relazioni sociali e i modelli mentali del bambino si organizzano a partire dalle prime esperienze affettive con le figure di accudimento (madre). La rispondenza emotiva tra adulto e bambino sembra l’aspetto che maggiormente condiziona la qualità del legame tra i due partners. Ainsworth et al. sono tra i primi esponenti della teoria dell’attaccamento ed hanno individuato tre stili diversi, presenti già nei bambini di 1 anno: - attaccamento sicuro rassicurante fiducia nella disponibilità e nell’appoggio dell’adulto: separati dalla madre, dimostrano sconforto, ma poi esplorano l’ambiente madre che richiede il contatto solo quando vuole e non - attaccamento ansioso-ambivalente secondo i bisogni del bambino: separati dalla madre, piangono inconsolabili, non esplorano l’ambiente e quando la madre torna, dimostrano rabbia e aggressività. - attaccamento ansioso-evitante madre completamente insensibile ai segnali del bimbo, che scoraggia e rifiuta il contatto fisico quando il bimbo sta “male”: separati dalla madre, anche se 58 hanno paura, non dimostrano sconforto. Esibiscono eccesso di autonomia e concentrazione sul compito. Al ritorno della madre, sono distaccati ed evitano il contatto. - Attaccamento disorganizzato o disorientato presentano modalità comportamentali particolari. Si riscontra in bambini maltrattati fisicamente e/o trascurati, in cui la madre è depressa gravemente o che soffre di lutti irrisolti. Strutturazione e mantenimento degli stili di attaccamento attraverso i primi scambi con le figure di attaccamento significative, l’individuo forma dei modelli operativi interni (working models) sempre più complessi, sia delle figure di attaccamento, sia di sé stesso. Queste rappresentazioni interne indirizzeranno poi l’individuo nella interpretazione delle informazioni del mondo esterno e guideranno il suo comportamento nelle situazioni nuove (es. A. evitante immagine di sé come di non degno d’amore e della figura d’attaccamento, come di colui da cui non aspettarsi nulla) Tali aspettative verranno poi estese a tutte le figure affettive nel corso della vita e determineranno i comportamenti indirizzati ad esse. Studi recenti hanno evidenziato come la sensibilità del caregiver, influenzi la capacità del bambino di attribuire stati mentali a sé o agli altri. Rifacendosi a ciò, alcuni autori hanno cercato di individuare le connessioni tra sicurezza nell’attaccamento e sviluppo delle capacità cognitive il caregiver sensibile, fa comprendere al bambino che il suo comportamento può venir meglio capito se fatto risalire a sentimenti ed idee. Il bambino è visto quindi come avente un proprio stato mentale. Nella formazione del sé riflessivo (Fonagy), ovvero del sé che comprende la consapevolezza dei propri stati mentali, è decisiva la capacità del caregiver di catturare gli aspetti dell’attività del bambino e aggiungervi una “intentional stance”. Bambini di 2-3 anni con attaccamento sicuro, rispetti a quelli con attaccamento insicuro, sono più socievoli e fiduciosi, competenti nel risolvere problemi o conflitti sociali e si appoggiano efficacemente agli insegnanti usandoli come risorse. Gli insicuri-evitanti non mostrano il loro stato emotivo, soprattutto quando ne hanno bisogno, sono isolati e ostili e dimostrano una crescente prudenza verso gli altri e la tendenza a percepire le relazioni sociali come minacciose. Risultano essere più timorosi di subire privazioni, più sensibili a critiche e ironia, permalosi e con atteggiamenti di vittimismo verso gli altri. Negli incontri con più figure di attaccamento, i primitivi working models evolvono nel tempo, anche per la necessità di integrare nuove esperienze relazionali. Il comportamento Prosociale Già nei primi due anni di vita compaiono quelle capacità empatiche (precursori dell’altruismo), che consentono di percepire il disagio altrui e reagirvi con risposte tese ad alleviare la sofferenza. Con l’aumentare dell’età si suppone che si affini nel bambino la comprensione dei bisogni altrui, favorendo la tendenza a condividere e prestare aiuto. La connessione tra età e comportamento d’aiuto sembra però meno forte di quella tra età e generosità. Il comportamento d’aiuto richiede infatti una serie di operazioni complesse, che possono interferire con l’attivazione dell’azione altruistica. Ricerca di Staub tendenza dei bambini a non rispondere alle invocazioni d’aiuto: forse perché l’altruismo entra in conflitto con le paura della disapprovazione dell’adulto. Tra le condizioni che possono favorire o inibire il comportamento prosociale è il positivo valore dato alle pratiche educative, alle esperienze familiari e all’atteggiamento dei genitori: uno stile educativo basato sulla tendenza a dare spiegazioni, a usare il ragionamento, più che le punizioni, costituisce un fattore facilitante il comportamento altruistico e la comprensione delle esigenze altrui. La relazione con i coetanei Fin dalla prima infanzia i bambini dimostrano di avere preferenze nella scelta dei compagni, che si consolidano in vere e proprie amicizie, caratterizzate sia dalla ricerca di prossimità, condivisione e reciprocità, sia da conflitto (sul possesso e uso degli oggetti) e competitività. Gli amici di 2-4 anni tendono a stabilire un contatto fisico, mentre i bambini più grandi, un contatto verbale. Il comportamento prosociale tra amici tende a produrre azioni positive più consistenti, come donare, condividere e produrre gesti di intimità: quindi solo alcuni tipi di azione (aiuto e conforto) possono essere considerati tipicamente prosociale, poiché gli altri (dare e gesti d’intimità) sono indicatori di amicizia. 59 La relazione amicale rappresenta un fattore determinante che attiva facilmente una sensibilità emotiva più spiccata e interventi prosociale più frequenti. Capitolo 23 LA VALUTAZIONE DELLO SVILUPPO (Marta Montanini Manfredi e Paola Corsano) La valutazione è un processo attraverso cui si descrive il cambiamento nel tempo di un individuo rispetto a una dimensione evolutiva. Il punto di partenza è costituito dalla definizione precisa degli obiettivi da perseguire: - obiettivi di tipo normativo stabilire la normale progressione dei cambiamenti nel tempo per individuare, rispetto alla popolazione standard, quali comportamenti sono caratteristici di un’età. Metodologia: ricerca logintudinale (stesso sogg nella crescita) o trasversale (gruppi di età diverse ma equivalenti per altre variabili). Si possono unire entrambi gli approcci, analizzando gruppi di età differenti in modo sequenziale. - obiettivi di tipo applicativo in questo ambito c’è maggior diffusione della valutazione dello sviluppo: deve essere basata su un esame in profondità effettuato sul caso singolo. Metodologia: può avvalersi di metodologie collaudate, come l’osservazione diretta e indiretta, i test e gli strumenti standardizzati. Una volta definiti gli obiettivi della valutazione, bisogna individuare gli strumenti. Esiste una relazione tra ipotesi teoriche sullo sviluppo in generale e le rispettive modalità di valutazione di esso: - prospettiva organismica-contestuale (piaget e neopiagetiani) uomo è organismo attivo e competente che si costruisce ed è costruito. Si può usare l’osservazione, il metodo sperimentale o il colloqui clinico piagetiano. - prospettiva ermeneutico-comprendente (teorie psicoanalitiche) l’individuo costruisce una “sua storia”, dalla cui interpretazione si può estrapolare un racconto tipico e costruire una casistica. Si possono usare il colloquio clinico psicoanalitico, ma soprattutto l’osservazione psicoanalitica. Parallelamente alle varie prospettive teoriche, c’è una divergenza sullo sviluppo come processo continuo o discontinuo. Quale sviluppo? Lo sviluppo è un processo interattivo e multifattoriale che si svolge nel tempo e che si estende dalla nascita fino alla morte. La recente prospettiva life-span ha individuato in ogni fase del ciclo di vita la possibilità di sperimentare cambiamenti positivi. Non tutte le età sono state ugualmente indagate: l’infanzia è stata privilegiata, insieme all’aspetto cognitivo. Negli ultimi anni sono state condotte numerose ricerche sul temperamento e sul periodo neonatale. Per lo sviluppo fisico o cognitivo è più facile individuare una progressione continua, anche se “per salti”, con una quota innegabile di discontinuità, nella direzione di una sempre maggiore maturità (livelli diversi di sviluppo quantificabili). Per le dimensioni evolutive di tipo sociale invece non è sempre agevole la misurazione: questo tipo di valutazione non mira a quantificare o collocare un soggetto rispetto alla sequenza considerata normale, ma di comprendere come i diversi fattori individuali, relazionali e culturali si combinano nella competenza sociale. Valutazione del neonato Uno strumento di valutazione neonatale dovrebbe avere elevato potere diagnostico e prognostico e dovrebbe consentire di monitorare tutte le situazioni definite “a rischio”: subito dopo la nascita vengono effettuate diverse procedure finalizzate a valutare lo stato di salute del bambino (indice Apgar). Per una valutazione neurologica del neonato lo strumento più usato è l’esame di Prechtl e Beintema. Le scale neurocomportamentali comprendono prove sia neurologiche sia comportamentali. La più utilizzata è quella di Brazelton, nota come NBAS, somministrata nel primo mese di vita: valuta le abilità interattive del neonato, il suo comportamento sociale e di sollecitare nel caregiver un’interazione adeguata. Intelligenza: come valutarne lo sviluppo? Permangono modalità differenti di considerare e valutare l’intelligenza: 60 modello piagetiano cerca principi generali, l’approccio è qualitativo e privilegia la discontinuità dello sviluppo (es Scale ordinali di Uzgiris e Hunt, EPL e BAS) - modello psicometrici cerca differenze individuali, l’approccio è quantitativo e interessato a rilevare la continuità evolutiva (es WAISS) Sono moltissimi i test costruiti a partire dalla scala di Binet e Simon, per valutare l’intelligenza. Vengono classificati in due gruppi: - misurano un’abilità mentale generale (fattore G dell’intelligenza) WAISS - misurano una serie di abilità specifiche, individuate mediante l’analisi fattoriale Negli ultimi anni Sternberg cercò di spiegare l’intelligenza tramite il modello triarchico (1984): tale approccio supera la divergenza tra continuità e discontinuità nello sviluppo, individuando la prima a livello di prestazioni (componenti) e la seconda a livello delle funzioni di controllo (metacomponenti). I tre distinti processi possono essere valutati con test che valutano le prestazioni dei soggetti in relazione al contesto e alla precisa situazione in cui l’individuo si trova i soggetti si differenziano rispetto alla loro capacità di utilizzare dati offerti dal contesto ed elementi della propria esperienza. La valutazione della personalità e dello sviluppo socioaffettivo Si sta affermando un nuovo approccio allo studio della personalità che rivaluta la nozione di temperamento e che tenta di valutarlo. La definizione più credibile di temperamento è in termini di “stile comportamentale” differenze individuali nel comportamento del bambino, caratteristiche presenti dalla nascita, permettono di ipotizzare stili comportamentali diversi che influenzerebbero fortemente le modalità allevanti della madre o del caregiver. Uno sviluppo positivo del bambino è garantito dalla goodness of fit e cioè, una perfetta concordanza tra le caratteristiche del bambino e le aspettative e le risposte dell’ambiente. Le dimensioni rispetto alle quali i bambini differiscono già alla nascita sono: livello di attività, regolarità delle funzioni biologiche, ritirata o approccio a stimoli nuovi, adattabilità, soglia sensoriale, umore prevalente, intensità delle reazioni, distraibilità e persistenza. Queste dimensioni permettono di individuare tre categorie di temperamento: bambino facile, bambino difficile e bambino lento a scaldarsi. Oltre ai test e questionari, nella ricerca viene usata l’osservazione. Capitolo 24 LA MEMORIA : PROCESSI, MECCANISMI E FATTORI DELLO SVILUPPO (Olimpia Pino) La memoria che presuppone l’intenzione di ricordare è chiamata: strategica; quella che si verifica senza intenzione: automatica. Con il processo evolutivo dovrebbero evolvere le strategie e quindi evidenziarsi differenze solo nella memoria strategica e non in quella automatica (questa distinzione è molto popolare, anche se dubbia). Riferimento al modello di Memoria di Tulving, in particolare alle relazioni tra memoria e consapevolezza: Episodica → Autonoetica gestisce la ritenzione di episodi o eventi specifici, sperimentati personalmente Semantica o generale → Noetica conoscenza del mondo posseduta da un soggetto (Procedurale → Anoetica) Tulving (1985) ha insistito molto sulla differenza tra ricordare (esperienza autonoetica) e sapere (esperienza noetica). Perlmutter (1988) distingue tra: a) conoscenza epistemica (conoscenza del mondo: semantica ed episodica)* b) conoscenza operativa (procedure, abilità e strategie, anche di memoria) c) conoscenza metacognitiva (conoscenza sul funzionamento della memoria)* * bambini avranno prestazioni più scarse rispetto ai sogg adulti, poiché non possono correlare gli eventi a esperienza personale. Memoria: retrospettiva: che si riferisce alle cose fatte prospettica: che si riferisce alle cose da fare - 61 Questa distinzione è di interesse recente, perché interessa abilità e fenomeni della vita quotidiana più che del laboratorio. Memoria implicita ed esplicita: Memoria autobiografica: assume un’importanza soprattutto applicativa, in psicologia giudiziaria, per questo è importante attualmente. a- Diverse forme di memoria, se veramente distinte, richiedono procedure diverse di indagine e sollevano problemi metodologici diversi: le memorie prospettica e autobiografica pongono problemi metodologici per quanto riguarda lo studio con i bambini, per questo sono poco studiate. b- Alcune forme di memoria hanno guadagnato maggior interesse da parte degli studiosi, come la memoria strategica, episodica e retrospettiva. Negli anni ’70 e ’80, la memoria è stata descritta in base a due deficit nei bambini: deficit di mediazione e di produzione. Quindi si sono molto studiate le strategie, il loro sviluppo e il modo di migliorarle. Negli anni ’90 si sono ampliati gli studi a carattere “ecologico” e si è giunti a considerare lo sviluppo della memoria un processo interattivo, di adattamento all’ambiente, che considera come fattori determinanti per la prestazione: il contesto, lo stato del soggetto, il livello di sviluppo, le differenze individuali. Strategie e base di conoscenza: che cosa si sviluppa? Def. strategie: attività cognitive o comportamentali, appropriate al compito, attivate sotto controllo intenzionale e consapevole del soggetto, al fine di migliorare il ricordo. → Esistono anche processi automatici e inconsapevoli che aiutano il ricordo! C’è un sostanziale accordo tra i ricercatori sul fatto che nell’infanzia le strategie, quando ci sono, sono limitate: il comportamento mnesico abitualmente manifestato dai bambini non è strategico, e può diventarlo solo se il contesto favorisce la messa in atto di strategie. Si ritiene che lo sviluppo aumenti l’ efficienza di elaborazione , per tre ordini di fattori: 1. aumentano le abilità di codifica che influenza il grado di accessibilità dei concetti; 2. emerge l’organizzazione automatica degli stimoli(individuare relazioni tra eventi); 3. aumenta la capacità di utilizzare le strategie mnesiche. L’organizzazione degli eventi-stimoli nell’infanzia si basa su tre classi di relazioni, che compaiono in modo diverso al variare dell’età : Relazioni associative: - due o più eventi che spesso si presentano insieme - per lo più automatiche - si formano dall’esperienza diretta. → Memoria Autobiografica Relazioni schematiche: - gli eventi si collocano in successioni causali o spazio-temporali - gli eventi sono associati per appartenenza al medesimo “script” o routine - si formano dall’osservazione dell’esperienza → Memoria Episodica Relazioni categoriali: - gli eventi sono membri della stessa categoria tassonomica - gli eventi si associano per relazioni orizzontali di generalizzazione - si formano dalle generalizzazioni sulle conoscenze del mondo attraverso etichette → Memoria Semantica Sembra che lo sviluppo consista nell’aumento della facilità con cui queste categorie sono attivate. 62 Negli ultimi 10 anni, è considerato particolarmente importante per lo studio dello sviluppo della memoria, il concetto di contesto ambientale, diviso in: - contesto esterno all’organismo caratteristiche del materiale e del compito sperimentale - contesto dell’organismo (stato) es. ritardo mentale, demenza senile, ansia e depressione Sono scarse le conoscenze sulle origini delle strategie, particolarmente negli anni prescolari. Schneider e Sodian (1991) hanno studiato le origini e lo sviluppo delle strategie, con uno studio quasi longitudinale: due misurazioni a 4 e a 6 anni. Gli aiuti di memoria “interni” non bastano a spiegare tutti i possibili comportamenti strategici della vita quotidiana (anche in un adulto!). Gli autori hanno dimostrato che le strategie esterne(es. indicare, toccare) giocano un ruolo fondamentale nello sviluppo cognitivo e che possono essere i precursori delle strategie interne. Lo studio della metamemoria si è distinto in due direzioni di ricerca: - esaminare la relazione diretta della metamemoria con la memoria - esaminare le differenze evolutive nei contenuti della metamemoria E’ degli anni ’90 lo studio della “memoria quotidiana” (everyday memory) in contesti naturali, ma con l’attenzione al rigore del metodo sperimentale. Sono emersi tre importanti aspetti della memoria autobiografica: - vi sono lacune di conoscenza (che non sempre si coprono con l’uso di strategie) - non si può “sfogliare”: l’organizzazione dei dati non è disposta linearmente nel tempo - l’apparente oblio di determinati episodi è superabile con suggerimenti adeguati I ricordi colmi di emozione sono percepiti come più vividi, ma non è detto che siano più completi o chiari, spesso sono ricostruiti sulla base di inferenze logiche. Memoria autobiografica nei bambini: - alcuni autori sostengono che i bambini in tenera età posseggono maggiormente conoscenze generali che non episodiche - non discriminano tra eventi immaginati ed eventi reali (carenza nell’esame di realtà) - l’amnesia infantile rende inaccessibili i ricordi dei primi anni di vita, forse perché i bambini preverbali hanno un vissuto che non può essere agganciato dai meccanismi di recupero mnesico di un adulto. La maggior parte delle reminescenze autobiografiche sembra attendibile se ci si limita a ricordare gli eventi generali (non essendoci intenzionalità nel ricordare, non c’è precisione dei dettagli). La relazione tra emozioni e ricordo è stata studiata facendo ricorso soprattutto ai modelli a rete: le emozioni corrispondono a nodi, che con il tempo sviluppano connessioni. Un’esperienza emotiva può legarsi a un evento (che avviene nello stesso momento) connotandolo. La possibilità di ricordare un evento può dipendere quindi anche dal contesto interno dell’individuo. Questa teoria spiega: - perché la coerenza tra stato d’animo nel momento dell’apprendimento e nel momento del recupero facilita il ricordo: l’emozione fa da cue per il recupero (teoria della specificità di codifica) - perché la memoria è facilitata se il significato emotivo degli eventi coincide con lo stato d’animo del soggetto. 63 Capitolo 25 INVECCHIAMENTO BIOLOGICO E PSICOLOGICO (M e G Cesa-Bianchi, Pravettoni) Per invecchiamento o senescenza si intende il processo attraverso il quale si diventa vecchi, modificandosi in alcune caratteristiche personali. Dal punto di vista biologico non è possibile stabilire un dato che contrassegni l’inizio dell’invecchiamento (la cessazione dell’attività riproduttiva è troppo variabile). Il sistema nervoso è stato maggiormente studiato allo scopo di scoprire quali modificazioni intervengono nel processo di invecchiamento: - diminuzione irreversibile del numero di neuroni - rallentamento nella produzione di certi neurotrasmettitori - funzionamento meno efficace dei meccanismi di regolazione - aumento progressivo delle cellule gliali - comparsa di placche - progressivo irrigidimento nelle pareti dei vasi sanguigni Le esperienze individuali facilitano la conservazione di determinate funzioni e l’attenuazione di altre: sono conservate le funzioni maggiormente utilizzate nel corso della vita, mentre decadono quelle scarsamente esercitate. Percezione Nell’invecchiamento c’è una progressiva diminuzione delle abilità visive e acustiche. Facilitano un buon funzionamento in vecchiaia della percezione visiva: - teoria del campo percettivo la percezione si realizza come espressione di un campo collocato nel nostro cervello in cui operano forze di coesione e freno. Un aumento delle forze centrali di coesione rispetto a quelle periferiche di freno, rende la percezione migliore, poiché più espressione del cervello e meno delle sensazioni. - persistenza della costanza percettiva capacità di non modificare la percezione visiva anche se variano le modalità fisiche con cui l’oggetto viene presentato. - Teoria del filtro fra le migliaia di stimoli che pervengono agli organi di senso, possono raggiungere i centri del cervello solo alcuni, che riescono a bypassare il filtro. In vecchiaia, il filtro diviene più selettivo, quindi passano meno stimoli, ma risultano più precisi. Nell’anziano peggiora la percezione dei particolari, ma non la percezione globale di un oggetto. Attenzione Le caratteristiche che la contraddistinguono sono: - arousal livello di soglia - capacità dei meccanismi attentivi quantità di informazione elaborabile in parallelo - capacità di essere selettivi ignorare alcune informazioni e considerarne altre Il nostro sistema di elaborazione è limitato. Studi sull’effetto Stroop dimostrano che esso aumenta negli anziani a causa di una ridotta efficienza del sistema percettivo. Studi sull’attenzione fluttuante, indica difficoltà negli anziani, dovuta all’incapacità di mantenere in standby uno stimolo. Linguaggio E’ una delle funzioni che risente meno dell’invecchiamento. Sono più frequenti errori sintattici e grammaticali, specialmente in frasi complesse che richiedono un maggior uso della memoria a breve termine. La comprensione lessicale risulta conservata, così come la comprensione superficiale di un brano. Affettività e adattamento Vi è una riduzione dell’intensità soggettiva dell’affettività, che corrisponde a una diminuzione della sua espressività, riconducibile all’accresciuta capacità di rappresentazione simbolica degli affetti. La vita affettiva si viene caratterizzando da minori emozioni positive. Il disadattamento in età senile (fra i 60 e 70 anni) può essere scatenato da un pensionamento forzato e condurre a depressione e isolamento. Sessualità e Creatività 64 Può essere mantenuta, soprattutto la psicosessualità. In media l’efficienza sessuale, in persone sane, è mantenuta fino a 70-75 anni, a meno che non intervengano condizionamenti culturali e sociali, che inibiscano tale funzione. Lo svolgimento di un’attività creativa può facilitare e regolare l’andamento dell’invecchiamento. Capitolo 26 I PROCESSI COGNITIVI NELL’INVECCHIAMENTO NORMALE E PATOLOGICO (Amoretti) Le ricerche psicologiche sull’invecchiamento sono iniziate con lo studio del rapporto tra età e intelligenza e sono state favorite dall’applicazione su larga scala dei reattivi, durante la prima guerra mondiale in USA. Modello del declino intellettuale globale: Yerkes confrontando i risultati tra gruppi di età diversa sostenne che il declino intellettuale inizia a partire dai 30 anni di età. Le ricerche di Wechsler confermarono il modello. Le prime critiche al modello giunsero dall’applicazione delle tecniche di analisi fattoriali ai reattivi e dal riconoscimento dell’importanza del fattore “istruzione” nelle prestazioni dei test cognitivi. Intelligenza fluida e cristallizzata Una rettifica alla teoria del declino intellettuale globale giunse dalle ricerche di Horn e Cattel e dalla loro ricerca su intelligenza fluida e cristallizzata: - Intelligenza fluida riguarda i processi base dell’informazione e della soluzione di problemi (es. velocità di organizzazione, memoria associativa, ecc) - Intelligenza cristallizzata collegata alla dimensione socioambientale e culturale ed è influenzata da fattori educativi La senescenza è caratterizzata da un deterioramento delle abilità fluide e da una sostanziale stabilità di quelle cristallizzate. Il contributo degli studi longitudinali Il modello del declino intellettuale globale è stato messo in dubbio anche da Arenberg: utilizzando compiti tradizionale di problem solving esaminò soggetti compresi tra 24 e 87 anni a intervalli di 6 anni. Con confronti trasversali emerse un aumento degli errori con l’avanzare dell’età. Analizzati longitudinalmente si osservò un declino solo a partire dai 70 anni. Ha sottolineato l’importanza, nello sviluppo delle attività cognitive, della dotazione intellettuale di partenza. Il Seattle Longitudinal Study (Schaie e coll.) diede il via a rinnovamento nella ricerca sull’invecchiamento fondatori della life-span psychology, hanno sviluppato modelli di studio dell’invecchiamento inteso come processo di cambiamento. Un filone di ricerca sviluppatosi negli anni 70 è costituito dalle ricerche-intervento: si distinguono in training cognitivi e training non cognitivi. Una grossa mole di dati ha dimostrato sostanziali differenze interindividuali nello sviluppo (es. istruzione, anno di nascita, ecc) e una considerevole variazione nei ritmi di crescita e declino delle singole abilità i cambiamenti involutivi dell’età sono legati a complessi eventi ambientali (senescenza biologica = processo discontinuo e individualizzato). Denney suddivide le abilità intellettive in due gruppi distinti: abilità poco esercitate e abilità ottimizzate. Entrambe raggiungono l’apice del loro sviluppo nella prima età adulta per poi iniziare a declinare. Baltes e col. Sostiene che l’intelligenza ha due aspetti: - uno meccanico-psicometrico (formale) risolvere i problemi svincolati dai contenuti appresi - un aspetto pragmatico (di contenuto), chiamato expertise abilità acquisite e capacità di rispondere con efficacia ai problemi concreti e specifici. La memoria Lo studio dell’apprendimento e della memoria è iniziato con Ebbinghaus, ma le ricerche sull’età delle capacità mestiche hanno origini recenti. I motivi di questo ritardo sono: - predominio della teoria del declino intellettuale globale - avvento dell’orientamento HIP 65 Non esistono oggi teorie d’insieme che si riferiscano allo sviluppo mnestico nel corso della vita: i dati sono contraddittori e variano secondo il materiale usato. L’invecchiamento è caratterizzato dall’accentuarsi di una serie di cambiamenti che interessano il sistema nervoso centrale. Fra i 20-25 anni c’è il massimo sviluppo delle abilità mestiche, che cominciano a declinare con la terza decade. E’ stata proposta anche l’ipotesi del massimo adolescenziale con un picco massimo delle abilità tra i 13 e i 20 anni. Welford ipotizzò che il declino mestico fosse dovuto alla mancanza d’esercizio, al disuso delle funzioni mestiche. Postulò anche l’ipotesi di interferenza (interferenza proattiva sulla memoria a breve termine che ne causa deficit) Gli studi degli anni 70 si focalizzarono sull’importanza della velocità allungando il tempo di prestazione e di risposta, le prestazioni di soggetti di qualsiasi età vengono migliorate. La maggior parte delle ricerche non ha messo in evidenza riduzioni significative delle capacità del registro sensoriale: la memoria iconica sarebbe più persistente nell’anziano. La tendenza degli anziani a fornire prestazioni analoghe ai giovani nei compiti di riconoscimento è data dal fatto che le difficoltà mnestiche degli anziani sono a livello di recupero dell’informazione e non a livello di codifica. anziani sono meno abili dei giovani nell’uso spontaneo di strategie efficaci di Deficienza di produzione memorizzazione. Questa teoria è stata formulata in due versioni: - deficit di ricerca: anziani hanno difficoltà nella formulazione spontanea di strategie efficaci - profondità dell’elaborazione: gli anziani non raggiungono la codifica profonda (semantica) Il ruolo delle conoscenze metamnestiche determina le differenze giovane-anziano: nell’anziano, l’esperienza di fallimenti, può dare origine a convinzioni di impotenza e caduta dell’autostima. Il contributo di fattori affettivo-motivazionali al deficit mnestico negli anziani è stato rilevato sia sperimentalmente che con metodi ecologici: avere fiducia e alta motivazione sono connesse con buona conservazione della memoria. Il deficit mnestico senile è spiegabile ipotizzando che l’informazione passi per tre fasi: acquisizione: • lo stimolo deve essere percepito (la vecchiaia ha difficoltà percettive) • la ridotta velocità senile, determina una riduzione del materiale acquisito • l’attenzione selettiva non sembra declinare con l’età codifica • riduzione della capacità di working memory • difficoltà strategiche • problemi metamnestiche recupero • ridotte prestazioni della MLT • ridotta quantità di materiale appreso • problemi nel ricordo soprattutto dopo i 70 anni Per ciò che concerne l’invecchiamento patologico, la senilità può essere caratterizzata da demenza. La demenza si divide in sottocorticale e corticale. Capitolo 27 CAMBIAMENTI EVOLUTIVI IN ADOLESCENZA (Cigala, Zammuner) Verso la fine dell’800 emerge un’idea biologica di adolescenza: Hall sostiene che il rinnovamento totale della personalità che avviene in questo periodo è determinato biologicamente ed è quindi indipendente da variabili culturali e ambientali. A questo si è aggiunta la prospettiva antropologica che evidenzia il ruolo determinante della cultura e studi di derivazione sociologica. Con la psicoanalisi, la psicologia si è focalizzata più sui cambiamenti interiori dell’adolescente. Un altro contributo viene dalle teorie cognitive, che provano a spiegare le modalità di pensiero e acquisizione della conoscenza. In ultimo l’apprendimento sociale di Bandura ha evidenziato i meccanismi attraverso i quali in 66 adolescenza lo sviluppo è condizionato da stimoli ambientali. I cambiamenti nel pensiero dell’adolescente permeano lo sviluppo affettivo e sociale dell’adolescente: secondo Piaget l’intelligenza è una forma di adattamento all’ambiente, che si modifica nel tempo organizzandosi in strutture più complesse. Autori neopiagetiani reinterpretano le teorie piagetiano alla luce delle teorie dell’elaborazione dell’informazione gli individui sono solutori di problemi che elaborano le informazioni per mezzo di piani mentali attraverso cui si rappresentano una soluzione problematica. Erikson compito principale dell’adolescenza è acquisire un’identità autonoma. I cambiamenti spingono l’individuo a una ridefinizione del proprio sé rispetto agli altri. Si passa da uno stato di diffusione dell’identità (sperimentazione e identificazione) a uno di acquisizione dell’identità. I cambiamenti che vive l’adolescente con la loro conflittualità, si esprimono nella famiglia: separazione reciproca, individuazione correlata rinegoziazione delle distanze interpersonali. Capitolo 28 PSICOLOGIA DELLA FAMIGLIA (Cusinato) Vengono utilizzate nell’approccio alle famiglie, due prospettive teoriche: - scuola umanistica, cognitiva e comportamentale individuo è il centro della realtà familiare. - metafora dei sistemi ogni membro è influenzato da ogni altro membro della famiglia. Studiamo quindi le relazioni all’interno di una famiglia, cioè come ciascun membro si relaziona alla famiglia e al terapeuta. ci Si indagano gli antecedenti della relazione disfunzionale familiare (es. figlio malato, madre depressa) sono effetti multidirezionali (feedback loop) fra i membri della famiglia, dove ognuno ha influenza ed è influenzato da ciò che ogni altro dice o fa. L’Abate costruisce una teoria evolutiva delle relazioni familiari riassumibile in: - continuum sentire dentro-esprimere da come le informazioni vengono elaborate ed espresse in casa, possiamo capire se la famiglia funziona o no. Le informazioni percepite vengono gestite lungo un continuum a cinque modalità: - emotività competenza della famiglia di trattare i sentimenti - razionalità uso della famiglia delle proprie competenze cognitive e logiche per elaborare l’emotività - attività quanto una famiglia sia attiva o passiva nell’esprimere ciò che ha ricevuto - consapevolezza modalità correttiva di cambiamento determinata dal livello di coscienza e ammissione circa ciò che la famiglia è disposta e capace di rivelare - contesto modalità con cui la famiglia interpreta il problema, caricando più o meno la famiglia stessa della responsabilità La buona stella permette di evidenziare la dimensione degli aspetti. - livelli di analisi: - 1°. va valutato come un individuo funzioni, come influenzi e come sia influenzato dagli altri - 2°. Valutazione della diade (padre-figlio,fratello-fratello,ecc) - 3°. Valutazione della dimensione delle proprietà di gruppo 8come ogni membro è influenzato e influenza gli altri) - 4°. Valutazione parentale: famiglie di origine - 5°. Valutazione di comunità: come la famiglia si comporta con parenti e vicini. - livelli di interpretazione livello descrittivo (presentazione e fenotipico), livello esplicativo (genotipico e storico) - continuum di somiglianza tre modalità relazionali che rappresentano ciò che viene scambiato fra i membri della famiglia: essere (come una famiglia attribuisce importanza ai suoi membri e quanto siano 67 intimi fra loro), Fare (quante informazioni e servizi vengono scambiati in famiglia) e avere (come il denaro e i beni sono procurati valutati e tenuti in famiglia). 68


Comments

Copyright © 2024 UPDOCS Inc.