volti.jpg

12 Ottobre 2011 IMCI-DocImci Studio0

A livello sessuale l’attrattività è valutata in base a singoli elementi che possono essere indice di fertilità o salute, a livello non sessuale è considerata l’armonia delle parti

Le donne valutano l’attrattività di un volto a due livelli, uno sessuale, basato su specifiche caratteristiche della faccia, come mascella, zigomi e labbra, e uno non sessuale, basato sull’estetica generale: lo afferma una ricerca condotta da ricercatori della Penn State University pubblicata sul "Journal of Experimental Social Psychology" e condotta da Robert G. Franklin, Reginald Adams e collaboratori. “Al livello sessuale di base, l’attrattività rappresenta una qualità che dovrebbe aumentare il potenziale riproduttivo, coinvolgendo segnali che indicano la fertilità o la salute”, spiega Franklin. Sul versante non sessuale, l’attrattività può invece essere percepita come un tutto, di cui si considera l’armonia delle parti. Per arrivare a questa conclusione i ricercatori hanno mostrato a 50 studentesse eterosessuali una varietà di visi di uomini e donne, chiedendo di valutarli su una scala da uno a sette come ipotetici compagni in un rapporto sessuale e come compagni fissi di studio. La prima domanda serviva a determinare l’attrattività dei volti su base sessuale, mentre la seconda portava a fare appello a un senso estetico generale. Gli psicologi hanno quindi presentato gli stessi volti a un altro gruppo di 50 studentesse eterosessuali. Le metà superiore e inferiore di alcuni dei volti, però, erano state fatte slittare orizzontalmente in direzioni opposte. La divisione dei volti ne impedisce una valutazione estetica globale e costringe a concentrasi su singole caratteristiche. Alle partecipanti al test è stato quindi chiesto di valutare l’attrattività dei visi sia nella loro forma slittata che in quella integra.  "La valutazione delle facce divise del secondo gruppo correlava bene con quello della valutazione non sessuale del primo quando i volti mostrati erano femminili. Ma si aveva un cambiamento quando venivano mostrati visi maschili, correlando in tal caso molto meglio con la valutazione data dal primo gruppo all’ipotetico partner sessuale", spiega Franklin.   "Non sappiamo se l’attrattività sia un effetto culturale o semplicemente sia legata al modo in cui i nostri cervelli elaborano l’informazione", ammette Franklin. "In futuro intendiamo studiare come le differenze culturali fra i nostri soggetti abbiano un ruolo nel modo in cui valutano queste facce. E vogliamo anche vedere come i cambiamenti ormonali sperimentati dalle donne nelle diverse fasi del ciclo mestruale influiscano sul modo in cui valutano l’attrattività ai due livelli."

04.10.2011


acqua.jpg

29 Settembre 2011 IMCI-DocClinica0

Le bibite zuccherate sono uno dei prodotti più diffusi nell’Europa Occidentale e negli Stati Uniti. Nonostante il loro sapore gradevole e la capacità di coinvolgere, dovrebbero essere consumate con moderazione. Infatti, bere acqua al loro posto previene diabete e malattie cardiache. E‘ il messaggio inserito in una ricerca dell’Università di Harvard, diretta dal dal professor Frank Hu e presentata al Sustaining the Blue Planet: Global Water Education Conference, recentemente svoltosi in Montana. Per l’equipe di Harvard, in ballo vi è la massa ed il metabolismo corporeo. Bere bevande zuccherate fornisce molto zucchero: ciò fa aumentare peso e, di conseguenza, aumenta il rischio di malattie metaboliche. Perciò, spiegano gli studiosi, meglio essere prudenti: "Per ridurre il rischio di obesità e malattie cardio-metaboliche, è importante ridurre il consumo di bevande zuccherate e sostituirle con scelte più salutari come il tè senza zucchero o acqua e caffè". Hu e compagni ritengono così come il cambio acqua al posto di bibite zuccherate porti benefici concreti e tangibili: ad esempio, un -7% per il rischio di diabete di tipo 2. Aldilà dei bonus per il singolo, una riduzione notevole di spesa e carico per la sanità pubblica.

19.09.2011


prima_sigaretta.jpg

28 Settembre 2011 IMCI-DocClinica0

Chi fuma nella prima mezz’ora dopo il risveglio ha il 79% di probabilità in più di sviluppare un cancro ai polmoni di chi aspetta almeno un’ora prima di accendersi la prima "bionda". È il lapidario risultato di uno studio pubblicato nella rivista scientifica Cancer. Questa abitudine sarebbe legata anche a un riscio particolarmente elevato (59%) di sviluppare altri tipi di tumore, come quello al collo. Il motivo, ipotizzano gli scienziati, potrebbe essere che chi sente il bisogno di fumare così presto ha livelli più alti di nicotina nel sangue e quindi maggior dipendenza dalle sigarette, oppure che a quest’ora si fuma più intensamente rispetto alle altre ore della giornata.

09.08.2011


ridere.jpg

28 Settembre 2011 IMCI-DocClinica0

Ridere è una medicina efficace, al punto da renderci più tolleranti al dolore. Lo sostengono alcuni ricercatori dell’Università di Oxford che hanno condotto un test su un gruppo di volontari ai quali è stato stretto (abbastanza vigorosamente!) un braccio.

Tra questi, coloro che assistevano a video esilaranti sono risultati più resistenti al dolore, per circa un 10%.
La spiegazione?

Secondo i ricercatori inglesi il merito sarebbe delle endorfine, i neurotrasmettitori che calmano proprio il dolore, generate dal nostro organismo durante l’attività fisica. Come quella praticata dai muscoli addominali durante una fragorosa e prolungata risata, appunto.

19.09.2011


mangiare_a_tavola.jpg

28 Settembre 2011 IMCI-DocClinica0

Nel 2010 saranno diagnosticati oltre 11 milioni di nuovi casi di patologie e si stimano otto milioni di morti

La prevenzione dei tumori parte dalla tavola almeno in un caso su quattro. È quanto sottolinea uno studio del Fondo mondiale per la ricerca sul cancro (Wcrf), presentato al Congresso mondiale su nutrizione e salute pubblica in corso a Porto. Il cancro, ha detto il direttore del progetto di ricerca Martin Wiseman, si appresta a divenire «la principale causa di morte nel mondo». Nel 2010 oltre 11 milioni di nuovi casi di patologie oncologiche saranno diagnosticati e si stima che le morti siano 8 milioni. In prospettiva, nel 2030 dovrebbero essere tra 11,5 e 15,5 milioni le morti per tumori, in maggioranza nei Paesi a basso o medio Pil. DIETA BILANCIATA – «Tuttavia è possibile prevenire circa un quarto, se non un terzo addirittura, dei rischi di patologie oncologiche più frequenti attraverso una dieta salutare, il controllo del peso-forma, la regolare attività fisica», ha detto Wiseman. Da qui le raccomandazioni degli esperti: accompagnare la dieta alimentare bilanciata e il movimento fisico a frequenti controlli medici perché per l’efficacia della cura rimane «essenziale» la diagnosi precoce. «Ancora oggi la maggior parte dei tumori viene diagnosticata all’ultimo stadio» ha aggiunto Geoffrey Cannon, curatore del rapporto 2007 del Wcrf in collaborazione con l’Istituto americano di ricerca sul cancro (Aicrf). «Per una maggiore efficacia nelle cure e per il contenimento della spesa sanitaria – ha concluso – è necessaria una maggiore collaborazione tra i principali attori del sistema della sanità pubblica. È proprio la prevenzione dei tumori la sfida globale sfida».

27.09.2010


occhio_pigro.jpg

28 Settembre 2011 IMCI-DocClinica0

Evidenziato in venti persone un aumento del 30 per cento dell’acutezza visiva già dopo 40 ore passate a giocare

Non siete più dei bambini e dovete fare i conti con un occhio pigro? Forse potreste aiutare la vostra vista divertendovi con un videogioco. Per l’occhio pigro degli adulti, in termini medici ambliopia, scende in campo la «videogame therapy». Uno studio condotto all’University of California, appena pubblicato sulla rivista PLos Biology, segnala, infatti, che già dopo 40 ore di «terapia» con i videogiochi (due ore per volta per un periodo complessivo di un mese) c’è un miglioramento significativo dell’acutezza visiva e, in alcuni casi, della percezione della profondità. L’ambliopia è una condizione caratterizzata da una riduzione della vista in un occhio particolarmente frequente nei bambini nei quali, se si interviene precocemente, può essere trattata con successo con il bendaggio dell’occhio che vede meglio per stimolare quello in difetto.

L’ESPERIMENTO – Negli adulti invece sono poche le opzioni terapeutiche, cosa che ha spinto i ricercatori americani a provare la strada della videogame therapy. I dati preliminari ottenuti su 20 individui di età compresa tra i 20 e 60 anni sono incoraggianti. In pratica ai partecipanti è stato chiesto di giocare a un videogioco d’azione in cui bisognava colpire un bersaglio o a un gioco il cui scopo era costruire oggetti, il tutto tenendo bendato l’occhio buono. In entrambi i casi è stato evidenziato un aumento del 30 per cento dell’acutezza visiva già dopo 40 ore passate a giocare. In alcuni individui c’è stato anche un miglioramento della percezione della profondità. La controprova che i benefici sono stati conseguenza del tempo passato a giocare e non del bendaggio, i ricercatori l’hanno ottenuta con un altro piccolo esperimento in cui hanno chiesto ad alcuni partecipanti di mettere un cerotto sull’occhio buono per 20 ore durante le normali attività quotidiane, come guardare la televisione, leggere, navigare su internet. Ebbene in questo caso non vi sono stati miglioramenti, mentre quando questi stessi individui hanno poi fatto la videogame therapy hanno avuto dei benefici.

PLASTICITÀ – «Sappiamo da tempo che qualsiasi attività visiva impegnativa e protratta tende a migliorare l’acutezza anche negli occhi ambliopici di adulti. I nuovi dati quindi confermano che esiste una plasticità dell’apparato visivo anche in età adulta – osserva Paolo Nucci, professore di malattie dell’apparato visivo all’Università di Milano -. Qualche perplessità riguarda il miglioramento della percezione della profondità (stereoacutezza). In presenza di una binocularità alterata, è francamente difficile pensare che si ristabilisca una visione stereoscopica assente, mentre un miglioramento di una stereoacutezza già presente ma difettosa è comune in chi si applica per lungo tempo a distanza ravvicinata. In realtà lo studio non affronta un problema, ben più complesso dal punto di vista clinico: quanto stabile è questo recupero? Le esperienze attuali segnalano che la plasticità del sistema visivo dell’adulto sebbene possa consentire un recupero visivo, comporta un analogo rischio di regressione dei buoni risultati ottenuti». Insomma giocare ai videogame potrebbe essere una strategia valida, ma non è chiaro quanto a lungo possano persistere i benefici.

27.09.2011


neuroni_specchio.jpg

23 Settembre 2011 IMCI-DocNeuroscienze0

Mi è capitato spesso negli ultimi anni, impegnati ad analizzare scritti utili alla tesi di dottorato (il ruolo del meccanismo mirror nella comprensione del testo), di incontrare titoli riportanti il suffisso "neuro" su articoli e libri degli ambiti di studio più disparati, nel tentativo, suppongo, di riconfigurare temi ritenuti troppo complessi per essere trattati in termini puramente neuroscientifici. “Dubitare di tutto o credere a tutto sono due strategie altrettanto comode. Con entrambe eliminiamo la necessità di riflettere” (H. Poincarè). Penso all’educazione, all’apprendimento, all’arte, alla morale, all’economia e a tanto altro. Allo stesso tempo, ho incrociato parecchi commenti (soprattutto italiani) tesi a sottolineare la “leggerezza” con cui, sia le neuroscienze cognitive che le scienze umane, avrebbero teorizzato sui risultati delle ultime scoperte, considerate da molti alla stregua di “acqua calda” o di una semplice “moda”, quindi, non in grado di aggiungere alcunché alla conoscenza già disponibile da anni. Ma quali sono le perplessità e le critiche più frequenti che vengono rivolte all’espandersi della prospettiva neuroscientifica ormai in ogni campo del sapere? In sintesi, esse possono essere così declinate: la tendenza riduzionistica, ovvero la pretesa di spiegare il mentale in termini fisici; l’ambizione unificante, ossia credere di aver scoperto il principio di tutte le spiegazioni, la spiegazione che inghiotte tutte le altre; l’assomigliare più a una moda che a un nuovo paradigma, grazie anche al potere seduttivo delle parole, delle tecniche e delle immagini che utilizzano; l’accusa di non tener conto della conoscenza accumulata dalle scienze umane in questi anni; l’ambizione di spiegare in termini corporei anche quei fenomeni da sempre considerati misteriosi e inspiegabili, come la coscienza, la capacità di scelta, la motivazione, la memoria. In questo contributo cercherò, attraverso le risposte di alcuni dei rappresentanti più significativi delle neuroscienze cognitive, di far emergere quanto tali interpretazioni risultino quantomeno discutibili, spesso non trovando riscontro nelle parole, negli scritti e nelle intenzioni dichiarate dagli esperti in questo ambito. La natura delle critiche sembra invece, a volte, fornirci un’interessante esempio di “rispecchiamento”, compatibile anche con il timore di perdere le posizioni conquistate… Naturalmente anche il punto di vista qui espresso è puramente soggettivo, gratuito e velleitario, anche se mi impegnerò a renderlo il più coerente possibile.

Introduzione: Una delle frasi che ritengo emblematiche del destino a cui solitamente vanno incontro le teorie più innovative, è quella di John B.S. Haldane (biologo e genetista inglese; 1892-1964). Secondo lo scienziato britannico, le teorie attraversano quattro stadi di accettazione (1963):

è una sciocchezza priva di valore;

è un punto di vista interessante, ma erroneo;

è vera, ma del tutto irrilevante; l’ho sempre detto.

Mi sono chiesta, allora: a quale di questi stadi di accettazione appartiene una delle ultime e più straordinarie scoperte per la conoscenza del funzionamento cerebrale e della nostra capacità di comprendere e interagire con gli altri? Parlo naturalmente della scoperta dei "neuroni specchio" da parte del gruppo di Parma guidato da Giacomo Rizzolatti, a quasi vent’anni dalla scoperta. Nonostante le riflessioni e le teorizzazioni sulle straordinarie implicazioni del meccanismo mirror, a livello epistemologico e antropologico, abbiano avuto bisogno di un lungo periodo di gestazione prima di essere divulgate (cosa che avvalora la saggezza, piuttosto che la leggerezza rispetto all’utilizzo dei risultati), nell’ultimo decennio si è assistito ad un moltiplicarsi di ricerche tese ad approfondire le relazioni e gli effetti connessi a questa scoperta, e alla conseguente diffusione di pubblicazioni sul tema a livello internazionale. Ciononostante, in Italia, molti studiosi si trovano ancora al primo stadio (É una sciocchezza priva di valore), una minoranza oscilla tra il secondo e il terzo stadio, e qualcuno è già arrivato al quarto (L’ho sempre detto). Se da un lato è evidente che è in atto una tentazione forte di abbinare il suffisso “neuro” ad ogni disciplina (neuroeconomia, neuroestetica, neuroetica, neuropedagogia, neurodidattica, neurofenomenologia, …), è altrettanto evidente che la responsabilità di questa tendenza non può essere addebitata alle neuroscienze, ma a chi utilizza i risultati delle loro ricerche trasferendoli ai più svariati settori disciplinari, e non  sempre facendone un buon uso. Il problema che ravviso sta proprio in questa operazione di traducibilità. Il fascino che può esercitare la scoperta di un meccanismo che permette di svelare il farsi della conoscenza, allo stesso modo in cui si compie un’azione o si osserva qualcosa, è facilmente comprensibile e appetibile per ogni studioso, considerato che, come ci fa notare Davide Chalmers (australiano, filosofo della mente) parlando del hard problem (1996): lo studio di un fenomeno mentale è alla fine sempre quello di una persona che ne fa esperienza. Oltretutto, poiché questi fenomeni appartengono all’esperienza di tutti, nessuna meraviglia di fronte alla necessità, avvertita in diversi ambiti disciplinari, di assumere e confrontare il loro orizzonte conoscitivo e di analisi incorporando nuove e più esplicative chiavi di lettura. Il fattore di criticità sembra invece risiedere nell’interpretazione dei risultati divulgati dai neuroscienziati, da parte di studiosi di altre discipline, nell’uso che quest’ultimi ne fanno (più o meno coerentemente con le proprie interpretazioni) e nel fatto che alle interpretazioni molto spesso non seguano, a parte qualche rara esperienza, appropriate linea di ricerca, approcci metodologici, o proposte di intervento conformi al cambio di paradigma che sembrano assumere. Nella maggior parte dei casi ci si limita invece: a “narrare i risultati” delle neuroscienze; a declamare la loro natura paradigmatica per il futuro della ricerca in ogni campo; a introdurre qua e là, nel proprio repertorio linguistico, parole nuove per semplice giustapposizione; a cercare di carpire termini di vecchia conoscenza (come empatia, motorio, imitazione, azione, …) con la sottesa intenzione di marcare il fatto che in fondo non si tratta proprio di una grande novità. A parere di chi scrive, non cogliere le inedite e straordinarie potenzialità euristiche che le neuroscienze cognitive degli ultimi quindici anni ci stanno restituendo, significa farsi interprete di una disarmante mancanza di coraggio di cambiare prospettive, tipica più del senso comune che dell’uomo di scienza; significa, in buona sostanza, non afferrare il capovolgimento radicale che una tale scoperta comporta a livello della (ri)strutturazione della conoscenza e dell’intera architettura del sapere accumulato sino ad oggi. Vediamo ora come alcuni studiosi di neuroscienze cognitive hanno risposto alle critiche che frequentemente vengono rivolte ai loro lavori e conseguenti teorizzazioni. Naturalmente qui mi limiterò a riportare solo alcune delle più significative risposte rese, allo scopo di evidenziare come la maggior parte dei rischi epistemologici attribuiti ai neuroscienziati, trovino pochi riscontri alla fonte. Lo scienziato a cui farò più riferimento è Vittorio Gallese (neurofisiologo del gruppo di Parma, a cui dobbiamo la scoperta dei neuroni specchio), avendo, per esigenze di ricerca, approfondito maggiormente il suo pensiero e le sue pubblicazioni, peraltro numerose e dense di riferimenti agli aspetti qui presi in considerazione. La critica di riduzionismo Chi rimprovera i neuroscienziati cognitivi di riduzionismo attribuisce a questi ultimi l’intenzione, o la convinzione, di poter spiegare il funzionamento mentale esclusivamente in termini di funzionamento cerebrale o attraverso il comportamento, tralasciando quindi qualsiasi altra assunzione su aspetti che vanno oltre all’osservabile o al fisico. Di seguito, alcune delle risposte e sottolineature che i neuroscienziati restituiscono per contrastare l’inesatta concezione del mentale a loro attribuita. Giorgio Vallortigara (ordinario di neuroscienze del Centro interdipartimentale mente/cervello dell’Università degli Studi di Trento) risponde così al rischio riduzionista: “Se per riduzionista si intende uno che crede che l’attività mentale sia il risultato dei processi che avvengono in un sistema fisico, io lo sono. Se invece per riduzionismo si intende dire che l’attività mentale è nient’altro che l’attività del sistema nervoso, allora no. Perché quel che accade dentro un sistema nervoso dipende dai rapporti con gli altri sistemi nervosi, ovvero, per noi, la storia, la società, la cultura”. Vittorio Gallese, nel saggio dal titolo Corpo vivo, simulazione incarnata e intersoggettività, in Neurofenomenologia (2006) si esprime così nelle conclusioni: “La ricerca neuroscientifica futura dovrà sempre più concentrarsi sugli aspetti in prima persona dell’esperienza umana e cercare di studiare meglio le caratteristiche personali dei singoli soggetti di esperienza. A renderci chi siamo non è solo il possesso di meccanismi nervosi condivisi, ma anche un percorso storico individuale fatto di esperienze soggettive uniche e particolari … Una delle sfide future sarà quella di passare dalla ‘medietà normativa’ delle caratteristiche d’attivazione di un supposto livello medio … un approfondito studio di come le caratteristiche individuali dell’esperienza di vita si traducano in caratteristici … profili di attivazione corticale, e come questi meccanismi siano alla base del peculiare modo di esperire il mondo degli altri proprio di ognuno di noi. Dovremo passare cioè dallo studio della mente umana allo studio delle menti umane.” Gerald Edelman (neuroscienziato americano, premio Nobel nel 1972), nella sua epistemologia basata sul cervello, pur descrivendo le conseguenze positive che una spiegazione scientifica della nostra “Seconda Natura” (la mente cosciente) comporterebbe a livello epistemologico, precisa più volte che “una spiegazione scientifica esclusivamente riduzionistica di questa seconda natura, della sua etica e della sua estetica non è desiderabile né probabile né imminente” (2006). Inutile far notare che sembrano tutte risposte che con il riduzionismo hanno ben poco a che fare. La critica alle spiegazioni unificanti. Le teorizzazioni che hanno fatto seguito alle evidenze empiriche fornite dalle neuroscienze sono state spesso associate all’intento ambizioso di fornire una spiegazione globalizzante della cognizione umana. Ma è davvero questo l’intento delle attuali neuroscienze cognitive? Cercare la spiegazione delle spiegazioni, il principio o il meccanismo in grado di fagocitare tutte le interpretazioni fornite dalle altre discipline fino ad oggi? O una tale interpretazione “riflette” il bisogno tipicamente umano (e non quindi solo degli scienziati) di cercare la soluzione ultima dei misteri che ancora ci circondano, identificandola nelle situazioni, o nei fenomeni, che di volta in volta più si prestano a tal fine? E la classe di neuroni specchio sembra ben prestarsi a spiegazioni globalizzanti, anche se i neurofisiologici sono i primi a mettere un freno a tale tentazione. È vero che Giacomo Rizzolatti (neurofisiologo a guida del gruppo di Parma) ad una conferenza del 2008 ha parlato di una “visione unificante delle basi di una conoscenza sociale” e che Vittorio Gallese, intervistato da Marco Mozzoni per BrainFactor (2009), parla della presenza nel cervello umano di un meccanismo che rappresenta “la spiegazione unificante più parsimoniosa di una serie di diversi dati comportamentali e clinici”, ma è altrettanto vero che, a più riprese, sottolineano che la ricerca è solo agli inizi e che il gigantesco panorama di indagine e di studio che si è aperto dopo la scoperta dei mirror dovrà necessariamente basarsi sull’unificazione e integrazione delle discipline che da tempo si occupano dei processi che sembrano implicati dal sistema mirror, e cioè i processi cognitivi, emotivi, sociali, creativi, etici… E Gallese, al Convegno dal titolo “Le basi neurofisiologiche dell’intersoggettività” (2010), risponde così alla critica di uniformità: “Le neuroscienze oggi sono molto discusse. Sono spesso presentate per quello che non sono, e cioè lo strumento che ci darà le risposte ultimative a quesiti rimasti tutt’ora irrisolti dopo millenni di speculazioni di natura filosofica. Questo tipo di atteggiamento non è sicuramente condiviso, almeno dalla gran parte dei miei colleghi, ma è, nel nostro paese, spesso il risultato di un modo sensazionalistico e banale di presentare i risultati della ricerca scientifica”. Anche Antonio Damasio (professore di neurologia alla University of Southern California) ribadisce più volte ne L’errore di Cartesio (1995) che tutti i problemi che hanno a che fare con la relazione tra mente e cervello possono essere affrontati a molti livelli, dalle molecole ai micro e grandi circuiti, fino ai livelli sociali e culturali, senza i quali non potremo pervenire a ragionevoli spiegazioni dei fenomeni mentali (quali la coscienza, le opinioni, la decisione, la memoria). Dal mio punto di vista, se il meccanismo specchio ha destato così tanto interesse in ogni ambito, qualcosa di unificante dovrà pure averlo! Infatti, tralasciando la poco probabile eventualità che possa trattarsi di una nuova forma di mania collettiva o di una moda passeggera, un sistema che racchiuda in sé la memoria delle nostre percezioni, azioni, cognizioni, emozioni, provocando la straordinaria varietà dei comportamenti umani e i suoi prodotti, può ben essere considerato un valido candidato per spiegare fenomeni così diversi (almeno fino ad oggi) come la performance teatrale, la categorizzazione percettiva, la comprensione emozionale, il giudizio estetico, l’apprendimento, l’economia… Inoltre, l’idea di un meccanismo unificante non dovrebbe spaventarci affatto, dati i risultati generati dalle infinite, e il più delle volte puramente speculative, separazioni e frammentazioni che le discipline hanno da sempre prodotto per sopravvivere. Non è nel marcare ossessivamente i propri confini che si acquista specificità e riconoscimento scientifico, ma nel contributo che si offre, da un particolare punto di vista, alla crescita comune della conoscenza e alla ricerca di quella “struttura che connette” i processi cognitivi e biologici (G. Bateson). È solo una moda?. Ogni volta che m’imbatto in questa affermazione provo una sorta di imbarazzo disarmante, per la banalità e superficialità a cui simili commenti possono essere assimilati, e che poco hanno a che fare con l’atteggiamento di curiosità e di indagine conoscitiva che dovrebbe essere alla base di ogni valutazione scientifica, propria e altrui. Per classificare un fenomeno come una moda non serve nessuna preparazione scientifica. Chi decide, e sulla base di quali evidenze, che cosa è moda e cosa non lo è? Diventa “moda” (parlando di costrutti teorici) quello che non ci convince o che non ci piace? Quello che non concorda con la nostra visione del mondo o la nostra architettura cognitiva? Quello che non capisco o verso cui provo un’istintiva avversione?  Insomma, quali sono i criteri in base ai quali una teoria, un approccio o un autore vengono considerati “una moda”? Potrebbero anche attenere alla facilità con cui, effettivamente e il più delle volte, ci lasciamo trascinare da “frasi ad effetto” che facciamo nostre all’istante, dalle parole-chiave più in uso che ripetiamo automaticamente, o dalle teorie o autori più citati in un determinato periodo che finiscono per essere al centro dei nostri interessi. E magari questo ha probabilmente a che a fare con quel potente meccanismo basale che chiamiamo imitazione, e che non agisce solo nell’apprendimento e nell’intersoggettività dei primi anni di vita. Inoltre, ci sono buone possibilità a mio parere, che l’uomo sia pre-disposto per vedere o “ri-trovare” negli altri quello che i nostri schemi, percettivo-motori-cognitivi, ci fanno vedere, e che questa possibilità possa essere assunta come una delle molteplici tracce attraverso cui il funzionamento mirror si manifesta a livello fenomenico. Seguendo questo ragionamento, non possiamo liberarci della nostra soggettività neanche quando formuliamo un giudizio, nel quale pertanto confluisce tutta la nostra storia. Nonostante il rispetto che nutro nei confronti della soggettività, che considero l’unica fonte di verità di cui disponiamo, penso tuttavia che dobbiamo riservarle il posto che le spetta nell’orizzonte conoscitivo, e penso che questo non possa ergersi a statuto ontologico, per quanto autorevole sia la fonte soggettiva in questione. In altre parole, dovremo sempre tener presente che non è perché definiamo “moda”, o qualcos’altro, l’interesse per i risultati delle neuroscienze, che questi lo siano o lo diventino. Vittorio Gallese (nella citata intervista a BrainFactor) interpreta così l’interesse diffuso per le neuroscienze: “Il grande pubblico, grazie anche alla divulgazione operata da mezzi di comunicazione come questa testata, si sta rendendo conto di quanto sia importante il ruolo delle neuroscienze cognitive nel farci scoprire chi siamo e come funzioniamo. Ciò detto, sicuramente i neuroni specchio attirano l’attenzione di un pubblico fatto di non specialisti anche perché dimostrano come una delle principali modalità con cui ci mettiamo in contatto con gli altri e ne comprendiamo l’agire sia quella empatica, qualcosa che sentiamo vicino e che comprendiamo più e meglio delle inferenze logiche e delle sofisticate operazioni metarappresentazionali che, secondo una lunga tradizione di pensiero in psicologia, sole spiegherebbero in cosa consista l’intersoggettività.” E ancora Gallese (ibidem): “Nel tempo presente, caratterizzato dalla veemente recrudescenza del particolarismo etnico-religioso… Stabilire che lo status universale dell’essere umano è prodotto dalla identificazione sociale e dal riconoscimento reciproco e che è fondato biologicamente, dimostra la potenziale rilevanza etica della ricerca neuro scientifica”. Allora, se è una moda, speriamo che duri. L’accusa di non tener conto della conoscenza accumulata dalle “scienze umane” Rispetto a questa critica, apro con il pensiero di Damasio al riguardo: lo scienziato è convinto che non si possa escludere dall’indagine tutta la conoscenza raccolta a diversi livelli, e che nessuno, da solo, possa investigare tutti i livelli “che insieme danno vita a quei meravigliosi fenomeni mentali di cui tutti abbiamo coscienza e che oggi, grazie alle potenzialità delle nuove tecniche, possono essere indagate”. E Marco Iacoboni (neurofisiologo dell’università della California a Los Angeles) precisa: “Chi fa neuroscienze integra sempre i dati neurali con quelli psicologici: non c’è nessuna contrapposizione”. Gallese in Il Corpo Teatrale: Mimetismo, Neuroni Specchio, Simulazione incarnata (2008), fa notare che “nonostante sia ancora lunga la strada per arrivare ad una piena spiegazione neurofisiologica dei processi alla base dell’intersoggettività, i risultati sinora raccolti sembrano indicare che è stata imboccata la strada giusta. Il dibattito tra neuroscienze cognitive e scienze umane dovrebbe procedere di pari passo, senza pretese di dominare gli uni sugli altri. È auspicabile e necessario un dialogo costante tra queste discipline per far crescere la conoscenza sul funzionamento della mente”. Il fatto stesso che il primo libro pubblicato sui neuroni specchio sia stato scritto da Giacomo Rizzolatti e da un filosofo della scienza, Corrado Sinigaglia, è un esempio della possibilità e dell’importanza di questo dialogo. Con le parole di Gallese in “Le due facce della mimesi…” (2009): “… per mezzo di un’attenta analisi empirica dei meccanismi sub-personali indagati dalle neuroscienze siamo in grado di scoprire il carattere a più livelli dell’esperienza che facciamo del mondo. Anche se questi livelli, come chiarito dalle neuroscienze, non esauriscono pienamente questa esperienza, permettono una descrizione della sua genesi e struttura. Questi dati, a loro volta, possono alimentare e promuovere una rinnovata analisi filosofica. Questo è uno dei motivi principali per cui credo che un dialogo tra neuroscienze cognitive e filosofia non sia solamente auspicabile, ma anche indispensabile”. Dello stesso autore (dall’intervista BrainFactor): “Penso che il tema dell’intersoggettività non possa essere affrontato e risolto in modo univoco né dalla sola filosofia né dalle neuroscienze o dalla psicologia, ma richieda invece un approccio multidisciplinare. Da anni mi impegno per creare tra queste discipline occasioni di dialogo, volto soprattutto a sviluppare per quanto possibile un linguaggio comune. Credo che questo dialogo non solo continuerà, ma si svilupperà ulteriormente.” Mi chiedo: se questo è ciò che pensano i neuroscienziati che hanno scoperto i mirror (e quelli che non hanno dubbi sulla loro esistenza e sul ruolo che i mirror hanno nella cognizione e nella socialità umana), perché li si accusa di non tener conto dei contributi delle altre scienze? La pretesa di spiegare tutto in termini “fisici” Vittorio Gallese (ibidem) risponde così: “Personalmente non ho mai sostenuto che i neuroni specchio spieghino tutto quello che c’è da spiegare circa la cognizione sociale. I neuroni specchio consentono, questa almeno è la mia ipotesi, di comprendere aspetti di base dell’intersoggettività, sia da un punto di vista filogenetico che ontogenetico. La comprensione di questi aspetti di base dell’intersoggettività può avere importanti ricadute anche sulla comprensione dei meccanismi alla base delle forme più sofisticate di cognizione sociale. E’ un problema empirico capire fino a che punto ci si possa spingere utilizzando il meccanismo dei neuroni specchio come chiave di lettura della cognizione sociale. Fortunatamente questo non è un argomento di fede, ma qualcosa di verificabile in modo empirico”. Edoardo Boncinelli (fisico genetista che insegna Fondamenti biologici della conoscenza all’Università Vita Salute S. Raffaele di Milano) si esprime invece così: “Il mondo umano circostante non si stampa in sostanza nel suo genoma, ma nel suo corpo e nel suo cervello… Con la specie umana l’evoluzione biologica ha superato se stessa e ha condotto a una sorta di paradosso. Nel nostro caso, infatti, il patrimonio genetico, signore quasi assoluto della vita e del comportamento degli animali inferiori, ha per così dire volontariamente abdicato, lasciando ampi spazi all’azione dell’ambiente circostante, all’apprendimento e all’educazione. Ci possiamo considerare svincolati dalla nostra biologia, ma non dobbiamo dimenticare che la libertà di cui godiamo è una conquista e un grazioso regalo dei nostri stessi geni, regalo che non è toccato, tanto per dirne una, né ai calamari, né ai ranocchi” (2001; 2005). Il futuro: condividere la conoscenza. Questa breve e sommaria panoramica aveva lo scopo di mettere in evidenza la concreta possibilità, che il significato attribuito ai risultati di qualsivoglia ricerca non appartenga ai risultati in quanto tali, né dipenda solo da chi li legge e né da chi li fornisce. La ricerca scientifica e teoretica, da più parti ormai ci insegna, che il significato di ogni “dato di realtà” appartiene all’incontro tra chi percepisce e la cosa percepita, all’intreccio dinamico che si crea tra configurazioni della mente del percipiente e le configurazioni esterne che riceve. La cosa diventa ancora più interessante se si pensa che tale costrutto, non è solo alla base dell’approccio costruttivista alla conoscenza, rinforzato recentemente dalla scoperta dei neuroni specchio, ma è altresì uno degli assunti di base della fenomenologia husserliana, secondo cui non esiste una realtà oggettiva uguale per tutti, in quanto la realtà è solo ciò che noi possiamo o vogliamo vedere in essa; la realtà è solo ciò che si dà alla coscienza e, attualmente, abbiamo più di un evidenza che ci conferma che la “nostra coscienza” è radicata nella “nostra relazione” fra il mondo e le “nostre azioni”. Ciò di cui la scienza ha più bisogno è, a parere di chi scrive, della “azione conoscitiva e congiunta” di ogni ricercatore desideroso di esplorare qualsivoglia orizzonte in grado di gettar luce sul proprio campo di studio, e non di ricercatori interessati a tracciare solchi di demarcazione e di distinzione tra i rispettivi ambiti disciplinari, convinti che questo sia l’unico modo per esistere.

21.09.2011


ippocampo1.jpg

22 Settembre 2011 IMCI-DocNeuroscienze0

È l’ippocampo a memorizzare la successione temporale degli eventi passati, mentre la corteccia peririnale si occupa di dare un’identità alle memorie. Insieme, queste due aree cerebrali ci permettono di ricordare cosa è successo e quando è successo. Uno studio su Science

Cosa ho comprato prima, la frutta o il pane? Chi è arrivato per primo, Luca o Mario? Cosa ho mangiato prima del dolce? Quando richiamiamo alla mente fatti ed episodi, non basta averne un ricordo generico. È importante ricordare cosa è successo e quando è successo. In altre parole, bisogna che il nostro cervellosegni il tempo ai ricordi, distribuendoli coerentemente nell’arco temporale. Sino a oggi, i ricercatori non avevano idea di quali fossero le aree cerebrali deputate a questa funzione. O meglio, sapevano che il cosiddetto lobo temporale mediale (MTL) si occupa di memoria declarativa, cioè la memoria di fatti, eventi o episodi. Ma ignoravano quale regioni, all’interno di questa area, coordinassero la rappresentazione del cosa e quando Yuji Naya e Wendy Suzuki del NYU Center for Neural Science, in Usa, hanno svelato il mistero conducendo un esperimento i cui risultati sono descritti in un articolo pubblicato su Science. I ricercatori hanno messo alla prova alcune scimmie con un compito di memoria in cui dovevano ricordare quale fra due oggetti, presentati in sequenza, veniva loro mostrato per primo. Mentre svolgevano il test, alle scimmie veniva monitorata l’attività dei neuroni del lobo temporale mediale.  Si è così scoperto che, all’interno del MTL, sono due le aree a dividersi i compiti: l’ ippocampo e la corteccia peririnale. L’ippocampo, già noto per il suo ruolo nei processi mnemonici, si occupa di scandire la successione temporale degli eventi, calcolando qual è l’intervallo temporale tra un episodio e l’altro e stimando quanto tempo dovrà passare prima che si manifesti il prossimo. La corteccia peririnale, invece, sembra integrare le informazioni sul cosa e quando segnalando quale episodio è accaduto prima e quale dopo. 
Il Santo Graal delle neuroscienze è capire esattamente in che modo il nostro cervello registra e memorizza eventi importanti
ha spiegato Suzuki – si tratta di ricordi ricchi di eventi temporalmente contestualizzati. Già sapevamo che il lobo temporale mediale svolgeva un ruolo di primo piano in questo tipo di elaborazione, ma ciò che abbiamo scoperto con il nostro studio sono esattamente le regioni responsabili della memoria degli eventi e del loro ordine temporale”. La scoperta, oltre a gettare nuova luce sui processi cerebrali, aiuta a conoscere meglio (e quindi a curare in modo più efficace) patologie come l’ Alzheimer, che sappiamo interferire con la funzionalità del MTL.

05.08.2011


diabete_insipido.jpg

21 Settembre 2011 IMCI-DocClinica0

E’ questo il sintomo principale del diabete insipido, una malattia che, se tenuta sempre sotto controllo, non compromette la vita di chi ne soffre. Ecco in che modo affrontarla

Descrizione
Nonostante portino lo stesso nome, sono in realtà due malattie completamente diverse: stiamo parlando del diabete mellito (piuttosto diffuso) e del diabete insipido (più raro).
In quest’ultima malattia, infatti, a differenza della prima, non sono chiamati in causa gli zuccheri e l’insulina.
Il problema risiede, invece, nel fatto che i liquidi non vengono trattenuti dall’organismo in quantità sufficienti al suo funzionamento: il sintomo principale, infatti, è costituito da una diuresi eccessiva.

Due diverse malattie
La diuresi eccessiva, cioè lo stimolo frequente a urinare, è presente in entrambi i tipi di diabete, anche se le ragioni per cui compare sono diverse.
Il diabete mellito
L’aumento della diuresi è la conseguenza di un eccesso di glucosio nelle urine: lo zucchero richiama acqua e aumenta la quantità di urina. In questo caso, la causa della malattia è la mancanza o il cattivo funzionamento dell’insulina*.
Il diabete insipido
Il problema non risiede negli alti livelli di zucchero, ma in un’alterazione della produzione o dei meccanismi di funzionamento dell’ormone Adh, chiamato anche "ormone antidiuretico" o "vasopressina".

Centrale o renale?
Il diabete insipido può essere:
– centrale,
– nefrogenico o renale.
Nel primo caso, manca completamente l’ormone Adh (chiamato anche "vasopressina") o vi è una sua carenza più o meno accentuata, a causa di alterazioni a livello dell’ipotalamo*.
In assenza di cure, la persona può arrivare a produrre fino a 20 litri di urina al giorno, con seri pericoli per la sua salute, a causa della forte disidratazione alla quale va incontro.
Nel caso in cui la carenza di produzione di Adh sia modesta, l’aumento della diuresi sarà limitato a 2-3 litri al giorno. Nel diabete renale, invece, l’ormone Adh viene regolarmente prodotto dall’ipotalamo, ma non è in grado di adempiere alle sue funzioni a livello dei reni. Alterazioni: Il diabete renale, invece, non è legato alla produzione dell’ormone Adh (i cui livelli possono essere normali), ma a un’alterazione cromosomica a carico del recettore* dell’Adh o del gene che presiede al canale dell’acqua, cioè all’insieme delle strutture del rene che permettono il passaggio dell’acqua attraverso le loro membrane. Esistono 3 forme di diabete nefrogenico:
– quella legata al cromosoma X, che colpisce solo gli uomini;
– quella autosomica dominante, legata a un’alterazione dei cromosomi non sessuali, che colpisce gli individui che hanno un solo genitore malato di diabete nefrogenico;
– quella autosomica recessiva, che colpisce le persone con entrambi i genitori malati di diabete insipido.
La forma nefrogenica è, dunque, una malattia ereditaria.

Come si manifesta
Tre "spie". I sintomi principali del diabete insipido sono tre:
– l’aumento della diuresi, cioè del bisogno di urinare (poliuria);
– l’aumento della sete, per compensare la perdita dei liquidi (polidipsia),
– la disidratazione.
Quest’ultima si manifesta con secchezza e perdita di elasticità della pelle, della lingua e delle mucose e con perdita di tonicità dei bulbi oculari (gli occhi risultano infossati).
Uno stato serio di disidratazione, a causa della sofferenza a carico del cervello e degli altri organi, può comportare anche:
– difficoltà di coordinazione,
– rallentamento psicomotorio,
– modificazioni nel comportamento di relazione.

Esami
Diagnosi iniziale
Per essere sicuro che si tratti di diabete insipido, il medico deve prima di tutto accertarsi che la diuresi sia realmente eccessiva.
A tale scopo, la persona deve eseguire la cosiddetta "prova della diuresi elevata": in pratica, deve raccogliere, a casa, le urine delle ultime 24 ore e portarle al medico in un contenitore.
In condizioni normali, l’urina prodotta non dovrebbe superare il litro e mezzo al giorno; in caso contrario, potrebbero esserci problemi.
Dopodichè, si procede con due esami che devono essere sempre eseguiti insieme, cioè:
– l’osmolarità plasmatica, un’analisi del sangue che misura la concentrazione di elettroliti (sali minerali): questo valore non dovrebbe superare i 280 mmOsm/1;
– l’osmolarità urinaria (cioè la concentrazione di sostanze disciolte nelle urine), che si esegue come un normale esame delle urine: questo valore non dovrebbe superare i 300 mmOsm/1.
Infine, attraverso il dosaggio dell’ormone Adh, un altro esame del sangue, è possibile stabilire la quantità di ormone antidiuretico presente nel sangue.
Accertamenti
Nel caso in cui questi esami non fossero sufficienti, si può procedere a ulteriori accertamenti, quali:

– il test della disidratazione: la persona, tenuta sotto stretta osservazione, non deve bere liquidi per un certo periodo di tempo (l’esame può essere prolungato fino a 72 ore, se un calo eccessivo del peso corporeo o altre situazioni di rischio non obbligano a sospendere il test).
Questo esame serve per analizzare i valori dell’osmolarità plasmatica e di quella urinaria;

– il test di soluzione ipertonica, per controllare la quantità di vasopressina presente nell’organismo: a questo scopo, viene infusa alla persona, costantemente monitorata, una soluzione ipertonica (cloruro di sodio al 3 per cento). Se tutto è nella norma aumentando la quantità di sali nel sangue crescono anche i valori dell’Adh; se invece c’è qualche anomalia, i valori dell’ormone non aumentano.
Distinguere
Nel corso della diagnosi, per distinguere tra diabete centrale e nefrogenico, si considerano diversi fattori, tra cui:
– la familiarità,
– l’anamnesi, cioè il racconto dettagliato dei sintomi da parte della persona;
– il fatto che difficilmente il diabete nefrogenico si presenta in forma seria e comporta, quindi, un moderato aumento della diuresi.
Poichè in questo caso la produzione di ormone antidiuretico e’ normale, si può effettuare un’iniezione di Adh e valutare, a distanza di mezz’ora, la risposta dell’organismo: in caso di diabete nefrogenico, il valore dell’osmolarità urinaria non aumenta.

Terapia
Con i farmaci
La cura varia a seconda della forma in cui si manifesta la malattia.
Il diabete di tipo centrale si cura con somministrazioni di ormone Adh, disponibile sottoforma di:
– compresse,
– iniezioni sottocutanee,
– spray nasale.
Nel caso del diabete renale, invece, i medicinali utilizzati sono a base di amiloride, una sostanza in grado di normalizzare la diuresi.

Diagnosi difficile negli anziani
La maggiore difficoltà nell’effettuare una diagnosi di diabete insipido dipende dal fatto che, a meno che la malattia si manifesti in modo eclatante, esistono forme lievi, che non comportano particolari disturbi.
Anzi, la persona può arrivare a pensare che la diuresi eccessiva:
– sia una sua caratteristica personale,
– non sia un segnale di allarme.
Spesso la malattia è sottovalutata dalle persone anziane, nelle quali possono essere presenti forme più o meno lievi di diabete insipido dovuto:
– al processo di invecchiamento,
– alla presenza di aterosclerosi*,
– a modificazioni nella sintesi dell’ormone Adh.
Sebbene tali forme non siano particolarmente serie, se vengono trascurate possono diventare pericolose a causa della disidratazione che comportano.

Farmaci
Ecco il nome commerciale e il prezzo dei farmaci maggiormente utilizzati per curare il diabete insipido.
Per tutti serve la ricetta e sono tutti mutuabili (appartengono alla fascia A).
Minirin/DDAVP compresse, 30 cpr 01 mg,
Minirin/DDAVP compresse, 30 cpr 02 mg,
Minirin/DDAVP spray nasale 2,5 ml,
Minirin/DDAVP fiale intramuscolo, 10 fiale 1 ml,
Emosint fiale 4 mcg, 10 fiale 0,5 ml,
Emosint fiale 20 mcg. 10 fiale da 1 ml.

Consigli
Una vita normale
Il diabete insipido è una malattia che, se correttamente diagnosticata, può essere ben curata e il malato può condurre una vita normale.
Dovrà, però, fare attenzione:
– ad avere sempre a disposizione i farmaci di cui ha bisogno,
– a evitare situazioni che potrebbero comportare un’elevata perdita di liquidi, come imprese sportive estreme o elevate temperature esterne.

SE E’ COLPA DELLE MEDICINE
La modificazione dell’ormone Adh può essere causata dall’assunzione di alcuni farmaci, come per esempio:
– il litio, utilizzato per contrastare la depressione;
– i diuretici tiazidici, impiegati nella cura dell’ipertensione.
Anche la presenza eccessiva di calcio nell’organismo può provocare un aumento della diuresi.
L’aumento di calcio nelle urine, legato per esempio a un disordine delle paratiroidi*, può:
– determinare questo sintomo,
– far pensare che la causa sia il diabete insipido.

Note
i compiti della vasopressina
la vasopressina (adh) è prodotta dall’ipotalamo* ed è l’ormone deputato a regolare i liquidi presenti nell’organismo.
la neuroipofisi, una sorta di "centralina" cerebrale, provvede, a seconda del bisogno, a immettere tale ormone nel sangue.
da qui, l’adh raggiunge il rene, dove esplica la sua azione. più precisamente:
– se si è a corto di liquidi, perchè per esempio si è sudato molto, l’ormone blocca l’eliminazione eccessiva delle urine;
– se, al contrario, si è bevuto tanto, la vasopressina non interviene, dal momento che le riserve d’acqua dell’organismo non corrono il rischio di essere compromesse. tutte le cause della "voglia di bere" in un primo momento, il diabete insipido può essere confuso con altre malattie, come per esempio:
– il diabete mellito
– la polidipsia primaria, una malattia psicologica che porta a bere enormi quantità di liquidi, con modificazione della diuresi. per questo, il primo passo da fare per escludere la presenza di tale malattia consiste nel sottoporsi a una serie di esami. devono essere escluse anche altre cause, come:
– l’insufficienza renale,
– le malattie del tubulo renale.
esse possono compromettere i meccanismi di filtrazione del sangue.

27.07.2011


dormire_bene.jpg

21 Settembre 2011 IMCI-DocImci Studio0

Riposare bene aiuta la memoria. Riposare bene aiuta a ricordare meglio. Al contrario, dormire male e con frequenti interruzioni potrebbe influire sulla capacità che ha il cervello di costruire la memoria e i ricordi. A dismostrarlo è uno studio americano dell’Università di Stanford (Usa), pubblicato sulla rivista Proceedings of the National Academy of Science, che potrebbe aiutare a spiegare alcuni problemi di memoria legati a condizioni patologiche come l’Alzheimer e l’apnea del sonno. Secondo lo studio non è tanto rilevante la durata del riposo quanto la qualità. La ricerca statunitense. La ricerca è stata effettuata su dei topi da laboratorio, grazie ai quali si è notato come l’interruzione del sonno può causare problemi ad alcune funzioni celebrali, come ad esempio, la capacità di riconoscere oggetti familiari. ricercatori hanno inviato direttamente nel cervello delle cavie degli impulsi luminosi nel corso del sonno, in modo tale da creare disturbo senza intaccare la quantità complessiva di ore dormite (grazie appunto a tecniche di optogenetica). In un secondo momento i roditori sono stati chiusi in una scatola contenente due oggetti, uno famigliare e uno sconosciuto. A questo punto, dalle reazioni dei roditori, gli studiosi hanno intuito che i topi non riuscivano più a riconoscere gli oggetti a loro famigliari in conseguenza di un’interruzione significativa del ciclo circadiano e non facevano alcuna distinzione tra gli oggetti conosciuti e sconosciuti, evidenziando una significativa diminuzione della loro performance mnemonica. Importante la continuità del sonno. Il cervello utilizza infatti la fase del sonno profondo proprio per passare in rassegna gli eventi del giorno e decidere cosa conservare e cosa rimuovere definitivamente dalla memoria. "La continuità del sonno è uno dei principali fattori interessati da diverse condizioni patologiche che colpiscono la memoria, tra cui l’Alzheimer e altri deficit cognitivi legati all’eta’", ha spiegato il dottor Luis de Lecea, che ha condotto lo studio. Il sonno interrotto riguarda spesso anche persone dipendenti da alcol, oltre a coloro che soffrono di apnea del sonno – una condizione in cui la gola si restringe o si chiude ripetutamente durante il sonno limitando l’ossigeno e inducendo il paziente a svegliarsi. "Indipendentemente dalla quantità totale di sonno o dall’intensità del sonno, i nostri studi portano a concludere che una unità minima di sonno ininterrotto è cruciale per il consolidamento della memoria", ha concluso de Lecea.

27.07.2011


Istituto Medico Chirurgico - Termoli aut. san. reg. n.138 del 31.08.2011