La sentenza sul cellulare e il mito delle ‘prove certe’

2
1381

Ha destato un certo scalpore la decisione della Corte di Appello di Torino che, confermando una sentenza di primo grado del tribunale di Ivrea, ha dato ragione a un dipendente di Telecom Italia ravvisando un “nesso di causalità” tra l’uso prolungato del telefono cellulare sul luogo di lavoro e l’insorgere di un neurinoma a un orecchio.

Come al solito, i mass media e il tam tam sui social network hanno parzialmente decontestualizzato il merito della questione, omettendo importanti precisazioni. Nel caso specifico della sentenza, i fatti si riferiscono al periodo 1995-2010, coinvolgono quindi anche anni in cui non esistevano dispositivi per attenuare l’esposizione alle radiofrequenze e si impiegavano tecnologie pre-GSM; inoltre, l’utilizzo abituale della persona coinvolta nel procedimento era l’abitacolo di un’autovettura, cioé una situazione dove le onde impattano maggiormente sulla salute.

Riportata quindi la problematica nella prospettiva corretta, non bisogna però sminuire i criteri che hanno orientato i giudici nella loro decisione. In particolare, nelle motivazioni della sentenza, la corte:

  • ha giudicato che le conoscenze scientifiche esistenti e affidabili siano tali da dover adottare un principio di precauzione (“deve ritenersi sussistente un nesso causale – o quantomeno concausale – tra tecnopatia ed esposizione, sulla base della regola del ‘più probabile che non’”);
  • ha ravvisato seri dubbi sull’attendibilità di ricerche condotte dai consulenti di gestori di telefonia cellulare e di industrie elettriche.

Immediate le reazioni del mondo accademico e del settore delle telecomunicazioni, volte a rassicurare puntualizzando che “la scienza non la fanno i giudici”. Nulla di più vero, ma come devono comportarsi i magistrati quando l’Agenzia Internazionale per la Ricerca sul Cancro (cioé la massima autorità in materia) ha inserito i campi elettromagnetici nell’ambigua categoria “possibili cancerogeni”? Senza contare poi che la mancanza di ‘prove certe’ va ben oltre la constatazione degli effetti dell’elettrosmog.

La gente comune si illude infatti che sia compito della scienza dispensare sicurezze granitiche, ma la realtà è ben diversa. Da quando, circa un secolo e mezzo fa, è iniziata l’indagine dei fenomeni complessi, si può solo ragionare in termini di ‘possibilità’ e ‘probabilità’. Come ha ben spiegato Ezio Roletto su La chimica e la società, per progredire nella conoscenza è stato necessario superare il tradizionale metodo scientifico deduttivo-empirista (feticcio dei manuali scolastici), poiché “…. i fatti non si impongono come dati naturali e immediati, ma sono il risultato di un’interrogazione della realtà in funzione di un problema; un fatto acquista un senso o diventa un problema per l’osservatore soltanto se quest’ultimo lo analizza alla luce di una teoria pertinente”. Al posto del vecchio metodo, si è quindi imposta una strategia basata su due cardini fondanti:

 

  1. La modellizzazione – I modelli sono prodotti dell’attività di ricerca che permettono agli scienziati di andare oltre la semplice descrizione dei fatti, mettendo la percezione dei fenomeni in relazione con i formalismi delle teorie. I modelli costituiscono uno strumento privilegiato per favorire la circolazione delle idee scientifiche tra i ricercatori e per descrivere, interpretare e prevedere i fenomeni.
  2. La messa alla prova del modello ossia il controllo dell’affidabilità del modello –Dopo un certo numero di controlli con esito positivo, si può ritenere che il modello sia affidabile, ma non si potrà mai sostenere che è “vero”. Come scrive Carlo Bernardini, «Nelle scienze della natura, ogni affermazione non è in genere vera, ma solo più o meno plausibile. La parola verità è sempre un’astrazione molto lontana dalla realtà».

 

Il punto 1) ci chiarisce che, nella costruzione del modello, può entrare in gioco una forte componente soggettiva (Roletto sottolinea “…l’aspetto creativo del ragionamento scientifico il quale dipende molto dall’immaginazione, dalla creatività, dalle opinioni personali e dalle preferenze individuali degli scienziati”). Inoltre, è necessario abbandonare le pretese di oggettività, essendo il mondo reale troppo complicato da modellizzare nella sua totalità, per cui alcune variabili andranno inevitabilmente escluse, benché possano poi risultare rilevanti. Un modello può rappresentare più o meno fedelmente il comportamento dell’elettromagnetismo sugli organismi umani, ma questi, nella vita reale, oltre a essere esposti alle onde respirano agenti inquinanti, ingeriscono sostanze potenzialmente nocive e sono sottoposti, chi più e chi meno, a condizioni di stress: il micidiale ‘effetto cocktail’ non è formalizzabile in termini matematici. Anche quando le correlazioni sono assodate, sussistono ampi margini di incertezza; i medici, ad esempio, possono mettermi in guardia dai sicuri pericoli legati al fumo, ma non stabilire dopo quante sigarette contrarrò un tumore o altre complicazioni alle vie respiratorie.

Il punto 2) chiarisce invece che, non essendo gli scienziati depositari di verità indiscutibili, la  loro consulenza resta imprescindibile, ma non può trasformarsi in una delega in bianco quando si ragiona sui rischi correlati all’invasività della tecnologia. In quel caso, gli scienziati (in particolare alcuni di essi, quelli maggiormente legati allo sviluppo e alla diffusione delle tecniche incriminate) potrebbero per la loro competenza e specializzazione essere le persone più idonee a decidere ma, per certi versi e proprio a causa di tale competenza e specializzazione, pure le meno indicate in assoluto.

Il sociologo Ulrich Beck, scomparso qualche anno fa, nel suo capolavoro La società del rischio, pubblicato per la prima volta nel 1986 (significativamente, l’anno della catastrofe di Chernobyl), ha illustrato le ragioni di questo paradosso; ecco uno stralcio dell’opera (corsivi nel testo originale):

 

Gli scienziati insistono sulla “qualità” del loro lavoro, e tengono alti standard teorici e metodologici per assicurarsi le loro carriere e le loro condizioni materiali. Proprio da ciò deriva una curiosa non-logica nel rapporto con i rischi. In generale, sottolineare che determinati nessi non sono accertati con sicurezza potrà anche essere cosa lodevole, che ben si addice a uno scienziato. Ma nel rapporto con i rischi, chi ne è coinvolto sa che tale atteggiamento sortisce l’effetto contrario: potenzia i rischi. Qui infatti si ha sempre a che fare con pericoli che devono essere evitati, e che risultano minacciosi nonostante la scarsa probabilità che si verifichino. Se sulla base di un livello di conoscenze “non chiaro” si nega il riconoscimento di un rischio, ciò significa omettere di prendere le necessarie contromisure e lasciar crescere il pericolo. Elevando gli standard di scientificità la cerchia dei rischi riconosciuti che giustificano un intervento è ridotta al minimo, e di conseguenza si rilasciano implicitamente dei lasciapassare scientifici per il potenziamento dei rischi.
Di solito non c’è l’inquinatore, ci sono molte sostanze inquinanti che nell’aria provengono da molte ciminiere e sono per di più spesso correlate con disturbi non specifici, attribuibili sempre a numerose ‘cause’ diverse. In questo contesto, chi continua a insistere sulla necessità di rigorose dimostrazioni di causalità massimizza il disconoscimento e minimizza il riconoscimento dell’inquinamento e delle malattie della civiltà moderna indotti dall’industria… Questo è anche un buon esempio di come la “razionalità” possa tramutarsi in “irrazionalità”, a seconda di come viene visto lo stesso modo di pensare e agire: in rapporto alla produzione di ricchezza o in rapporto alla produzione di rischi.

 

E’ possibile che le considerazioni espresse nella chiosa finale abbiano influenzato anche i giudici nel momento in cui hanno diffidato delle ricerche di studiosi legati al business, in quanto, al di là dei conflitti di interesse, essi riterranno prioritaria l’utilità per la produzione e minimizzeranno i rischi o li giudicheranno comunque accettabili in relazione ai presunti benefici.

Vale la pena di ricordare un caso emblematico di ‘razionalità tramutata in irrazionalità’, anche perché privo di risvolti commerciali e quindi totalmente ‘idealistico’: il professor Martin Rees, astronomo e cosmologo inglese dal 2005 presidente della Royal Society, ha ammesso candidamente che gli esperimenti condotti al CERN sul bosone di Higgs (e più in generale tutti quelli dove gli atomi si scontrano tra loro per creare quarks) non sono esenti da azzardi potenzialmente disastrosi per la vita sulla Terra, ma li ha giustificati dal momento che “L’innovazione è spesso un rischio. Ma se non sacrifichiamo dei rischi, è probabile che sacrifichiamo i benefici”.

Rees quanto meno è stato onesto, mentre altri scienziati tengono comportamenti ancora più discutibili. Nonostante alcune importanti rotture epistemologiche avvenute a metà Novecento (in particolare il cosiddetto ‘pensiero sistemico’ da cui è derivata anche l’ecologia), la scienza attuale resta pesantemente influenzata da Illuminismo e Positivismo e dai relativi costrutti ideologici, concetto di Progresso in primis.  C’è poco da stupirsi quindi se alcuni scienziati, per difendere tali dottrine da eventuali minacce, non esitino a gettare alle ortiche ponderazione e rigore obiettivo, verso cui i ricercatori dovrebbero mostrare una naturale inclinazione.

Persino menti eccelse come Rubbia o Zichichi, quando dissertano dell’influenza antropica  sul riscaldamento globale, danno prova di comportamenti degni dei peggiori analfabeti funzionali, propagandando la peggior disinformazione. Siccome è da ingenui confidare nella loro ingenuità (pur non essendo esperti di climatologia, avrebbero tutte le capacità intellettuali per una buona comprensione della materia), si può solo pensare che il vero movente dei  ‘dubbi’ non riguardi l’attendibilità dei modelli previsionali e questioni simili, bensì la paura (fondata) che la rinuncia ai combustibili fossili e il rispetto dei vincoli ecologici infliggano un colpo mortale al mito di Progresso e Sviluppo, con tutto ciò che ne può conseguire per le sorti di scienza e tecnica (oltre che per la posizione sociale dei loro cultori).

Pertanto, il dibattito sui rischi della tecnologia è pesantemente inficiato da logiche che poco hanno da spartire con l’obiettività della scienza. Le distorsioni e le strumentalizzazioni in cui incorre l’apparato tecno-scientifico, contaminato da interessi economici  e ideologismo, producono la montagna che partorisce il topolino dei ‘valori massimi consentiti’, utili solo per sdoganare qualsivoglia innovazione rassicurando sui suoi effetti ed evitando qualsiasi seria forma di controllo sociale. Anche qui non posso esimermi dal citare nuovamente Beck; infatti, benché si riferisca a problematiche diverse dall’elettrosmog, i suoi ragionamenti si possono applicare anche al nostro caso:

 

I valori massimi consentiti  rendono possibile una razione permanente di avvelenamento collettivo standardizzato. Nel contempo, però, annullano l’avvelenamento che essi consentono dichiarando non dannoso  l’avvelenamento già avvenuto. In questo senso, chi ha rispettato i valori massimi consentiti non ha inquinato… Quindi l'”ordinanza sulle quantità massime” è basata su un grave e pericoloso errore tecnocratico: ciò che non è stato (ancora) registrato o non è registrabile non è tossico. Detto un po’ diversamente: in caso di dubbio, proteggere le sostanze tossiche dalla pericolosa interferenza dell’uomo.

 

Tale scenario non cambierà mai fino a quando subiremo più o meno passivamente l’azione della tecno-scienza sulle nostre esistenze, limitandoci a coglierne i vantaggi tentando in qualche maniera di contenerne i pericoli. Sarebbe tutto molto diverso se, invece di lasciarci burattinare, discutessimo preventivamente sulle caratteristiche della società in cui vorremmo vivere, consapevoli dei limiti imposti dalla biosfera e dei nostri obblighi verso le generazioni future. In quel caso, potremmo davvero ragionare lucidamente sulla tecnologia che ci occorre e sulla soglia di rischio che siamo disposti ad accettare per vedere concretizzate le nostre aspettative.

 

Fonte immagine in evidenza: ANSA

2 Commenti

  1. Conosco bene il problema della valutazione scientifica dei rischi. E’ complesso, e anti-intuitivo, soprattutto quando ci si occupa di rischi bassi (per intensità o per probabilità). Un aspetto che viene costantemente trascurato è costrituito dai rischi connessi al principio di precauzione stesso. Il principio di precauzione, quando suggerisce azioni per limitare il rischio presunto, espone inevitabilmente a ulteriori rischi: quelli derivanti direttamente dalle azioni suggerite. Bisognerebbe sempre essere in grado di valutare quantitativamente sia il rischio connesso all’esposizione, che il rischio connesso alle azioni intraprese per limitare l’esposizione. Un esempio banale “al limite”: il consiglio di evitare del tutto l’uso del cellulare, rinunciando a possederlo, certamente rimuove il rischio connesso all’effetto diretto del cellulare sul corpo dell’utente. Lo espone però a non poter chiedere aiuto in situazioni di pericolo o a renderne impossile la localizzazione: e questo può far perdere la vita.

    • Senza rischi non sarebbe possibile la vita stessa. Solo che un conto sono i rischi consapevolmente presi (come la rinuncia al cellulare), altri sono quelli dovuti a effetti collaterali più o meno sconosciuti. Neanche questi sono eliminabili in toto, però si possono contenere.

Lascia un commento

Inserisci il tuo commento
Inserisci qui il tuo nome

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.