In un illuminante articolo del 2001-2002, il filosofo svedese Nick Bostrom, docente della Oxford University e direttore del Future of Humanity Institute, molto attivo anche in seno alla comunità transumanista, includeva l’impatto ambientale di alcune tecnologie tra i rischi esistenziali in grado di condurre l’umanità all’estinzione.

Cosa è un rischio esistenziale? Bostrom propone una classificazione del rischio basata su tre parametri: portata, intensità e probabilità che la minaccia si verifichi. La portata può essere “sostenibile” o “terminale”, l’intensità “personale”, “locale” oppure “globale”. Un “rischio esistenziale” è un rischio globale e terminale allo stesso tempo, una minaccia che potrebbe annichilire la vita intelligente di origine terrestre o limitarne drasticamente e irreversibilmente le potenzialità di sviluppo. Oltre al pericolo di un olocausto nucleare, dell’impatto di un asteroide o di una cometa con la superficie terrestre, del global warming, di un’epidemia naturale, di una qualche catastrofe collegata a un esperimento di fisica nucleare, Bostrom annovera anche l’abuso deliberato o accidentale delle nanotecnologie, la diffusione di agenti patogeni bio-ingegnerizzati o l’avvento di una superintelligenza ostile o semplicemente mal programmata. Con l’eccezione dell’impatto celeste, nessuno di questi rischi minacciava la sopravvivenza della specie umana prima della metà del XX secolo, e di certo nessuno contro cui l’umanità potesse adottare una qualche contromisura. Sono tutti fenomeni contro i quali si dimostra del tutto inutile (se non proprio impossibile) adottare il classico approccio empirico del prova-e-riprova, fino a testare una soluzione efficace. Senza un protocollo adeguato alla gestione del rischio, uno qualsiasi di questi eventi potrebbe rivelarsi fatale al primo errore, se non addirittura prima.

Il rischio esistenziale è una categoria che pone una sfida di ampia portata culturale per l’umanità intera:

  1. Ci obbliga a superare l’approccio consolidato, in quanto vanifica qualsiasi opportunità di apprendimento dall’errore. Richiede invece un approccio proattivo: previdenza per anticipare nuovi tipi di minacce e volontà di adottare azioni preventive decisive sostenendone i costi morali ed economici.
  2. Non possiamo affidarci alle istituzioni, alle norme morali, alle consuetudini sociali o alle politiche di sicurezza nazionale già sviluppate per fronteggiare altre tipologie di rischio. Il rischio esistenziale si comporta in maniera del tutto diversa da tutto ciò che abbiamo conosciuto finora (perfino una guerra mondiale combattuta con armi convenzionali o un regime nazista rappresentano delle minacce inferiori sulla scala della gravità, attestandosi a cavallo tra i rischi globali sopportabili e i rischi locali terminali). Proprio per questo la nostra reazione nel riconoscere rischi di questo tipo e nel correre ai ripari potrebbe risultare fatalmente lenta.
  3. Le contromisure rappresentano dei beni pubblici globali e come tali andrebbero trattate. I rischi esistenziali sono una minaccia per chiunque e potrebbero richiedere azioni di portata internazionale. Il rispetto della sovranità nazionale non è una giustificazione legittima per evitare di prendere contromisure adeguate.
  4. Considerando il bene delle generazioni future, il danno provocato dai rischi esistenziali va moltiplicato per un altro fattore, il tasso di sconto sociale: vale a dire il tasso di sconto adottato per calcolare il valore dei fondi spesi su progetti di interesse comune, esteso alle future generazioni.

Malgrado la sua innegabile importanza, è sorprendente quanto poco lavoro sistematico sia stato compiuto in questo settore.

Lo sforzo intellettuale di Bostrom è rivolto alla minimizzazione sistematica dei rischi esistenziali, attraverso l’accrescimento della consapevolezza e la predisposizione di contromisure adeguate. Tra le azioni suggerite ricordiamo:

  1. Il pubblico riconoscimento del profilo di rischio esistenziale.
  2. La creazione di una piattaforma internazionale per la condivisione dei costi e delle responsabilità di un bene pubblico globale come il contenimento dei rischi esistenziali.
  3. Prevedere un margine di intervento nel caso in cui sia necessario, in ultima istanza, il ricorso a un’azione preventiva.
  4. Adottare uno sviluppo tecnologico differenziato volto a posticipare l’implementazione di tecnologie pericolose e accelerare lo sviluppo di tecnologie benefiche, specie quelle in grado di attenuare le potenzialità delle tecnologie dannose.
  5. Sostenere i programmi volti a contrastare direttamente specifici rischi esistenziali.
  6. Maxipok, una regola generale per l’azione morale: massimizzare la probabilità di un effetto positivo, dove per “effetto positivo” si intende qualsiasi prodotto che scongiuri il disastro esistenziale.

L’articolo merita una lettura approfondita ma ripaga dello sforzo. Se siete interessati al futuro e alle possibilità della specie umana di evolvere in una civiltà postumana, vi potrete trovare interessantissimi spunti di riflessione, che come dimostra il caso di Elon Musk non hanno perso minimamente la loro attualità.