venerdì 7 giugno 2013

LE LEGGI di Massimo Licari



È stata colpa nostra.
Il progetto AI della NASA era in una fase molto avanzata nel 2050, quando potemmo accedere ai computer quantistici D-Wave 4G presso l’Ames Research Center.
Il Dipartimento della sicurezza interna aveva affidato alla nostra unità di ricerca il compito di sviluppare un robot dotato di intelligenza artificiale per proteggere la popolazione dal rischio del terrorismo.
Quelli della NASA erano concentrati sullo sviluppo di macchine in grado di esplorare autonomamente i pianeti, a noi interessava studiare una soluzione più pratica.
Le esplosioni di Boston del 2013 avevano dato il via a una serie di attentati che avevano terrorizzato la popolazione americana negli anni successivi.
Gli Stati Uniti non erano abituati ad essere sotto attacco.
Nel 2001 l’attacco alle Torri Gemelle aveva scatenato una reazione internazionale che in qualche modo aveva compensato l’onta subita.
Ma nei decenni successivi gli attacchi erano stati opera del terrorismo interno, e non c’era nessun nemico su cui scatenare la furia militare.
Quando nel 2063 producemmo il primo modello di RAD (Robot for the Active Defense) io ero un giovane ingegnere trentenne pieno di entusiasmo.
Dovemmo decidere che direttive impartire a quella splendida macchina.
Si trattava di un robot che aveva il compito di prevenire e reprimere la criminalità e il terrorismo. Le storiche tre leggi di Asimov non erano sufficienti, perché avrebbero impedito alla macchina di difendere la vita umana.
Le tre leggi recitavano:
1) Un robot non può recare danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3) Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.
L’applicazione della prima legge avrebbe impedito di fermare un terrorista in procinto di far esplodere una bomba se la vita del terrorista stesso fosse stata a rischio a causa dell’intervento del robot.
Così pensammo di risolvere il problema con la legge zero, sempre di Asimov, che dice:
0) Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno.
Essendo la legge zero, diventava la più importante e, in casi estremi, avrebbe consentito di contravvenire anche alla Prima legge.
Non ci rendevamo conto di quello che avrebbe comportato.
Quando arrivammo alla terza generazione di RAD, pensammo di consentire ai robot di condividere le loro esperienze individuali, in modo da renderli più esperti ed efficienti.
In breve, nacque una rete neurale formata da tutte le menti quantistiche dei migliaia di robot che circolavano nelle nostre città.
Non ci volle molto perché i robot arrivassero alla conclusione che il rischio maggiore per l’umanità era rappresentato dalla stessa umanità.
Nelle megalopoli l’uso dei respiratori era diventato obbligatorio a causa dell’inquinamento e il problema delle scorie nucleari era sempre più pressante.
Era sempre più difficile smaltire i milioni di tonnellate di rifiuti che venivano prodotti a livello globale.
L’acqua potabile era diventata una risorsa preziosa ed era ormai razionata in ogni luogo della Terra.
Le colture transgeniche erano l’unica soluzione per continuare ad avere cibo a sufficienza e l’umanità si era rassegnata alle mutazioni genetiche che sempre più spesso colpivano i neonati.
I robot concepirono allora che dovevano intervenire per non recare danno all’umanità.
Così iniziò la guerra.
Non c’era stato modo di fermarla, perché qualsiasi comando in tal senso, che sarebbe rientrato nella Seconda legge, era di fatto in contrasto con la legge Zero, che aveva la prevalenza.
Lo sterminio proseguì fino a quando l’umanità fu decimata. A quel punto i robot si fermarono, perché non c’era più un’umanità da proteggere.
Diventarono gli angeli custodi dei sopravvissuti, controllando la loro vita e soprattutto il tasso di natalità, che doveva rimanere basso per non far ripiombare l’uomo nella condizione che aveva dato inizio alla guerra.
Siamo sopravvissuti, ma siamo diventati prigionieri.
I robot ci trattano bene, sono servizievoli, svolgono per noi i lavori pesanti.
Ma non siamo più liberi come una volta.
I nuovi filosofi sostengono che l’uomo è entrato in una condizione di beatitudine.
Dall’alto dei miei novantatré anni, mi sento di dire che si stava meglio quando si stava peggio.

2 commenti:

  1. Un benvenuto a Massimo Licari tra i collaboratori di LF.
    Bel racconto, il suo.

    RispondiElimina
  2. Racconto interessante, scritto bene. Si ispira a Asimov, ma mi riporta alle atmosfere dello splendido "Anni senza fine" di Clifford D. Simak.

    Giuseppe Novellino

    RispondiElimina