di Renato Costanzo Gatti
Socialismo XXI Lazio |
Le discussioni metafisiche sull’intelligenza artificiale affollano le discussioni pertinenti e rimandano, all’indietro nel tempo, alla distinzione fatta da Cartesio, tra res extensa e res cogitans.
Il punto della problematica si restringe al seguente tema : è vero che le macchine sono molto più abili dell’uomo a svolgere compiti che l’uomo, dopo averle create, ha affidato loro. L’automobile è molto più veloce del cammino umano, centinaia di muratori con secchi di cemento che salgono decine di piani nei fabbricati in costruzione sono rimpiazzati con molto profitto con una gru. Ma questi sono lavori fisici e con convinzione siamo disposti a ritenere che le macchine sono più brave di noi. Ma se ci interroghiamo sulla capacità di pensare stentiamo a riconoscere che le macchine siano in grado di pensare meglio di noi. Siamo cioè fermamente convinti che c’è un qualcosa nella produzione del nostro pensiero che assolutamente la macchina non può avere. La res cogitans non può essere generata dalla res extensa; eppure il nostro pensiero è generato dal cervello che è res extensa e perché non potrebbe essere generato da una res extensa elettronica? Nei computers si è replicata una specie di rete neuronale simile al sistema neuroni-sinapsi che opera nella nostra scatola cranica. Si è giunti a definire il nostro cervello come un computer non elettronico ma di carne.
Che poi una mosca abbia 5 miliardi di neuroni e l’uomo 10 alla dodicesima potenza di neuroni e il supercalcolatore Cineca riesca ad fare 260 milioni di miliardi di operazioni al secondo dovrebbe farci riflettere sull’apparato tecnologico a disposizione della mente e a disposizione del computer.
In effetti oggigiorno tutti operiamo nel lavoro, a casa, in ufficio, con un personal computer che evidentemente è più capace di noi, o è più veloce o non sbaglia mai (se c’è un errore l’abbiamo fatto noi), di fatto riconosciamo la prevalente capacità del computer di operare meglio di noi. Se il computer esegue in pochi secondi lavori per i quali impiegheremmo centinaia di anni facendoli con i nostri mezzi umani, occorre convenire che la macchina elettronica è superiore a noi.
Ma, si obietta, il computer è inconsapevole, esegue senza sapere quello che fa: non è cosciente. Se interrogassimo il programma di scacchi che ha battuto il campione del mondo Kasparov, e gli chiedessimo “come hai fatto a vincere la partita?” ci risponderebbe “ad ogni mossa ho esaminato i miliardi di partite a scacchi che avevo simulato attenendomi alle informazioni datemi (ovvero come si muove il pedone, il cavallo, l’alfiere etc) con l’istruzione di mangiare il re. Sono in grado di esaminare 200 milioni di partite simulate al secondo e ho scelto la mossa con maggiori probabilità di vittoria; e ciò ad ogni mossa fino alla vittoria finale”. Ma questo è un ragionamento! La macchina sa quello che fa. Qualcuno può ancora dire che le macchine non ragionano? Sulla base di poche informazioni indispensabili, simulando miliardi di partite, ha immagazzinato in memoria le varie mosse con annessa probabilità di esito positivo, ha interrogato ad ogni mossa la sua memoria ed ha scelto la mossa con maggiori probabilità di vittoria. Ma questo è ragionare.
Sarà, dicono gli scettici, ma la macchina non è cosciente; non ha coscienza. Sarà, ma quello che conta per me non è l’esistenza di una coscienza, l’importante per me è che la macchina sia capace di fare le cose meglio di quanto le sappia fare io, e che io sia sempre in grado di governala. Della coscienza posso anche fare a meno. Ma se vogliamo insistere su questo punto pensiamo alla tartaruga di Walter Grey, essa passeggiava nel parco utilizzando l’energia della sua batteria; quando la batteria scendeva al di sotto di un certo livello la tartaruga interrompeva la passeggiata andava alla sua stazione infilava la spina e si ricaricava la batteria. Bene, posso dire che la tartaruga aveva coscienza del suo stato e quando aveva fame andava a rifocillarsi? E posso dire che era cosciente? Certo la sua coscienza era stata programmata, era stata costruita ma anche noi non ci siamo fatti da soli.
La coscienza va quindi costruita scrivendo un software, se pensiamo alla costruzione di una coscienza iniziale sensibile alle condizioni esterne dovremo fornire al robot i sensori che possano recepire le condizioni esterne: un sensore per la temperatura, uno per l’ascolto, uno per l’olfatto, uno per il gusto, per la vista. Occorrerebbe poi ponderare i vari livelli di situazioni esterne parametrando i livelli ottimali e scendendo o salendo scalarmente, i livelli dannosi, e le istruzioni, date o costruite dalla rete neurale del robot, per evitare le situazioni dannose e tendere a quelle ottimali. Il risultato sarebbe certamente un robot con una coscienza ambientale, forse limitata rispetto alla nostra (che è sensibile al bello, all’armonioso etc. ma non è detto che non si arrivi anche a tali livelli).
Ma il robot potrebbe crearsi una coscienza registrando nella sua memoria i successi e gli insuccessi delle sue ricerche alfine di perseguire le soluzioni positive e rifuggire da quelle negative. Un po’ come opera col gioco degli scacchi dove immagazzina i miliardi di partite simulate in ordine valoriale stabilendo una graduatoria. Soprattutto sono le esperienze negative che dovrebbero costruire una barriera che possiamo definire come “morale”.
Ma ritorno sul fatto che all’uomo, come utente, il fatto che la macchina sia o meno cosciente non deve essere preso in considerazione, il farlo sarebbe un inutile esercizio che fa dimenticare la vera finalità dell’I.A.: servire ed aiutare l’uomo nella soluzione di problemi grazie alla sua prepotente capacità di elaborare e trovare relazioni molto meglio di quanto sappia far l’uomo.
Non interessa che la macchina si crei una coscienza, al contrario la coscienza, eventualmente, dobbiamo imprimergliela noi per garantirci l’umanità della macchina. E’ quello che ha fatto l’Europa recentemente con l’A.I. act, e nel 2020 il Vaticano con Ethic of the A.I. Utilizzerei comunque le famose tre leggi di Asimov come “morale” della macchina:
1 – Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
2 – Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
3 – Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.
E’ un progetto che nasce con l’intento “ambizioso” di far conoscere la storia del socialismo italiano (non solo) dei suoi protagonisti noti e meno noti alle nuove generazioni. Facciamo comunicazione politica e storica, ci piace molto il web e sappiamo come fare emergere un fatto, una storia, nel grande mare della rete.