I propose to consider the question, “Can machines think?”
In questo modo ha inizio il famoso articolo di Alan Turing, pubblicato nell’ottobre del 1950, in cui viene analizzata la possibile creazione di una macchina pensante. Ancora oggi il “Test di Turing”, in grado di determinare se una macchina sia in grado di pensare, e il famoso scenario che Turing chiama “Imitation Game” sono alla base di molti sviluppi dell’IA.
ELIZA, creata nel 1960 circa, è stato uno dei primi programmi a superare il Test di Turing ed è considerata il primo esempio di elaborazione del linguaggio naturale in grado di consentire l’interazione uomo-macchina. Oggi ognuno di noi può parlare con i propri device: Siri, Cortana, Google now sembrano comprendere perfettamente i nostri comandi vocali ed intuire i nostri gusti, preferenze e bisogni. Questo è uno dei tanti esempi di IA che attualmente accompagna in modo sempre più incisivo ed inevitabile la nostra quotidianità. La vera novità dell’inarrestabile progresso tecnologico che ha caratterizzato gli ultimi decenni risiede essenzialmente in due fattori: il machine learning, ossia la possibilità di utilizzare tecniche di apprendimento veloci per istruire le macchine attraverso l’impiego di reti neurali che simulano le connessioni cerebrali; i big data, ossia la disponibilità di una mole crescente di informazioni elaborabili a velocità impensabili. In questo modo, attraverso il machine learning e l’elaborazione di miriadi di informazioni, ricavate per lo più dall’interazione con gli uomini, le macchine riescono ad ottenere risultati a volte impensabili per lo stesso essere umano.
Nei confronti dei progressi dell’IA, oltre all’ottimismo per gli affascinanti scenari futuristici, vi è l’atteggiamento pessimistico di chi, alla stregua del paradigma del creatore cui sfugge di mano la propria creatura, come pronosticato anche dalla letteratura (si pensi al celebre “Frankestain” di Mary Shelley), ritiene che si possa arrivare all’estinzione della specie umana, soppiantata dalle macchine.Ovviamente ogni evoluzione e rivoluzione portano con sé note di merito e di demerito, tra le quali è necessario trovare un giusto equilibrio.
La risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, non a caso, evidenzia la necessità di considerare le implicazioni giuridiche delle innovazioni robotiche, senza però ostacolarne il progresso, visti gli innumerevoli vantaggi derivanti dalle tecnologie.
Nel campo delle nuove tecnologie ed in particolare nel settore dell’IA le sfide che il diritto deve affrontare sono numerose, complicate, ma allo stesso tempo oltremodo stimolanti. Alla base del dibattito attualmente esistente in materia, si denotano due possibili alternative: la previsione di leggi ad hoc per disciplinare nuovi fenomeni, oppure l’interpretazione di quelle già esistenti, orientata però in senso innovativo ed evolutivo, affinché possano essere tutelati i beni di sempre anche da nuovi e potenziali pericoli. L’IA pone sfide non solo in termini di cybersecurity, ma anche di safety. Ciò vuol dire che non c’è solo un problema di sicurezza informatica e quindi l’esigenza di evitare attacchi informatici alle macchine o perpetrati attraverso le macchine, ma vi è altresì un’esigenza di tutela di diritti e libertà fondamentali dei cittadini. Giova ricordare che, nell’attuale società dell’informazione, i cittadini non sono soltanto corpo fisico, ma anche identità digitale, ossia sommatoria di tutti i dati e le informazioni che vengono sfruttati ed elaborati proprio dall’IA e a cui l’IA stessa deve in parte la sua esistenza. È questo un esempio concreto della profonda interconnessione tra uomo e robot cui oggi assistiamo e che a tratti ci affascina, a tratti ci spaventa.
Per quanto attiene all’esigenza di sicurezza e protezione dei dati personali bisogna far riferimento senza dubbio al nuovo Regolamento UE 2016/679 in materia di privacy (GDPR). Il rapporto tra IA e GDPR potrebbe apparire contrastante: se da un lato le nuove tecnologie richiedono enormi volumi di dati per poter funzionare, dall’altro il GDPR impone il principio di minimizzazione; da una parte è evidente l’esigenza di open data, ossia di dati accessibili ed utilizzabili da tutti, dall’altra il principio di finalità obbliga ad un utilizzo dei dati limitato alle finalità perseguite; non va tralasciato poi il limite posto dal GDPR alle decisioni automatizzate e cioè a quelle decisioni prese dal sistema informatico, senza l’intervento umano. Tuttavia il GDPR può contribuire all’elaborazione di sistemi di IA efficienti e allo stesso tempo privacy compliant. Il principio della privacy by design, ossia della protezione dei dati fin dalla progettazione, infatti, si traduce in una normativa basata sulla definizione di modelli e metodi di apprendimento che conducono l’IA a sviluppare scelte parametrate sullo specifico contesto d’azione. Inoltre, dal GDPR, emerge il valore non tanto della quantità, bensì della qualità dei dati e della capacità della macchina di analizzarli; per cui l’obbligo di verifica imposto al titolare del trattamento sull’esattezza e l’aggiornamento del dato, prima di utilizzarlo, diventa un elemento fondamentale per lo sviluppo di tecnologie di IA.
Uno dei settori in cui, invece, è più evidente l’obsolescenza delle norme rispetto all’evoluzione tecnologica concerne la responsabilità per eventuali danni arrecati dai sistemi di Intelligenza Artificiale. Le tre leggi di Asimov stabiliscono che un robot deve proteggere la sua esistenza, ma deve anche obbedire agli ordini impartiti dagli essere umani e non recare danno agli stessi: l’interesse supremo risiede nella tutela dell’umanità, così come si evince dalla “Legge Zero”, una sorta di legge suprema che accompagna le altre tre leggi. Allo stato attuale i robot, considerati come mere macchine, non possono essere ritenuti responsabili in proprio per azioni o omissioni che causino danni a terzi; dunque si applicano per lo più le regole relative alla responsabilità da prodotto difettoso, attribuita al produttore se sussistono determinate circostanze idonee a provare che gli effetti dannosi sono a lui imputabili.
Il nostro codice civile contempla varie altre fattispecie cui è possibile ricondurre la responsabilità civile per i danni da IA: la responsabilità dei genitori ex art. 2048 c.c., la responsabilità per il danno cagionato da animali ex art. 2052 c.c., la responsabilità per il danno cagionato da cose in custodia ex art. 2051 c.c., la responsabilità per la circolazione dei veicoli ex art. 2054, nonché le ipotesi di culpa in eligendo, come la responsabilità del datore di lavoro per il danno causato da un dipendente. Tra questi schemi il giudice potrà scegliere il più consono al caso di specie sottoposto al suo giudizio, adottando un approccio case by case, almeno fino a quando il legislatore non introduca un nuovo modello di responsabilità. Il Parlamento europeo, infatti, ha lasciato presagire la possibilità di considerare i robot più autonomi e sofisticati come persone elettroniche, dotate di capacità giuridica e quindi responsabili e obbligate al risarcimento del danno.
Un’altra idea suggerita all’interno della risoluzione e, a parere di chi scrive, meritevole di considerazione, riguarda il ricorso a forme di assicurazioni. Con tale espediente si renderebbe concreta ed effettiva la tutela della vittima e non si addebiterebbero eccessive responsabilità al produttore, perlomeno nei casi in cui le macchine autonome arrechino danni sfuggendo ai suoi effettivi poteri di controllo e di prevenzione. Allo stesso tempo, inoltre, si eviterebbe di giungere alla conclusione della mancata autosufficienza del diritto: senza perdere di vista o stravolgere i principi generali del diritto, si potrebbero trovare interpretazioni normative valide anche per fenomeni prima sconosciuti, nonostante, come si è già detto, si stia facendo strada la scommessa sull’emergere di nuove personalità, diverse da quella soggettiva. Spostando la nostra attenzione sul diritto penale troviamo che i principi di tassatività e tipicità rendono ancora più difficoltosa l’individuazione di una responsabilità penale nel settore dell’IA. Hallevy ha descritto a tal riguardo una serie di modelli, tutti culminanti nel riconoscimento di un’autonoma personalità giuridica in capo alle forme di Intelligenza Artificiale. Le sue osservazioni sono state oggetto di numerose critiche, soprattutto perché è arrivato a sostenere la sussitenza in capo agli automi non solo dell’elemento oggettivo del reato, ossia la condotta attiva o omissiva, ma anche dell’elemento psicologico (colpa o dolo). È evidente che non siamo ancora pronti a concepire un’assimilazione così forte tra caratteristiche dell’essere umano e dei sistemi di Intelligenza Artificiale, o meglio non siamo ancora pronti a ritenere che le Intelligenze Artificiali siano dotate in certa misura di una coscienza.
Riferimenti Bibliografici
- “Intelligenza Artificiale, protezione dei dati personali e regolazione“, Franco Pizzetti, Giappichelli Editore, 2018.