Intelligenza artificiale e diritto penale. L’ High frequency trading nel mercato elettronico.

adsense – Responsive Pre Articolo

L’intelligenza artificiale (IA), è una tecnologia informatica che rivoluziona il modo in cui l’uomo interagisce con la macchina ponendo al ceto dei giuristi degli interrogativi nuovi, mettendo in discussione sia le capacità di risposta del sistema, le tradizionali categorie concettuali, nonché i principi che fondano il nostro sistema penale. In termini tecnici si parla di “Fintech”, un ampio ed eterogeneo ecosistema che vede come protagonisti le tecnologie emergenti quali: Big Data Analytics, Artificial Intelligence, Machine Learning, Cloud Computing e algoritmi sempre più sofisticati e complessi. Che non si tratti di fantascienza è confermato dalla previsione contenuta nella Risoluzione del Parlamento Europeo sulla Robotica del 16 febbraio 2017, recante le raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, in cui si legge che: “È possibile che a lungo termine l’intelligenza artificiale superi la capacità intellettuale umana”.

Uno scenario che desta perplessità, soprattutto se accompagnato dalla presenza di nuove fattispecie penali contrassegnate da un’evidente rottura del rapporto di “autoria” che intercorre tra la condotta posta in essere e la persona fisica. Nascono inevitabilmente degli interrogativi: la macchina agisce o è agita? Le intelligenze artificiali, in quanto dotate di autonomia, sono soggetti realmente capaci di manifestare una “propria” intenzionalità e quindi un proprio agire? In dottrina si parla di “responsabilità vicaria” (o indiretta) dell’uomo[1]. Secondo questa teoria le macchine non sono che meri strumenti dall’agire criminoso. In precedenza, infatti, non si ponevano rilevanti problemi in merito alla responsabilità penale collegata a forme di intelligenza artificiale, dato che le operazioni delle macchine e dei sistemi informatici erano perlopiù prevedibili. Vigeva a pieno la regola del “machina delinquere non potest[2]. Negli ultimi anni il progresso tecnologico e l’innovazione finanziaria hanno favorito la diffusione di attività di High frequency trading (trading ad alta frequenza), una modalità operativa basata sull’impiego di algoritmi che consentono di acquisire, elaborare e reagire alle informazioni di mercato con una velocità elevata. Gli algoritmi, ormai definiti come “Il nuovo centro gravitazionale, il motore di una rivoluzione copernicana di matrice tecnologica nel settore finanziario[3], operando ad una velocità elevata sono in grado di immettere e rimuovere contestualmente gli ordini determinando uno scenario di mercato completamente difforme al reale, a tal proposito si parla di “operazioni fantasma” che hanno come unico scopo quello di indurre i trader tradizionali ad effettuare operazioni sbagliate come reazione a stimoli non reali[4]. L’utilizzo del trading ad alta frequenza per scopi di manipolazione del mercato ha generato un’inevitabile degradazione della qualità delle transazioni accompagnata da una spregiudicata trasmigrazione degli investitori dal mercato istituzionale a piattaforme alternative a basso tasso di trasparenza, si tratta dei cd. dark pool. In questo quadro disorganico ed ambiguo sarebbe auspicabile adottare degli strumenti di policy, ovvero misure repressive e limitative per fronteggiare le condizioni di volatilità del mercato che sono già state proposte dalla Consob, al fine di arginare gli effetti negativi del trading algoritmico ad alta frequenza. Tali misure sono principalmente volte all’introduzione di obblighi di notifica degli algoritmi, concernenti le loro caratteristiche e funzionalità, da parte degli operatori che se ne avvalgono alle autorità controllanti; l’introduzione di Circuit breakers, al fine di limitare o interrompere il trading al verificarsi di determinate condizioni (si tratta del cd. trading halt), nonché alla determinazione di un tempo minimo di permanenza degli ordini nel book di negoziazione[5]. L’evoluzione dell’ intelligenza artificiale ha messo inevitabilmente in crisi il precedente modello di imputazione della responsabilità penale, fondata su una responsabilità indiretta dell’uomo, dato che gli algoritmi non sono più chiusi ed insuscettibili di cambiamenti, ma sono aperti ad automodifiche strutturali: “Il soggetto artificiale ricorda il passato, apprende il proprio vissuto, grazie al machine learning e modifica il proprio comportamento di conseguenza, adattandolo così a nuovi stimoli nel frattempo ricevuti[6]. La capacità degli algoritmi di seconda generazione di porre in essere delle operazioni imprevedibili, connotate da una spregiudicata “volatilità”, dettata dai diversi stimoli provenienti dal mercato, mal si concilia con la prevedibilità e l’intenzionalità dell’operazione. Le istruzioni del programmatore indicano sicuramente all’algoritmo quale modello di comportamento finanziario da seguire, ma sicuramente non il tipo e l’identità del titolo da colpire specificamente[7] . Gli evidenti problemi di imputazione, hanno aperto una voragine, un vuoto di tutela penale. Il dibattito sulle IA necessita inevitabilmente di rispondere alle domande: la macchina potrebbe rappresentare un nuovo soggetto per il diritto? Le intelligenze artificiali e i robot intelligenti sono dotati di soggettività autonoma, come gli enti collettivi e quindi sono soggetti responsabili? A fronte di tali interrogativi e dell’evidente vuoto di tutela penale, la dottrina si è mostrata particolarmente restia all’affermazione di un principio in virtù del quale anche le macchine possono incorrere in responsabilità penale, in quanto tale affermazione collide con il principio di personalità della stessa. In particolare le critiche derivanti della dottrina italiana si riconducono a tre nodi fondamentali: la persistente assenza di colpevolezza, dato che le macchine intelligenti sono sicuramente dotate di un margine di imprevedibilità ma non sono sicuramente in grado prendere atto del disvalore della condotta illecita posta in essere; la perdita di senso della funzione della pena, una pena irrogata a una macchina, non potrebbe svolgere nessuna funzione rieducativa e la fallacia del parallelo con la Corporate liability, l’estensione dell’applicabilità del modello d’imputazione all’art. 8 del d.lgs. 231/2001, risulta fallimentare, in primo luogo perché presuppone parametri diversi ai fini del giudizio di responsabilità dell’ente, come ad esempio la preventiva predisposizione da parte dell’ente di modelli organizzativi finalizzati a prevenire la commissione dei reati, in secondo luogo perché essa è diretta verso enti naturalisticamente fittizi, che esistono solo nel mondo giuridico, mentre invece le intelligenze artificiali esistono davvero nel mondo fisico. A fronte di queste considerazioni, al fine di “arginare” questo vuoto di tutela penale sono state proposte dalla dottrina alcune soluzioni:

  1. Il divieto tout court di sfruttamento dei sistemi robotici. Tale scelta drastica è ispirata a logiche di precauzione, con annesso rischio di gettare via in blocco, assieme ai rischi tecnologici, i benefici sociali derivanti dall’utilizzo della robotica;
  2. La costruzione di un’area più o meno ampia di rischio consentito. Essa dovrebbe basarsi su un’attenta operazione di bilanciamento tra l’utilità collettiva e dei rischi connaturati dallo sviluppo dell’intelligenza artificiale;
  3. La creazione di una “persona artificiale”. Tale proposta, è stata oggetto di fiumi di critiche poiché lontana dalla visione antropomorfica del diritto penale, secondo la quale i criteri di imputazione e le categorie dogmatiche del sistema penale sono stati pensati e costruiti avendo come destinatario esclusivamente l’uomo. Tale proposta è frutto di una tesi “funzionalista”, in base alla quale non vi sarebbe nessuna differenza ontologico-qualitativa tra cervello umano e “cervello” elettronico, in quanto vi è la completa assimilazione del cervello all’ hardware e della mente al software;
  4. La previsione di una “colpa da programmatore” per non aver previsto l’imprevedibile. Secondo questa tesi sarebbe colposo il comportamento del programmatore che non preveda l’imprevedibilità del robot intelligente, ovvero che non si attivi per la predisposizione di misure di sicurezza che pervengono la realizzazione di reati da parte di robot intelligenti, all’insegna dell’osservanza di regole cautelari e diligenza;
  5. La previsione di un “dolo del programmatore”. Sulla base di tale tesi appare improbabile che una macchina possa concretamente assumersi la responsabilità, nonostante l’alto livello di “Machine Learning”, poiché anche il più sofisticato e complesso degli algoritmi è pur sempre frutto di passaggi logici elementari riconducibili ad un’iniziale programmazione umana[8]. “L’uomo non può dare la colpa alla macchina, se la usa intenzionalmente come strumento o se conosce e comunque accetta per sé i rischi penali che possono derivare dal suo agire[9].

Si tratta di perplessità dal sapore fantascientifico che interessano giuristi ed informatici a cui il diritto penale, ma non solo, dovrà dare inevitabilmente delle risposte, di pari passo all’evoluzione tecnologica. Accogliendo l’impostazione secondo la quale il riconoscimento di una soggettività della macchina fosse corretta, potrebbe magari risolversi il vuoto di tutela penale, protagonista della nostra realtà, arrivando fino a parlare di un “diritto penale robotico”, ma sicuramente si aprirebbero numerosi problemi: come stabilire il punto esatto in cui una IA cessa di essere res e diviene persona? E soprattutto come si concilia la responsabilità penale di un oggetto inanimato con il principio di rieducazione della sanzione penale? Quesiti che saranno protagonisti del nostro futuro… Volendo concludere con un’espressione del giurista Cappellini “Un futuro che oggi vediamo oscuramente, come nel riflesso di uno specchio: mentre si staglia ancora nitido, benché forse prossimo al tramonto, il rassicurante, umano principio del machina delinquere non potest”.

[1] MAGRO M. B., Biorobotica, robotica e diritto penale, in Percorsi costituzionali, fasc.1/2 2016. L’autrice sottolinea che i robot intelligenti agiscono in modo non programmato e imprevedibile e questa imprevedibilità pone problemi di attribuzione della responsabilità penale a carico dei programmatori, dei costruttori e degli utilizzatori. Se i robot e le Intelligenze artificiali sono artefatti in grado di migliorare le capacità degli esseri umani, mezzi di supporto e di comunicazione, si pone un problema inverso di imputazione penale “Qui l’agente non umano agisce, la persona fisica ne risponde”.

[2] Espressione coniata dal giurista A. CAPPELLINI nel suo saggio Machina delinquere non potest? Brevi appunti su intelligenza artificiale e responsabilità penale, in Riv. Quadrim. disCrimen, 27 marzo 2019.

[3] M.T. PARACAMPO, FinTech tra algoritmi, trasparenza e algo-governance, in Diritto della banca e del mercato finanziario, 2/2019, cit.216; Per una panoramica completa sul tema PARACAMPO M.T., Fintech, Introduzione ai profili giuridici di un mercato unico tecnologico dei servizi finanziari, Giappichelli Editore, 2017.

[4] Si tratta dell’Ignotum momentum, del Quote stuffing, del Pinging, dello Smoking, del Layering e dello Spoofing, ovvero di operazioni finanziarie assimilabili alle manipolazioni di mercato di cui all’art. 185 del T.U.F. il cui minimo comune denominatore è lo sfruttamento della velocità operativa di un HFT. Per ulteriori approfondimenti PUORRO A., Questioni di Economia e Finanza, High Frequency Trading: una panoramica, settembre 2013, testo consultabile sul sito https://www.bancaditalia.it/homepage/index.html;

[5] Sulle possibili misure di intervento per arginare i danni del trading ad alta frequenza Cfr. V. CAIVANO, S. CICCARELLI, G. DI STEFANO, M. FRATINI, G. GASPARRI, M. GILIBERTI, N. LINCIANO, I. TAROLA, Il trading ad alta frequenza Caratteristiche, effetti, questioni di policy, 5 dicembre 2012, consultabile su http://www.consob.it/web/consob/home ; PEZZUTO E., RAZZANTE R., MiFID II: Le novità per il mercato finanziario, Giappichelli Editore, Torino,2018, 4 ; N. LINCIANO, I.TAROLA, Il trading ad alta frequenza. Effetti e questioni di policy, in Bancaria, 10,2013.

[6] MAGRO M.B., op.cit.

[7] Sul punto TADDEI ELMI G., ROMANI F., Il robot tra ius condendum e ius conditum, In Informatica e diritto, Vol. XXV, 1, 2016.

[8] Sul punto S. DE FAZIO, Responsabilità dei robot nei processi automatizzati: norme attuali e scenari futuri, in https://www.agendadigitale.eu/ 28 ottobre 2019.

[9] M.B. MAGRO, A.I.: la responsabilità penale per la progettazione, la costruzione e l’uso dei robot, in Il quotidiano giuridico, 12 giugno 2018. Letteralmente “L’azione volontaria dell’agente non-umano incardina responsabilità sull’uomo, in quanto l’azione del robot si indentifica e rappresenta una longa manus della persona umana. Non si può escludere che l’agente intelligente, una volta sviluppato, sia dolosamente utilizzato all’insaputa degli utenti, con la finalità di raccoglierne un profilo emotivo e di sfruttare a fini commerciali le risposte emotive indotte in base alle informazioni raccolte”.

Rosa D’Ambra,   Laureanda in Giurisprudenza presso l’Università degli Studi di Salerno

 

adsense – Responsive – Post Articolo