«L’IA? Non dobbiamo lasciare che sia lo strumento a usare noi»

Intervista a Stefano Quintarelli, esperto che parteciperà al meeting annuale della Gabv, a Padova e Milano dal 26 al 29 febbraio

Stefano Quintarelli © Diego Figone/International Journalism Fest

Imprenditore, specialista di sistemi informatici, servizi di rete e sicurezza. Consulente delle Nazioni Unite e della Commissione europea. Divulgatore scientifico, con all’attivo diversi libri che ci aiutano a comprendere la società dell’informazione in cui viviamo. Stefano Quintarelli è tra gli ospiti dell’incontro annuale della Gabv (Global Alliance for Banking Values) che si terrà a Padova e Milano dal 26 al 29 febbraio. In particolare terrà la relazione principale sulle sfide etiche che ci aspettano davanti alle nuove tecnologie durante la cerimonia di apertura lunedì 26 febbraio presso l’aula magna dell’università di Padova.

Nel suo libro “Capitalismo immateriale. Le tecnologie digitali e il nuovo conflitto sociale” (Bollati Boringhieri, 2019) lei teorizza la nascita di un nuovo conflitto di classe nell’era dell’informazione. Un conflitto tra intermediari e intermediati che supera il tradizionale conflitto tra capitale e lavoro. Ce lo vuole raccontare?

Internet ci ha immersi in una dimensione immateriale con proprietà di base molto diverse da quella materiale che conosciamo e cui siamo abituati – letteralmente – da millenni. Questa dimensione è caratterizzata, quasi sempre, da costi variabili nulli. Fattore che determina alcune profonde trasformazioni nei modelli economici di ampi settori, sottoposti a forti pressioni e re-intermediazione da parte di colossi multinazionali.

Gli intermediari “immateriali” grazie ai costi variabili nulli e ad effetti quali lock-in ed effetto rete, diventano rapidamente monopolisti. O al più oligopolisti su scala globale nei loro settori di attività. Una volta consolidato il loro dominio, questo approccio chiuso riduce la concorrenza e impoverisce la biodiversità dell’infosfera. Gli effetti della rivoluzione digitale si estendono a tutti i mercati. Dove questi operatori diventano, di fatto, le principali se non uniche interfacce utente dell’accesso a servizi e beni precedentemente offerti da una moltitudine di “intermediari materiali”.

Il conflitto che ha caratterizzato la rivoluzione industriale era radicato nel rapporto tra capitale e lavoro, portando all’ascesa di un modello di capitalismo di massa mitigato da norme di tutela e garanzia. Il conflitto indotto dalla rivoluzione digitale si radica nel rapporto tra produzione (capitale e lavoro) da un lato e informazione dall’altro. Tra i beni/servizi prodotti da capitale e lavoro e l’informazione per poterli fruire, gestita da pochi.

Monopolisti e/o oligopolisti globali delocalizzati in paradisi fiscali che, esigendo una parte rilevante del valore, gravano sia sul capitale che sul lavoro. Al tradizionale conflitto sociale tra capitale e lavoro si è aggiunta una ulteriore dimensione, l’informazione, che grava su entrambi.

Uno dei punti chiave della sua relazione introduttiva all’incontro della Gabv sarà l’intelligenza artificiale. Anche qui ha scritto un libro. “Intelligenza artificiale. Cos’è davvero, come funziona, che effetti avrà” (Bollati Boringhieri, 2020). Quali sono le opportunità e rischi dell’AI? E quali le sfide da affrontare?

L’AI è semplicemente un nuovo modo di produrre software. Consente di realizzare attività – classificazione, predizione, generazione – che in precedenza non potevamo affrontare con gli algoritmi tradizionali. Limitati a problemi risolvibili con precise sequenze di istruzioni. Una volta che una attività viene digitalizzata, può essere affrontata a una velocità e una scala enormemente maggiori. Per esempio un oggetto banale come una calcolatrice è infinitamente più veloce di un uomo nell’effettuare calcoli.

Grazie all’AI possiamo digitalizzare nuove categorie di problemi. La capacità di analizzare grandi quantità di dati in tempo reale per identificare tendenze o eccezioni altrimenti difficili da individuare può essere utile in molteplici contesti, come nel settore finanziario per prevenire frodi o nel marketing per personalizzare le offerte ai clienti. L’automazione dei processi, che consente di migliorare l’efficienza e ridurre i costi. Nell’assistenza sanitaria, può essere utilizzata per aiutare nella diagnosi di malattie in modo più rapido e su una maggiore quantità di pazienti. «Il software mangia il mondo», diceva Marc Andreessen. Oggi l’AI mangia il software tradizionale.

Leggiamo dovunque speculazioni sui numerosi rischi dell’AI, ma la narrazione attuale è enfatizzata. Non c’è il rischio che distrugga l’umanità. Il grande rischio, a mio avviso sottovalutato, siamo noi. Il rischio è che riponiamo eccessive aspettative nell’AI e conseguentemente la adottiamo con aspettative salvifiche, senza capire i suoi limiti e rischi. Se la adottiamo con superficialità, sperando che risolva qualunque problema, l’applicazione che ne faremo può diventare dannosa o pericolosa.

Dobbiamo capire che essa produce output probabilistici sulla base di modelli statistici. E, a causa di ciò, è imprecisa. Non ci possiamo quindi affidare a essa per decisioni che possono avere un impatto sulla vita delle persone. Come ad esempio lasciarle prendere la decisione finale in materia di erogazione di mutui o finanziamenti, l’ammissione a una scuola, la decisione di un procedimento giuridico. O la diagnosi di una condizione clinica, la valutazione del rendimento delle persone. È uno strumento e dobbiamo usarlo, non lasciare che sia lo strumento a usare noi.

Ci racconta chi e come governa questo settore? Ci sembra infatti che lo sviluppo della AI oltre che in mano al monopolio delle Big Tech sia sempre più in mano a, e quindi condizionato da, i mercati e la speculazione finanziaria.

Per il tipo di AI che oggi eccita maggiormente le cronache, ovvero quella “generativa”, è decisamente così. Dal punto di vista economico chi fornisce questa potenza di calcolo sterminata è l’attuale vincitore nella filiera dell’AI generativa. In particolare, chi produce l’hardware e chi accende e affitta quest’hardware alle aziende tecnologiche che, a loro volta, offrono servizi applicativi ai clienti finali. Vi sono oggi le prime avvisaglie che una miriade di queste aziende tecnologiche non sopravviveranno.

I clienti che si rivolgono a queste aziende per dei progetti pilota riscontrano imprecisioni dell’output – chiamate in gergo “allucinazioni” – che sono spesso rilevanti in misura tale da non renderli economicamente vantaggiosi. Molte applicazioni non superano la fase di progetto pilota. A causa della concorrenza tra fornitori e della ricerca del vantaggio economico per i clienti, le aziende tecnologiche stanno abbassando i prezzi ad un livello tale che riescono con difficoltà e solo in pochi casi a remunerare i loro fornitori. Non voglio dire con questo che non ci saranno dei vincitori di questa fase speculativa: c’è sempre chi ha comprato a poco e ha venduto o venderà a tanto, alle prime avvisaglie dello scoppio della bolla.

Un altro libro molto interessante è “Internet fatta a pezzi: Sovranità digitale, sovranismi e big tech” (Bollati Boringhieri, 2023).  Rimaniamo sulle AI. È possibile regolamentarle? Ma soprattutto è possibile una AI comune, etica, condivisa e dal basso, al di fuori di questo medioevo tecnologico in cui siamo sprofondati?

In prima battuta posso dire che non si può rimettere un genio nella bottiglia. Per cui non solo è possibile regolamentare l’applicazione di questo modo di fare software ma è anzi necessario. Ho partecipato al gruppo di esperti della Commissione europea che ha scritto le linee guida etiche e ha formulato le raccomandazioni di policy. Uno dei lavori da cui è scaturita la regolamentazione europea nota come AI Act. Mi ritrovo quindi nell’approccio graduato adottato dalla Commissione: non tutte le applicazioni dell’AI hanno lo stesso impatto.

Una cosa è se un aspirapolvere ci lascia sempre un po’ di sporco in un angolo della sala, altra se una procedura scarta erroneamente una persona da un concorso. Altro ancora se un giocattolo condiziona il comportamento di un bambino. L’approccio della Commissione è di avere una serie di applicazioni senza particolari obblighi, altri con un obbligo di valutazione di impatto e adozione di tecniche di mitigazione di eventuali errori, fino a categorie di applicazioni che sono proprio vietate.

Per quanto riguarda la scala dei fornitori di applicazioni AI, è ancora troppo presto per capire come sarà l’effetto finale. La conoscenza, anche grazie alla pratica dell’Open source, è sempre più diffusa e alla portata di tutti. Il costo dell’hardware necessario tenderà a diminuire divenendo diffusamente disponibile. In questo senso dovremmo aspettarci un fiorire di applicazioni AI realizzate da un bacino diffuso di professionisti, in modo simile a quanto avviene oggi con il software tradizionale.

Il rischio di centralizzazione e sfruttamento da parte di un numero limitato di potentati è percepito maggiormente per quanto riguarda l’AI “generativa”, ma è ancora presto per capire come si distribuirà il valore in futuro. Inoltre su queste tecnologie gravano ulteriormente incertezze regolatorie in materia di sicurezza, privacy e proprietà intellettuale. Le cronache ci raccontano con crescente frequenza di problemi di sicurezza dei modelli che risultano vulnerabili rispetto ad attacchi cibernetici tesi a esfiltrare informazioni o manometterne il funzionamento. Ciò potrà avere un impatto nella loro adozione, aldilà dei numerosi proof of concept che vengono realizzati oggi. 

Come denunciato in numerose sedi e anche recentemente dal parlamento britannico, molte aziende utilizzano materiale protetto da copyright senza autorizzazione. Anche se le questioni legali sono complesse, i principi basilari sono chiari: la proprietà intellettuale serve a incentivare l’innovazione ricompensando i creatori per i loro sforzi e ad impedire che altri utilizzino le opere senza autorizzazione. L’attuale quadro giuridico, specie nei paesi anglosassoni, non riesce a garantire questi risultati ed è assai probabile che nel breve-medio periodo i governi interverranno. In definitiva, ci sono troppe incertezze ed è ancora troppo presto per sapere come si svilupperà il mercato.

Ultima domanda. Lei tra qualche settimana parteciperà all’incontro promosso dalla GABV. Un’associazione di banche che si fondano su valori etici e usano la finanza per tutelare società e ambiente. Quanto è importante nell’epoca in cui viviamo un modo diverso di fare finanza?

Non pretendo di essere un esperto di finanza quale non sono ma è certo che la finanza viene rivoluzionata dalla tecnologia e dalla conseguente disponibilità di dati, della loro elaborazione ed interpretazione, della connettività che annulla tempi e distanze di relazione. L’emergere di piattaforme alternative di intermediazione di capitale di rischio e di lending sono un portato di queste disponibilità tecnologiche e di evoluzioni regolamentari che ne interpretano e sostengono le possibilità. Penso ad esempio in Europa alla PSD2, alla MICA e persino alla DORA che impone nuovi ruoli e nuovi oneri agli intermediari. 

Per quanto riguarda il mercato che conosco meglio, quello del Venture Capital, osservo che c’è ancora un po’ di errata percezione e arretratezza rispetto ai mercati più maturi, radicata anche nella regolamentazione e nella cultura, oltre che nelle pratiche delle istituzioni finanziarie. Da noi viene percepito come fenomeno marginale, una sottocategoria del private equity da cui eredita vincoli, procedure e atteggiamenti di avversione al rischio. Dovrebbe invece essere percepito in modo specifico, con procedure e atteggiamenti specifici per favorire la sua missione. Per dare opportunità a giovani e imprenditori meritevoli per creare ricchezza sostenibile e occupazione.

Il venture capital è uno strumento eccellente per abilitare la creazione di aziende innovative e di occupazione giovanile. Una recente analisi ne mostra anche la correlazione positiva con natalità e migrazione giovanile. Mentre negli Stati Uniti i fondi di venture capital sono gestiti da ex imprenditori nel 52% dei casi, in Europa ciò accade solo nell’8% dei casi, e con una maggiore concentrazione nel nord Europa. Ma questa lettura socioeconomica del Venture Capital non è prevalente ed è più spesso considerato un mero strumento finanziario.

Per quanto riguarda il mercato dei pagamenti, tecnologia e regolamentazione stanno creando, oltre al circuito dei pagamenti, un circuito dell’identità digitale che – in assenza di misure tempestive – sarà controllato dalle maggiori aziende digitali globali. Questi due circuiti, identità e pagamenti, nel tempo tenderanno a sovrapporsi ponendo le multinazionali digitali in una posizione di vantaggio per intervenire anche in altri settori della finanza. Grazie a loro vantaggi tecnologici, di scala e di disponibilità di dati. Non è un caso che Google stia avvicinandosi a questi mercati con wallet e con AML as a service.

Una incognita potrebbe essere la reazione delle persone a questi scenari di maggiore pervasività tecnologica, che potrebbe differire anche sulla base di fattori culturali. Se guardiamo alle esperienze recenti nelle telecomunicazioni in Italia, al contrario degli USA, vediamo come nella ricerca di un vantaggio competitivo sia avvenuto un reshoring dei call center. E una diminuzione dei sistemi di risposta automatica a vantaggio di una relazione più umana. Alla fine l’uomo potrebbe sorprenderci.