Un chatbot come consulente finanziario: è davvero una buona idea?

Dopo il successo di ChatGPT, le società finanziarie guardano con interesse ai chatbot. Ma i dubbi da sbrogliare sono ancora parecchi

ChatGPT è un chatbot basato sull'Intelligenza Artificiale © Rolf van Root/Unsplash

È l’argomento del momento. ChatGPT, il software rilasciato dalla società OpenAI che risponde per iscritto a qualsiasi domanda, ha fatto breccia anche tra i non addetti ai lavori. Perché permette di toccare con mano ciò che l’Intelligenza Artificiale, oggi come oggi, è in grado di fare. Con questo chatbot ci si può sbizzarrire: ci sono studenti che gli affidano le ricerche scolastiche, genitori che gli chiedono consigli per organizzare una festa di compleanno, sviluppatori che si fanno aiutare con il debug del codice. Sarà lui il consulente finanziario del futuro?

Il 18% delle banche statunitensi ha un chatbot

Le banche ci stanno lavorando. Secondo Cornerstone Advisors, a dicembre soltanto l’8% delle società finanziarie statunitensi aveva già sviluppato un chatbot, cioè un software che risponde alle domande dei clienti. Nel 2023 tale percentuale è salita fino al 18%.

Secondo Forbes, è ancora troppo poco e il 2023 sarà finalmente l’anno in cui le banche premeranno sull’acceleratore. Il tema non è tanto il gradimento attuale da parte dei consumatori, visto che i sondaggi in merito restituiscono risultati altalenanti. I veri plus dei chatbot sarebbero altri. Nello specifico, la loro capacità di raccogliere dati sui clienti in tempo reale; di velocizzare le interazioni e fornire riscontri immediati; di personalizzare qualsiasi messaggio.

In realtà lo stesso nome “chatbot” ormai dovrebbe essere mandato in pensione, perché finora è stato usato per riferirsi a quelle chat che sfornano risposte preconfezionate, salvo poi indirizzare a un operatore umano per le “cose serie”. Nell’era di ChatGPT è più corretto parlare di assistenti digitali intelligenti (IDAs) che imparano dall’esperienza, acquisiscono conoscenze sempre più approfondite sul profilo specifico di ogni cliente e lo accompagnano verso la soluzione di cui ha bisogno (o, meglio ancora, gli suggeriscono spunti in più). Considerata la loro capacità di processare enormi quantità di dati in modo sempre più sofisticato, non è da escludere che acquisiscano progressivamente la funzione di veri e propri consulenti finanziari. Anzi, esistono già alcuni esperimenti del genere.

Chi si prende la responsabilità legale dei consigli di un algoritmo

Proiettiamoci dunque in un ipotetico 2025 in cui chi ha messo da parte un tesoretto, e desidera investirlo, non prende più appuntamento presso la filiale della propria banca ma interpella un chatbot. La domanda è: in un settore iper regolamentato come quello finanziario, come si inquadra tutto questo a livello legale?

La prima cosa da chiarire è che, oggi come oggi, il sistema è dichiaratamente imperfetto. Anche il sorprendente ChatGPT, nella sua schermata iniziale, mette in guardia sul fatto che «potrebbe occasionalmente generare informazioni scorrette» e «potrebbe occasionalmente fornire istruzioni pericolose o contenuti di parte». Quando le domande diventano troppo specifiche, di norma consiglia di rivolgersi a uno specialista. È lecito immaginare che anche questi limiti vengano rapidamente superati, tanto più perché il machine learning – per definizione – impara dall’esperienza. L’esito, però, dipenderà molto dalla qualità delle fonti. Serviranno dei protocolli ad hoc per assicurare il rispetto di determinati standard minimi: ma arriveranno in tempo, o la tecnologia correrà più veloce? 

Se inoltre le conversazioni con l’utente vengono immagazzinate per allenare l’algoritmo, chi si fa garante della corretta gestione dei dati personali? C’è la possibilità che alcuni dettagli vengano inconsapevolmente divulgati ad altri? Il capitolo della privacy, sottolineano alcune analisi, è e resta delicato. Infine, c’è una questione di responsabilità. Di fronte a una risposta sbagliata o fuorviante da parte del chatbot, di chi è la responsabilità? Del provider tecnologico che l’ha sviluppato, o della società finanziaria che l’ha acquisito?

sec
La sede della Sec, la Securities and Exchange Commission statunitense © D Ramey Logan/Wikimedia Commons

I chatbot come consulenti finanziari: le autorità si interrogano sui rischi

Insomma, i chatbot portano con sé notevoli opportunità, ma non è da escludere che siano altrettanto rilevanti i rischi. Già negli scorsi mesi la Securities and Exchange Commission statunitense (SEC) aveva già avviato una consultazione pubblica sulla cosiddetta gamification degli investimenti, messa in atto attraverso app e robo-advisor (piattaforme online che propongono soluzioni di investimento preconfezionate, ndr). L’adozione su larga scala dell’Intelligenza Artificiale renderà il tutto più complesso.

«Le autorità di vigilanza devono esaminare una questione cruciale: se l’attuale legislazione in materia di vigilanza copra adeguatamente questi modelli di business e se sia necessaria un’autorizzazione», dichiarava già nel 2018 Thorsten Pötzsch, oggi direttore esecutivo della BaFin, l’autorità federale tedesca per la supervisione dei mercati finanziari. Ipotizzando la necessità di adeguamenti normativi. Un esempio tra tutti: sappiamo che alcune istituzioni finanziarie sono ritenute di importanza sistemica e dunque soggette alla vigilanza diretta da parte della Banca Centrale Europea. Ben presto anche i provider tecnologici potrebbero assumere un’importanza sistemica, tanto più se forniscono i loro algoritmi a diversi operatori.

Non aspettiamoci da ChatGPT l’educazione critica alla finanza

C’è infine una quota crescente di persone che non si accontentano di mettere i propri risparmi da qualche parte per ottenere, forse, un rendimento nel tempo. Ci sono persone che hanno capito che qualsiasi investimento finanziario ha determinate ricadute ambientali e sociali, ricadute che il risparmiatore ha il diritto di conoscere. Anche per poter dire la sua.

Gli algoritmi però lavorano con i dati, non con i valori individuali. Né tanto meno con la dimensione etica delle organizzazioni, sottolinea sul Financial Times Charles Radclyffe, fondatore di un’agenzia di rating che fa leva proprio sull’Intelligenza Artificiale per mappare gli aspetti ambientali, sociali e di governance (ESG) delle imprese.

È vero infatti che una grossa parte del lavoro fatto negli ultimi anni da governi e autorità di regolamentazione – dalla tassonomia in giù – sta proprio nell’elaborare standard univoci per definire cosa meriti di essere definito “sostenibile” e cosa no. Ma è vero anche che non si può appiattire tutto a una lista di voci da dare in pasto all’algoritmo. Così facendo, infatti, la valutazione sulla sostenibilità o meno degli investimenti si ridurrebbe a una dicotomia: o bianco, o nero. Tagliando fuori, peraltro, il profilo e le attitudini dello specifico investitore. Insomma, la finanza etica è complessa per definizione. Ad oggi i chatbot sembrano ancora molto lontani dal poter comprendere e affrontare questa complessità.