L’intelligenza artificiale può essere cosciente?
Quanto le AI possono assomigliare a noi? Mirco Musolesi, direttore del Machine Intelligence Lab dell'University College di Londra, prova a rispondere
Questo articolo è parte di una serie dedicata ad approfondire i temi di Unchained – storie di ordinario capitalismo selvaggio, il nostro podcast settimanale. Ascolta qui tutte le puntate!
Nel 1941 Isaac Asimov, forse il più celebre autore di fantascienza della storia, pubblicò il romanzo “Circolo vizioso”. In quel testo compaiono per la prima volta le tre leggi della robotica – un breve insieme di regole che, nell’universo asimoviano, tutti i robot sono obbligati a rispettare. Non procurare danni ad esseri umani con azioni od omissioni, obbedire al proprio creatore, salvaguardare la propria incolumità: questi sono i comandamenti degli automi.
Il tema della possibilità di un’intelligenza artificiale (AI) dotata di coscienza e volontà è antico, ma negli ultimi anni il dibattito è tornato in voga. Ad averlo riaperto è ovviamene lo sviluppo delle intelligenze artificiali generative come ChatGPT, Gemini o Deepseek, che negli ultimi anni hanno conosciuto una crescita rapida e inaspettata. Un boom che, com’è inevitabile, ha portato sia paura, sia entusiasmo sia sincera curiosità su prospettive un tempo fantascientifiche. Al futuro dell’AI è dedicato l’ultimo episodio del podcast Unchained, e per capire meglio cosa possiamo aspettarci abbiamo intervistato Mirco Musolesi, direttore del Machine Intelligence Lab dello University College di Londra e docente di computer science all’università di Bologna.
Professore, partiamo dalle basi: cos’è un’intelligenza artificiale e in cosa differisce da altri sistemi informatici?
L’intelligenza artificiale – il cuo acronimo è AI in inglese ed IA in italiano – viene solitamente descritta come un sistema che presenta abilità tipiche di un’intelligenza complessa. Come quella umana, e se vogliamo in parte quella animale. A differenza dei software tradizionali cui siamo abituati, le AI sono in grado di imparare da set di dati cui hanno accesso e dall’interazione con gli utenti. Così migliorano le loro capacità nel risolvere le task che gli vengono assegnate.
Da quando tentiamo di costruirne una?
Da molto! Il termine viene coniato nel 1955 da un gruppo di scienziati che avevano preparato una proposta per fondi alla Rockefeller Foundation per una conferenza al Dartmouth College, nel New Hampshire. L’obiettivo che si erano dati era, essenzialmente, risolvere in tre mesi tutti i problemi dell’intelligenza artificiale. Chiaramente non ci riuscirono, ma quella conferenza segna l’inizio di un filone di ricerca. L’idea, poi, è ancora precedente. Alan Turing nel 1950 si interrogò sulla possibilità che una macchina possa pensare. A metà del 1800 Ada Lovelace tradusse in inglese il manuale della macchina analitica compilato dall’ingegnere italiano Federico Menabrea. [La macchina analitica è un rudimentale progetto ottocentesco di computer ideato dallo scienziato inglese Charles Babbage N.d.R.]. Nelle note della traduttrice, Lovelace scrisse della possibilità di programmare macchine pensanti. E risalendo ancora indietro ci sono gli automi medievali e del mondo classico.
E come mai siamo tornati a parlarne tanto? Cosa è cambiato in questi ultimi anni?
C’è stato un salto tecnologico. Io fino a poco tempo fa non avrei mai creduto che nel corso della mia vita avrei visto qualcosa di simile a ChatGPT. La novità sta nei large model, enormi modelli probabilistico-predittivi. Si è scoperto che hanno qualità insperate. Usando miliardi di parametri sono in grado di generare contenuti e risolvere problemi con una accuratezza mai vista prima. Si parla in questo senso di comportamento emergente. In pratica, questi sistemi AI sono in grado di digerire montagne di dati e migliorarsi mano a mano.
Si legge spesso che le AI non sono deterministiche. Cosa significa?
Che, a fronte di un certo input, non possiamo determinare con certezza l’output. La calcolatrice è deterministica: 3+3 farà sempre 6. Le intelligenze artificiali invece sono probabilistiche. C’è cioè una certa probabilità che a un’istruzione corrisponda un risultato. E questa probabilità è complessa, condizionata dai diversi elementi del prompt che gli diamo. Nel caso di un sistema generativo testuale, ad esempio, in base ai dati su cui è stato allenato, il modello individua quale parola è più probabile che segua ad un’altra. Se dico vado in banca a prevelare i, il sistema AI individua che molto probabilmente la parola mancante è soldi.
Quando parliamo di questi software tendiamo ad antropizzarli. «ChatGPT pensa che» o «Deepseek sa che» sono frasi ricorrenti. Sbagliamo ad usarle?
Il tema della coscienza è molto affascinante. In qualche modo, ci costringe a chiederci cosa abbiamo di speciale noi, cosa ci rende coscienti. Siamo in pieno campo della filosofia della mente. Non credo che sia problematico antropizzare l’AI quando ne parliamo. In fondo, spesso lo facciamo anche con la nostra automobile, per dirne una. Anche quando diciamo frasi simili, sappiamo che l’intelligenza artificiale non è cosciente – almeno, è quello che ad ora riteniamo. In ogni caso, con i sistemi AI che abbiamo ora non parlerei di coscienza.
Nell’ultimo episodio di Unchained abbiamo parlato di AI 2027, il lavoro di un gruppo di ricerca statunitense che immagina un’AI pronta a ingannare i propri creatori nel 2027. Sono scenari plausibili?
La questione del comportamento è già presente. Succede già oggi che i software cerchino in qualche modo di “ingannare” gli utenti. Di nuovo: da qui a dire che i sistemi AI siano coscienti, ne passa. In ogni caso, questo mi preoccupa in misura minore. Temo molto di più l’uso che Stati o regimi autoritari possono fare di queste tecnologie.
Pensa ai deepfake, video e foto manipolati e difficili da distinguere da quelli reali?
Anche quelli sono un problema, certo. Ma credo che siamo ormai tutti molto scettici. Ho timore invece di bot che, imitando un uomo, passino ore a convincerci sui social di questa o quell’altra tesi.
Altre preoccupazioni di cui anche su Valori.it ci siamo occupati sono quelle ambientali e di impatto sul mondo del lavoro.
Bisogna lavorarci, è una sfida di governance. Sono più ottimista per quanto riguarda la sostenibilità. Credo che troveremo delle soluzioni, e che molte aziende abbiano un incentivo anche economico per quanto riguarda i consumi. Sono invece preoccupato dalla questione lavorativa. Non ho dubbi che nel lungo periodo si creeranno nuovi posti di lavoro, ma potrebbe esserci una fase intermedia in cui molte persone perdono il vecchio impiego senza trovarne uno nuovo.
Paradossalmente, oggi sono più a rischio mestieri da colletti bianchi, da persone formate. Non abbiamo superato i problemi della robotica, le macchine faticano ancora a muoversi in ambienti 3D. E tutto ciò che riguarda la cura – dalla sanità agli anziani – credo sarà ancora portato avanti dagli esseri umani nel breve periodo. Ma un consulente informatico o un assistente legale potrebbero essere rimpiazzati, potenzialmente, con facilità. Almeno, se l’accelerazione tecnologica che stiamo osservando continuerà di questo passo.
E in cosa invece l’AI potrebbe aiutare l’umanità?
Sicuramente nella ricerca. In medicina e farmacia stiamo già vedendo accelerazioni importanti grazie all’intelligenza artificiale. Lo stesso credo avverrà in campo ambientale. Io poi credo che possa essere anche un supporto importante per l’educazione. Specie in regioni del pianeta nella quale le istituzioni scolastiche sono carenti. Non mancano i rischi, certo, ma vedo anche opportunità.
Gli esperti del settore su cosa stanno facendo ricerca oggi?
Tante cose, ma tre principali. Primo, i problemi legati all’aumento delle dimensioni dei modelli. Parlo sia di quantità di dati per l’addestramento, sia di numero di parametri. Non è facile fare questo scale-up, anche dal punto di vista energetico, e si lavora molto sull’efficienza. Poi c’è lo sviluppo di architetture diverse e nuove. Infine, quello che citavamo prima. Si lavora molto all’allineamento. Ovvero, all’avere sistemi AI che non siano potenzialmente nocivi e che siano rispettosi di culture e pensieri.

Nessun commento finora.