IA / Lo scandalo Deloitte in Australia imbarazza la consulenza globale

0
163
Scandalo Deloitte IA

Il recente scandalo Deloitte legato all’IA con il governo in Australia ha scosso il mondo della consulenza internazionale. La società dovrà risarcire il governo australiano per un report contenente errori e citazioni inventate, generati da un modello di intelligenza artificiale. Il documento, costato circa 290 mila dollari, era stato pubblicato dal Dipartimento per l’Occupazione e le Relazioni di Lavoro di Canberra. Solo in seguito, il ricercatore Chris Rudge dell’Università di Sydney ha scoperto che nel testo comparivano riferimenti inesistenti e fonti inventate. La vicenda ha rapidamente attirato l’attenzione dei media, trasformandosi in un simbolo dei rischi legati all’uso disinvolto della tecnologia generativa.

IA / L’ammissione di Deloitte in Australia e la correzione del report

Il 3 ottobre, il governo australiano ha pubblicato una nuova versione del rapporto.
Nel testo aggiornato, Deloitte ammette di aver utilizzato Azure OpenAI GPT-4o, un modello linguistico di grandi dimensioni, in alcune fasi della redazione. La società ha corretto citazioni e bibliografia, spiegando che le modifiche non hanno alterato le conclusioni del lavoro. Tuttavia, l’episodio ha mostrato come anche una grande azienda possa affidarsi troppo a un sistema automatizzato, senza un controllo umano sufficiente. Oltre alla revisione del documento, Deloitte dovrà restituire parte del compenso ricevuto dal governo di Canberra.

Lo scandalo Deloitte sull’IA ha riportato alla ribalta un problema noto: le cosiddette “allucinazioni” dei modelli generativi. Questi errori, spesso inevitabili senza verifica umana, portano l’Intelligenza artificiale a creare dati falsi o a inventare informazioni. Nel 2023, un avvocato di New York aveva citato in tribunale sentenze mai esistite, prodotte da ChatGPT. Un altro caso ha coinvolto Air Canada, costretta a risarcire un cliente dopo che un chatbot aveva fornito informazioni errate. Deloitte, come altre multinazionali, si trova ora a fare i conti con le stesse difficoltà: gestire una tecnologia potente, ma ancora fallibile.

IA e scandalo Deloitte in Australia: fiducia in bilico

Per Deloitte, notevoli conseguenze dello scandalo vanno oltre l’aspetto economico. Il danno d’immagine è significativo, perché arriva in un momento in cui i rischi dell’intelligenza artificiale sono ampiamente conosciuti. La società fa parte delle Big Four, insieme a EY, KPMG e PwC, e negli ultimi anni ha investito miliardi nello sviluppo di strumenti basati sull’IA. La stessa azienda promuove il Deloitte AI Institute, un centro che dichiara di voler guidare lo sviluppo di un’intelligenza artificiale responsabile e trasparente.
Sul sito ufficiale, Deloitte parla di sicurezza, imparzialità e affidabilità. Dichiarazioni che oggi suonano in contrasto con l’errore definito “da principiante” dalla senatrice australiana Barbara Pocock.

L’episodio australiano si inserisce in un contesto più ampio. Nel giugno scorso, l’autorità di vigilanza contabile del Regno Unito ha accusato le Big Four di trascurare l’impatto dell’IA sulla qualità delle revisioni contabili. Lo scandalo Deloitte mostra come il settore della consulenza non sia immune dai limiti della tecnologia che cerca di promuovere.
L’uso dell’intelligenza artificiale promette efficienza e rapidità, ma senza adeguati controlli può mettere a rischio la credibilità stessa delle aziende.

Arianna Carbonaro