Il dado è tratto.
Siamo a un punto di svolta e se la nuova direzione ci porterà al paradiso o all’inferno ancora non ci è dato saperlo.
Questa incertezza ovviamente spaventa.
Da qualche mese l’interesse dei media riguardo all’intelligenza artificiale è esploso. E non senza una ragione.
ChatGPT è stato lanciato da OpenAI il 3 novembre 2022. Da allora si è fatto notare per la qualità delle risposte e i campi di impiego sono stati tra i più variegati fino a mettere in dubbio che molte professioni possano sopravvivere nei prossimi anni.
ChatGPT è stato criticato da varie parti perché non sempre le sue risposte sono sufficientemente accurate. Ma a marzo (2023) è uscita la nuova versione GPT-4 con un livello di accuratezza e raffinatezza delle risposte sorprendente.
Nel frattempo sono spuntate come funghi altre applicazioni dello stesso tipo di intelligenza artificiale nel campo della grafica, della musica, della produzione di video, ecc. che danno risultati sorprendenti.
E come tutte le novità che influiranno sulle nostre vite troviamo sostenitori e detrattori, entusiasti e spaventati.
Non mi sorprende dunque la lettera aperta di Elon Musk e altri 1400 e più firmatari. Né mi sorprende il momento in cui arriva.
Prima di andare avanti, per correttezza, devo dire che io sono tra gli entusiasti. Pur intravedendo i pericoli di questa tecnologia, mi esalta vederne le potenzialità. Fin da ragazzino quattordicenne ho indagato le potenzialità di queste tecnologie e il ritrovarle nel mondo di oggi mi fa sentire di vivere nel futuro che immaginavo.
Non mi sorprende, dicevo, la lettera aperta di cui Elon Musk è, tra gli altri, firmatario.
Ma ci sono alcuni particolari che mi fanno riflettere.
Innanzitutto il momento. OpenAI ha fatto il botto. E con lei Microsoft che le sostiene. Da mesi non si parla di altro, nel bene e nel male. Microsoft ne ha integrato la tecnologia nel suo motore di ricerca, Bing, e sta facendo la stessa cosa con gli altri prodotti della suite di Office che promettono miracoli.
Dall’altra parte Google ha recentemente presentato una versione del suo chatbot Bard che arranca un po’ a confronto con quella di OpenAI. Diciamo che è qualche mese indietro nello sviluppo di un prodotto commercialmente valido.
Apparentemente Google è stata più cauta nel lanciare prodotti basati sull’intelligenza artificiale, non saprei dire se per prudenza nei confronti della nuova, “potenzialmante-pericolosa” tecnologia o se per immaturità. Tra i firmatari della lettera ci sono alcuni collaboratori di Google e di DeepMind (azienda inglese di intelligenza artificiale controllata da Alphabet), ma non mi pare ci siano esponenti illustri.
Tra le tecnologie legate all’intelligenza artificiale vi è la generazione di immagini e, dal momento che il settore della fotografia ha già subito un forte contraccolpo agli inizi degli anni ‘2000, non mi sorprende trovare tra i firmatari esponenti di Getty Images, leader nella vendita di immagini e video, evidentemente preoccupati di dover affrontare una nuova bufera.
Fa riflettere il fatto che tra i firmatari ci siano moltissimi professori universitari evidentemente preoccupati a vari titoli di tutti i risvolti che questa nuova tecnologia comporta o potrebbe comportare.
Ma non posso nascondere che la lettura della lettera mi ha generato una buona dose di prurito.
Primo. Nella lettera si fa apertamente riferimento a OpenAI e all’algoritmo GPT-4. Il che mi fa pensare che la preoccupazione non sia nei confronti dell’IA in generale, ma dell’azienda e del suo algoritmo in particolare.
Secondo. Gli esempi di “cattiva” IA fanno riferimento più o meno velato alle immagini (generate da un algoritmo di IA) che sono circolate in questi giorni in cui si vede Donald Trump arrestato dalla polizia e il Papa vestito con un piumino bianco che qualcuno ha associato alla figura del paninaro anni ’80. Evidente esempio di un uso scorretto della tecnologia e non di una tecnologia cattiva.
Nessun accenno invece agli aerei senza pilota o alle auto che possono investire un pedone per sbaglio.
Terzo. Si propone una sorta di moratoria di 6 mesi in cui interrompere lo sviluppo delle tecnologie per riflett…
Perdonatemi ma qui non so se ridere o se piangere.
La prima reazione è stata di ilarità “eh sì, sono i 6 mesi che servono a Google per portarsi alla pari”. Ma davvero, chi ha firmato pensa che le aziende si fermeranno? o fermiamo solo OpenAI? Davvero pensano che la Cina si fermerà perché lo ha chiesto Elon Musk?
Ma poi proseguendo con la riflessione mi sono un po’ girate… Dove eravate ieri? l’anno scorso? 5 anni fa? 40 anni fa, quando io sviluppavo i miei programmini che scimmiottavano l’intelligenza artificiale?
Non è che l’intelligenza artificiale sia stata sviluppata nel 2022. Sono 70 anni che se ne parla! All’inizio non c’era abbastanza potenza di calcolo per attuarla, ma da 10 anni a questa parte la potenza c’è, eccome.
Le macchine capaci di guidare da sole ci sono da un pezzo. Nessuno degli esperti firmatari della lettera se lo è posto come problema qualche anno fa?
Non è che adesso fermiamo tutto e ci sediamo intorno a un tavolo per scrivere le tre leggi della robotica. Non è verosimile. Non lo abbiamo fatto neppure per i cambiamenti climatici i cui danni sono sotto gli occhi di tutti, tutti i giorni.
Ricordiamo che Elon Musk è tra i fondatori di OpenAI e che ne è uscito per un conflitto di interessi poiché alcune delle aziende di cui è fondatore e CEO, come Tesla e SpaceX, utilizzano e stanno sviluppando tecnologie di intelligenza artificiale. Quindi avrebbe avuto il potere di intervenire direttamente dal suo interno. Perché non lo ha fatto?
Riconosco a questa lettera aperta il merito di stimolare la discussione sul tema, ma credo che lo faccia nel modo sbagliato e soprattutto credo che i firmatari siano colpevoli di non essersi mossi prima e con modalità più efficaci.
Non dimentichiamo che l’Unione Europea da anni sta lavorando sui temi dell’intelligenza artificiale. Ha sviluppato una strategia globale sull’intelligenza artificiale per essere tra i leader nel campo e garantire che i suoi sviluppi siano al servizio dell’essere umano. Ha anche adottato un Regolamento che stabilisce regole chiare per l’uso dell’IA nell’UE e garantire la protezione dei diritti e delle libertà fondamentali delle persone. Prevede una serie di requisiti e obblighi per i sistemi di IA a rischio elevato, come quelli utilizzati nei settori della sicurezza, dei trasporti e della salute e stabilisce che l’IA debba essere sviluppata e utilizzata in modo etico e responsabile.
Credo che il vaso sia stato aperto e non si torna più indietro. Molto deve essere fatto perché non sia quello di Pandora.
Nel frattempo è compito di tutti noi cogliere ogni occasione per conoscere questa tecnologia e ciò che ci sta dietro, con le opportunità e tutti i rischi legati.