Opinioni
Giuseppe Corasaniti: «L’intelligenza artificiale non va temuta, ma usata bene»
Di intelligenza artificiale si parla molto, compresa la notizia secondo cui ChatGpt sarebbe diventata più «stupida». Il DiariodelWeb.it fa chiarezza con il professor Giuseppe Corasaniti
La notizia ha fatto rapidamente il giro di tutte le redazioni del mondo: ChatGpt sarebbe diventata più «stupida». Lo sospettavano da tempo gli utenti, ma ora sembra confermarlo una ricerca appena presentata dagli studiosi delle Università di Stanford e Berkeley. Ma dobbiamo preoccuparci perché l’accuratezza dell’intelligenza artificiale sta peggiorando oppure renderci conto che, caricati dall’entusiasmo tecnologico diffuso spesso dagli stessi media, ci aspettavamo da lei qualcosa che non è (ancora?) in grado di darci? Il DiariodelWeb.it lo ha chiesto al professor Giuseppe Corasaniti, già magistrato e funzionario della presidenza del Consiglio, oggi docente di Filosofia del diritto digitale all’Universitas Mercatorum di Roma.
Professor Giuseppe Corasaniti, hanno ragione i giornali a parlare dell’instupidimento dell’intelligenza artificiale?
Dipende. Intanto ChatGpt non è l’intelligenza artificiale, ma un suo particolare modello che sfrutta il linguaggio. In pratica è un assemblatore di termini sintattici, addestrato per simulare un discorso umano o un’applicazione anche di calcolo in modo comprensibile, attraverso domande e risposte. Le criticità, molto probabilmente, sono emerse da funzioni introdotte nel mercato con troppa rapidità, e che vanno ancora perfezionate.
Quindi questa presunta regressione da cosa dipenderebbe?
Difficile dirlo. Alcuni ritengono che ci sia un’interazione tra gli utenti collegati, quindi influisce anche il fatto che ci troviamo in un periodo estivo. Secondo altri ad alcune domande non viene data una risposta adeguata, soprattutto su quesiti tecnico-matematici.
Dunque è effettivamente un modello soggetto a errori.
Ma, in informatica, anche gli errori servono, perché quando vengono segnalati migliorano il modello, lo rendono sempre più attento alle esigenze di chi lo utilizza in concreto. Gli stessi software che utilizziamo sono oggetto di aggiustamenti, le cosiddette patch: in un anno ne può arrivare anche più di uno. Non è proprio il caso di preoccuparci solo per questo: si tratta di difficoltà facilmente superabili. Semmai, tutto ciò preoccupa soprattutto chi si è lanciato su questo modello per un uso industriale.
Appunto. Non è che forse abbiamo esagerato con le aspettative?
Finora si è parlato soprattutto del rischio per la privacy degli utenti, che secondo me è l’ultimo dei problemi e forse è stato chiamato in causa impropriamente. Il vero pericolo è quello di affidarsi troppo alle procedure di intelligenza artificiale, anche quando non sono state costruite per quelle funzioni.
Cioè?
Tutto dipende dai prompt che inseriamo, cioè dalle questioni che poniamo. Se chiediamo di scrivere un programma, una sintesi, un articolo, otteniamo risultati anche apprezzabili. Se ci aspettiamo che sia in grado di studiare l’organizzazione dell’ufficio, non altrettanto. Per avere risposte intelligenti bisogna fare domande intelligenti. Inserendo prompt precisi, puntuali, dettagliati, appropriati, non generici si ottengono contenuti pertinenti, adeguati, coerenti e argomentati come in un’interlocuzione umana. Altrimenti, a lasciar fare a questi modelli linguistici non si va molto lontano, anzi spesso si sbaglia. Dipende molto da noi.
Questa è anche una risposta a chi teme gli scenari fantascientifici delle macchine che ci sostituiscono. Invece mi par di capire che l’umano sia ancora molto centrale in questo processo.
Certo. Non dimentichiamoci che stiamo parlando di programmi, non di entità nuove. Affidando alle intelligenze artificiali la guida dei droni, ad esempio, si possono realizzare inquadrature cinematografiche perfette. Ma a montarle poi ci pensa un regista umano. Siamo ben lungi da immaginare un film scritto, diretto e magari interpretato da un’intelligenza artificiale. Persino quelle pellicole, che pure sono già in circolazione, con effetti speciali digitali impensabili, dopo un po’ risultano noiosi. Non ci interessa solo una rassegna di immagini straordinarie o dettagliate, ma una storia.
Il pensiero critico e quello creativo, insomma, sono ancora a nostro appannaggio.
Sì. Sicuramente c’è bisogno di un’interazione, forte e crescente, tra uomo e macchina. Eppure abbiamo diffidato a lungo dell’intelligenza artificiale, anche perché la assimilavamo a tecnologie distruttive come la bomba atomica. In effetti l’informatica nasce dalle applicazioni belliche, i primi computer negli anni ’50 furono utilizzati dall’esercito, per codificare i messaggi.
Ne sono stati fatti di progressi, da allora.
Non solo nell’intelligenza artificiale ma anche in ciò che la alimenta, cioè la Rete. Il web è un serbatoio di parole, numeri, dati mai visto prima nella storia dell’uomo. E ci ha consentito un progresso senza precedenti, soprattutto a livello di previsione. Possiamo sperare nell’intelligenza artificiale per salvarci, a patto che non le chiediamo di fare ciò che noi non vorremmo fare, e di essere realisti su ciò che questa tecnologia può darci.
Ad esempio?
Può liberare l’umanità da attività pesanti e ripetitive che oggi vengono svolte, peraltro con paghe molto misere, dalle persone. Allo stesso tempo ci sono effettivamente scenari inquietanti, ma vanno regolamentati in modo specifico settore per settore. Ad esempio per il controllo degli armamenti, per il rispetto dei lavoratori, per la riservatezza ci siamo già dati regole precise, che vanno semplicemente affinate e applicate all’intelligenza artificiale.
Più che temerla, dobbiamo regolamentarla, insomma.
Ad averne paura, in generale, sono due categorie. La prima: chi non sa che cosa sia e ne prova un terrore inconscio. Un po’ come negli anni ’50 si temevano i robot, vedendo i film di fantascienza; poi, quando sono nati per davvero, abbiamo scoperto che semplificano la vita ai lavoratori che svolgono mansioni a rischio di malattie professionali: pensiamo alle linee di assemblaggio delle auto. Allo stesso modo l’intelligenza artificiale potrà svolgere un ruolo straordinario nella diagnosi e nell’organizzazione delle cure nelle strutture sanitarie, dove spesso il problema è logistico oppure di scarsa propensione a condividere contenuti di interesse comune.
E la seconda?
Chi ha un interesse contrario. Le tecnologie consentono di migliorare la nostra vita e non sono in molti ad avere questo obiettivo. Personalmente penso che dobbiamo seguirle con grande attenzione e sottoporle a quel controllo civile e democratico che ci potrebbero assicurare le Nazioni unite. In questa direzione si stanno muovendo un po’ tutti i Paesi del mondo.
A cosa si riferisce?
Di recente hanno espresso indicazioni sia il presidente degli Stati Uniti che papa Francesco, in occasione della giornata mondiale della pace. Inutile dire che il controllo digitale degli armamenti, così come la produzione e l’impiego delle armi automatiche attraverso tecnologie intelligenti, diventa il terreno fondamentale delle sfide politiche globali dei prossimi anni, sulla stessa linea delle tecnologie nucleari. Molti trovano azzardato questo paragone, ma dobbiamo capire che costruire una comunità globale, invece di pensare all’interesse dei singoli Stati o delle singole multinazionali, è un’esigenza comune.
In effetti si parla tanto delle questioni legate all’etica dell’intelligenza artificiale.
Attenzione, è sempre un’etica umana. Le macchine in quanto tali non possono pensare. Ma possiamo programmarle in modo più attento, cosicché non creino discriminazioni né tantomeno possano essere utilizzate per la distruzione della civiltà. Questo è il grande compito che spetta agli uomini, agli Stati e alle organizzazioni sovranazionali. La vita umana è molto più diffusa delle intelligenze artificiali e può ancora svolgere il suo ruolo nell’utilizzarle al meglio.
Sta a noi la capacità di sfruttare bene questo strumento e anche di darci i limiti.
Questo fa parte di ogni società. Un problema diverso è quello relativo al ruolo dei soggetti economici. In questi anni c’è stata un’accumulazione enorme di dati e ci sono stati soggetti che li hanno saputi utilizzare bene. Non a caso queste tecnologie sono nate soprattutto nei laboratori privati. Adesso bisogna colmare anche questo divario e far sì che le università studino i limiti e i potenziali errori legati all’uso dell’intelligenza artificiale, anche a lungo termine. A questo serve la ricerca, nella quale io confido molto.
Anche quella italiana?
Il nostro Paese è sempre in ritardo, ha un gap tecnologico spaventoso. Come uso e comprensione delle tecnologie è stabilmente agli ultimi posti in Europa. Segno che mancano scienza e coscienza nelle scelte digitali a livello individuale e istituzionale. Non solo dobbiamo fare dei passi in avanti, ma anche molto grandi. Finora vedo tante parole, tanti proclami, tante commissioni e pochissimi fatti e iniziative concrete.
Quali iniziative servirebbero?
Prima di tutto il problema è culturale e riguarda tutta la società e l’economia: vanno superate le posizioni rigidamente ancorate al passato, che non mettono in discussione le scelte organizzative esistenti. La vera sfida è superare le ideologie, in nome della dignità di tutte le persone che compongono la società digitale e che vorrebbero viverla in modo intelligente, senza paure né restrizioni.
Continua a leggere le notizie di DiariodelWeb.it e segui la nostra pagina Facebook