Un’intelligenza non troppo intelligente

Di Lucia Riggio, 3B

L’intelligenza artificiale è l’ultimissima fra le nuove tecnologie, ma nei suoi confronti l’opinione pubblica è spesso scettica: si teme un futuro non molto lontano in cui le macchine addirittura governeranno sugli uomini. È realistica un’affermazione del genere?

Per pensare di poter raggiungere una realtà così distopica rispetto a quella attuale, bisogna prima dare risposta ad alcune domande. cos’è l’Ai? Cosa può creare? Quali sono i suoi limiti?

Lo ha spiegato agli studenti del liceo D’Oria di Genova la giornalista di La Repubblica Erica Manna.

L’intelligenza artificiale, in sigla IA, ma in inglese e nella rete AI, è una disciplina che studia come realizzare sistemi informatici in grado di simulare il pensiero umano. Artificial intelligence management system, Aims, la definisce come capacità di un sistema di mostrare abilità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività.

Non bisogna pensare a una piccola realtà: dietro all’Ai si nasconde un investimento cospicuo di colossi, come Elon Musk, che insieme a Sam Altman è l’inventore di OpenAI.

Hello World OpenAI: Crafting Accurate ChatGPT-Like... - SAP Community


Indubbiamente rappresenta un enorme passo avanti nelle tecnologie: è in grado di creare assistenti virtuali, generare contenuti paratestuali con semplici descrizioni, ottimizzare i tempi di operazioni aziendali, sviluppare applicazioni innovative.

Un esempio lampante ( e per alcuni inquietante) è il software DeepBrain Ai, in grado di far conversare le persone con i propri defunti, come se fossero ancora vivi, grazie a lunghe interviste rivolte a loro ancora in vita.

Tuttavia, l’Ai non ha solo pregi. Poiché è basata su algoritmi e dati, manca di capacità creative e dell’intuizione umana. In più, per poter apprendere e disporre decisioni in modo efficace, deve essere addestrata con una grande quantità di dati.

Anche l’intelligenza artificiale, basandosi su un calcolo probabilistico nel calcolare la risposta, può sbagliare: ad oggi può dare informazioni imprecise o totalmente errate, specialmente in ambito scientifico.

E poi restano da risolvere alcuni temi di grande importanza: come salvaguardare la privacy? Come tutelare i diritti degli autori dei materiali da cui l’Ai attinge? Sono temi ancora aperti, che a volte portano gli organi di garanzia delle diverse nazioni come l’Italia a bloccare applicazioni simili a Chat GPT.

Oltre a ciò, anche il concetto di politicamente corretto è ancora da perfezionare. Il rischio di immettere dati che contengano intrinsecamente dei pregiudizi (bias) e di condizionare quindi i sistemi di intelligenza artificiale rendendoli inaffidabili, parziali e potenzialmente pericolosi.

In particolare, dopo episodi di pregiudizi contro le donne nere, si è cercato di correggere questa problematica, ottenendo però risposte anacronistiche e decontestualizzate.
Oggi è ancora difficile correggere questo genere di errori, perché alcune nozioni, sono comprensibili solo da una mente umana.

Scandalo” AI ai Sony World Photography Awards
Immagine vincitrice del concorso di fotografia


Un utilizzo non corretto di queste tecnologie può portare ulteriori distorsioni.
I materiali multimediali, audio, foto, video, possono alterare la percezione della realtà. Un esempio è il Sony World Photography Awards, uno dei concorsi fotografici più famosi, vinto da un’immagine generata da un’intelligenza artificiale nella categoria “Creative”. Il vincitore, Boris Eldagsen ha però rifiutato il premio che gli era stato assegnato, affermando di aver voluto lanciare una provocazione .

Per non parlare delle attualissime elezioni statunitensi: i sostenitori del candidato Donald Trump hanno generato immagini che lo ritraggono circondato da una comunità di afroamericani, per spingere una narrazione che faccia sembrare il tycoon popolare anche in questa fetta enorme di popolazioneLe foto di Trump abbracciato ai sostenitori afroamericani: “Generate con  l'IA per influenzare l'elettorato nero” - la Repubblica

Infatti, come riporta il New York Times, nelle elezioni del 2020, i gruppi di neri americani hanno rappresentato un ostacolo insormontabile per l’imprenditore che non è riuscito ad aver il secondo mandato, in quanto ben il 92% di loro aveva votato Joe Biden.

 

Non mancano, poi, immagini diffamatorie come quella che ha visto raffigurata Taylor Swift in una foto con contenuti sessualmente espliciti, generata interamente con l’intelligenza artificiale. Questo avvenimento ha allarmato persino la Casa Bianca.

 Un altro episodio preoccupante riguarda il regime di Putin, che il 1 marzo al funerale di Navalny, ha attuato la schedatura facciale dei partecipanti.

Per frenare gli effetti pervasivi di questa tecnologia, è in preparazione una prima norma dell’Ue, Ai Act. Questa nuova legge, che entrerà in vigore tra due anni, vieterà i sistemi di identificazione biometrica (Rbi) e l’utilizzo di dati sensibili.

Solo la fantascienza era mai riuscita a immaginare una rivoluzione così ampia. Però, come aveva già previsto Stanley Kubrik in “2001 Odissea nello spazio” nel 1968, anche le macchine possono sbagliare, e lo fanno spesso. Forse l’intelligenza artificiale non è ancora così intelligente.