L’uomo e l’intelligenza artificiale (I.A.)

1 Maggio 2023 Off Di apisani

In uno studio promosso dal Parlamento Europeo, l’intelligenza artificiale (IA) viene definita come l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività. 

Essa permette ai sistemi che la utilizzano di “capire” l’ambiente nel quale operano, di mettersi in relazione con quello che percepiscono e risolvere problemi, agendo verso un obiettivo specifico. Il computer riceve i dati (già preparati o raccolti tramite sensori, come una videocamera), li processa e risponde. I sistemi di IA sono capaci di adattare il proprio comportamento analizzando gli effetti delle azioni precedenti e lavorando in autonomia. 

Oggi, l’utilizzo dell’IA è uno dei temi più dibattuti, sia per le sue potenzialità che per i suoi pericoli. Personalità del calibro di Stephen Hawking ed Elon Musk hanno espresso la loro paura per essa, arrivando a dire che potrebbe essere una minaccia per l’essere umano. 

I primi passi verso l’Intelligenza Artificiale si hanno con la creazione e il continuo sviluppo dei calcolatori, di cui troviamo esempi fin dalla prima metà del XVII secolo. Nel 1623, Wilhelm Schickard creò delle macchine in grado di effettuare calcoli matematici, anche se non in maniera autonoma, con numeri fino a sei cifre. Tra il 1834 e il 1837 Charles Babbage lavorò al modello di una macchina chiamata “macchina analitica”, le cui caratteristiche anticiparono in parte quelle dei moderni calcolatori.  

L’interesse verso i computer è proseguito nel ventesimo secolo, quando furono fatti altri passi avanti grazie ad Alan Turing. Infatti, nel suo articolo “On Computable Numbers, With An Application To The Entscheidungsproblem” del 1936 pone le basi per concetti quali calcolabilità, computabilità, macchina di Turing e altre definizioni cardine per i calcolatori sino ai giorni nostri. 

Gli studi intorno allo sviluppo di vere e proprie forme artificiali di intelligenza vennero avviati nel 1943 da McCulloch e Pitts che realizzarono un sistema che impiegava un modello di neuroni artificiali nel quale lo stato di tali neuroni poteva essere “acceso” o “spento,” con un passaggio ad “acceso” in presenza di stimoli causati da un numero sufficiente di neuroni circostanti. McCulloch e Pitts arrivarono quindi a mostrare che qualsiasi funzione computabile può essere rappresentata da qualche rete di neuroni. 

Fu però 13 anni dopo, nel 1956, che si iniziò a parlare di intelligenza artificiale nel senso moderno. Infatti, in quell’anno si tenne un convegno al quale presero parte alcune delle figure di spicco del nascente campo della computazione dedicata allo sviluppo di sistemi intelligenti: John McCarthy, colui che proprio durante questo convegno introdusse l’espressione “intelligenza artificiale”, Marvin Minsky, Claude Shannon e Nathaniel Rochester.  

Su iniziativa del primo, una squadra di dieci persone avrebbe dovuto creare in due mesi una macchina in grado di simulare ogni aspetto dell’apprendimento e dell’intelligenza umana. 

Nello stesso convegno, ebbe molto successo un’altra iniziativa, quella del programma di Allen Newell e Herbert Simon, due ricercatori che avevano sviluppato Logic Theorist, o “LP”, software capace di una proto-forma di ragionamento in quanto in grado di dimostrare teoremi partendo dai principi della matematica. 

A partire da questo convegno, iniziarono a essere condotti studi che hanno portato allo sviluppo dell’IA come la conosciamo noi oggi. 

Oggi, l’IA ha fatto passi da giganti. I moderni sistemi possono essere sviluppati a partire da due metodi di apprendimento: machine learning e deep learning. Il primo è quello più vecchio; si basa sul caricamento nella memoria del sistema di dati strutturati e categorizzati e di algoritmi statistici, da cui la macchina impara come ordinare i dati che riceverà in futuro. Questo è il caso del Supervised Learning

All’interno della macchina, però, posso anche inserire dei dati non classificati dall’utente, riuscendo comunque a classificarli nella maniera corretta; qua ci si potrebbe porre il dubbio: come è possibile ciò? Beh, questo accade nell’Unsupervised Learning, ovvero il processo in cui la macchina clusterizza i dati che riceve a partire dalla ricerca di pattern comuni all’interno dei dati inseriti. 

Invece, nel deep learning non c’è più il bisogno di inserire dati strutturati, come capitava già nel Unsupervised Learning, ma in qui è la macchina stessa che determina e definisce i classificatori attraverso un complesso molto profondo perlappunto di reti neurali, ovvero quei software che cercano di simulare l’azione dei neuroni. 

In soldoni, la macchina organizza come secondo lei è più congeniale e comodo, in maniera completamente indipendente dal metodo che il ricercatore che ha inserito i dati avrebbe scelto, come capita invece nelle macchine che si basano sul più semplice Machine Learning. L’unico vincolo è costituito dalla quantità di algoritmi che sono stati inseriti nel sistema. 

L’intelligenza artificiale è applicata in molti campi, anche della quotidianità. Alcuni esempi sono: 

  • Gli assistenti personali, cioè Alexa, Google Assistant, Cortana, Siri e Bixby, che, interpretando il nostro linguaggio naturale, possono compiere azioni semplici come illustrarci le previsioni del meteo, rispondere a messaggi o mettere un po’ di musica o azioni più difficili come controllare le telecamere in casa o fare il caffè; 
  • La messa a fuoco automatica sulle macchine fotografiche e sui cellulari; 
  • Sempre parlando di fotografia, oggi la maggior parte dei cellulari presentano dei software all’interno dell’applicazione della fotocamera che, una volta scattata la foto, la processano per renderla il più fedele possibile alla realtà e gradevole alla vista. Ad esempio, da qualche anno a questa parte è stata introdotta nei telefoni la funzionalità degli scatti notturni, in cui vengono combinate tecniche di elaborazione delle immagini, come la riduzione del rumore, l’aumento del contrasto e l’aumento della saturazione, e di intelligenza artificiale per creare immagini di alta qualità in condizioni di scarsa illuminazione; 
  • Lo shopping su internet e le pubblicità: L’intelligenza artificiale è largamente usata per fornire suggerimenti basati, ad esempio, su acquisti precedenti, su ricerche e su altri comportamenti registrati online. Software come Google Ads, tramite i noti “cookie”, o Facebook Ads utilizzano complessi algoritmi di intelligenza artificiale per automatizzare, organizzare e personalizzare la generazione di annunci, per spingere l’utente ad interagire e per raggiungere un’audience sempre più estesa e precisa, offrendo, così, agli imprenditori l’opportunità di migliorare l’efficacia delle loro strategie di business; 
  • Stesso discorso vale per gli algoritmi dei social, come quelli di Instagram e Facebook, che in base all’attività dell’utente stesso, varierà l’ordine dei post nel feed e delle storie. Se un utente manifesta più interesse o interagisce, anche temporaneamente, con post di un determinato argomento sarà più facile che al prossimo accesso possa rivedere post di argomenti simili e correlati, principalmente in cima al proprio feed. Grazie al supporto dell’Intelligenza Artificiale, l’algoritmo partendo dai nostri comportamenti, dai nostri interessi, dal numero di account seguiti, dalla frequenza di accesso e di seguito decide cosa farci vedere. Questo si verifica allo stesso modo con gli algoritmi che stanno alla base delle piattaforme di streaming multimediale e musicale, che ci indicano una percentuale di compatibilità con ogni film/serie tv in base alle nostre abitudini o ci creano delle playlist con delle canzoni che potrebbero piacerci; 
  • La traduzione automatica: Software, come “Google Translate” o “Reverso”, basati su testi audio o scritti, usano l’intelligenza artificiale per fornire e migliorare le traduzioni. Un altro uso sono i sottotitoli automatici dei video, come quelli su YouTube, quando non sono stati tradotti in altre lingue dagli utenti; 
  • Le automobili: Anche le auto, specie le più moderne e tecnologiche, presentano degli ausili alla guida basati sull’IA, come il “Cruise-Control adattivo”, la “frenata d’emergenza” e la “Guida Autonoma” o “Autopilota”, che, però, è più rara da trovare qui in Italia, oltre che essere limitata, a causa di una normativa dell’UE; 
  • Per combattere l’evasione fiscale: sono in corso studi che, attraverso processi di “Machine Learning” sui “Big Data”, utilizzano l’intelligenza artificiale per costruire il profilo dell’evasore fiscale, evidenziandone i tratti caratteristici; 
  • Merito creditizio: In poche parole, è l’attitudine del debitore di rimborsare all’ente erogante, cioè la banca, la somma prestata. Anche in questo caso, gli istituti di credito si avvalgono dell’intelligenza artificiale per calcolarlo tenendo conto anche delle caratteristiche personali di chi chiede un prestito e non solo sul suo patrimonio; 
  • Cyber Sicurezza: L’IA può aiutare a riconoscere e combattere gli attacchi e le minacce informatiche, imparando dal continuo flusso di dati, riconoscendo tendenze e ricostruendo come sono avvenuti gli attacchi precedenti. 
  • ChatGPT: si definisce (sì esatto, ho chiesto al programma di rispondermi) come un modello di linguaggio artificiale che ha a disposizione una grande quantità di dati su molte materie, in grado di generare testo in modo autonomo, rispondere alle domande e aiutare con compiti specifici, in modo tale da rendere l’interazione tra l’uomo e le macchine più naturale. 

Ultima applicazione, di cui voglio parlarvi più nel dettaglio è quella dell’IA applicata al disegno. Infatti, da qualche anno a questa parte sono nate diverse applicazioni che a partire da degli schizzi o da delle stringhe di testo possono creare delle immagini realistiche. 

Un esempio è quello di AutoDraw, applicazione sviluppata da Google che aiuta gli utenti dai loro schizzi a creare delle immagini accattivanti. L’interfaccia è quella di Paint, l’applicazione su cui tutti smanettavamo da piccoli per creare i nostri capolavori; quando un utente inizia a disegnare, AutoDraw crea un’immagine digitale dalla traccia e la confronta con il database di immagini. 

Il sistema dietro a quest’applicazione è una combinazione di tecniche di apprendimento automatico, tra cui l’apprendimento supervisionato, l’analisi di cluster e l’apprendimento per riconoscimento di modelli, che portano a generare un corpus di immagini approssimative e corrette. Se il disegno dell’utente corrisponde abbastanza a un’immagine nel database, l’applicazione mostra automaticamente il disegno corrispondente come suggerimento. L’utente può quindi selezionare il disegno suggerito o continuare a disegnare. 

Ciò significa che anche se il disegno iniziale dell’utente può essere approssimativo o poco preciso, l’applicazione è in grado di riconoscere il disegno e di suggerire una versione più precisa e professionale. 

Se AutoDraw si basa sugli schizzi dell’utente, diverso è il funzionamento di DALL·E, sistema di IA sviluppato da OpenAI, la stessa azienda di ChatGPT, che genera immagini a partire dalle descrizioni fornite dall’utente. In primo luogo, il sistema analizza la descrizione fornita dall’utente e la traduce in un vettore di caratteristiche che rappresentano le informazioni chiave. Questi vettori vengono quindi elaborati da una rete neurale, addestrato su milioni di immagini per comprendere la relazione tra le parole e le immagini, in modo che generi un’immagine corrispondente. 

In particolare, DALL·E utilizza una particolare tipologia di deep learning, quella del Transformer, modello noto come Generative Pre-trained Transformer 3 (GPT-3), che è stato addestrato su un grande corpus di dati per generare testo. Questo modello è stato esteso per generare immagini da descrizioni testuali, che è la funzione principale di DALL·E. 

Non solo può creare delle immagini partendo da zero, ma può anche espandere delle immagini o quadri creando degli ampliamenti più che realistici. Sul sito dell’applicazione si può vedere come, a partire da “La Ragazza con l’Orecchino di Perla” di Vermeer, generi l’ambiente di una casa attorno al soggetto dell’opera, con il medesimo stile dell’autore olandese. 

Diverso ancora è il funzionamento di Nvidia Canvas, applicazione ancora in fase di beta ma già scaricabile sul sito della società americana. Un po’ come AutoDraw, anche quest’applicazione parte da dei semplici schizzi da parte dell’utente, che vengono, però, trasformati dall’IA in un paesaggio completamente realistico. L’immagine che potete vedere rappresenta un bel paesaggio balneare, che magari possiamo trovare sulle coste dell’Australia, ma che in realtà è solo frutto dell’IA e della mia fantasia. 

Nvidia Canvas usa un GAN (Generative Adversarial Network), un agente in cui due reti neurali si allenano insieme e si ottimizzano a vicenda, per creare immagini fake indistinguibili da quelle reali, a partire da un database di oltre cinque milioni di immagini di paesaggi caricati sul sistema di IA Nvidia GDX, l’infrastruttura che la stessa azienda americana vende alle imprese che vogliono approcciarsi con l’intelligenza artificiale. 

Nvidia canvas rappresenta l’evoluzione di un precedente programma sviluppato sempre da Nvidia, GauGAN, che svolgeva le stesse funzioni, ma con un’interfaccia molto più spartana.  

Ci sono, però, persone che guardano con diffidenza all’IA. Lo stesso Parlamento Europeo, in un altro suo studio, ha evidenziato i rischi che ci possono essere nell’utilizzo di questo strumento. 

Il primo è quello della minaccia ai diritti fondamentali e alla democrazia. Infatti, i risultati prodotti dall’IA dipendono dal modo in cui è stata progettata e da quali dati vengono immessi. Per questo motivo, c’è il rischio che essi possano essere influenzati volontariamente, in modo che alcuni aspetti importanti non vengano programmati nell’algoritmo o potrebbero essere programmati per riflettere e perpetuare delle distorsioni strutturali. Ad esempio, se non programmata correttamente, l’IA potrebbe condurre a decisioni riguardo a un’offerta di lavoro, all’offerta di prestiti e anche nei procedimenti penali, influenzate dall’etnia, dal genere, dall’età. 

L’IA può anche minacciare la protezione dei dati e il diritto alla vita privata, dato che può essere usata, per esempio, in dispositivi per il riconoscimento facciale o per la profilazione online, mettendo, poi, insieme le informazioni che acquisisce su una persona senza che questa ne sia a conoscenza. 

A proposito di privacy, l’intelligenza artificiale può anche essere usata per creare immagini, video e audio falsi ma estremamente realistici, noti come “deepfake”, che possono essere usati per truffare, rovinare la reputazione e mettere in dubbio la fiducia nei processi decisionali.  

Inoltre, l’IA è già stata accusata di essere pericolosa per la libertà d’opinione, in quanto tramite essa è possibile creare delle “bolle” in rete, dove agli utenti vengono proposti contenuti basati sulle sue precedenti interazioni invece di creare un ambiente aperto per un dibattito a più voci, inclusivo e accessibile. 

Un’altra critica che è stata mossa, in particolare riguardo la guida autonoma, è quella del chi si dovesse prendere la responsabilità, in caso di incidente, tra il proprietario, il costruttore e il programmatore. Se il produttore fosse privo di responsabilità, potrebbero non esserci incentivi sufficienti a fornire un prodotto sicuro ed efficiente e, conseguentemente, il pubblico potrebbe avere meno fiducia nella tecnologia, ma, allo stesso tempo, delle norme troppo severe potrebbero soffocare i tentativi di innovazione. 

Un altro rischio da tenere in conto è la possibilità che l’I.A. potrebbe portare alla scomparsa di molti posti di lavoro. Secondo uno studio del Parlamento Europeo, il 14% dei posti di lavoro nei paesi OCSE (Organizzazione per la cooperazione e lo sviluppo economico) sono automatizzabili, mentre il 32% dovrebbe affrontare cambiamenti sostanziali. Per questo, sarà importante formare bene le nuove generazioni e chi cerca lavoro in modo da fornire loro le conoscenze e competenze necessarie per accedere alle nuove forme di impiego che si creeranno. 

Infine, ci potrebbero essere dei rischi per la sicurezza e la salute dell’uomo, in quanto, le applicazioni di intelligenza artificiale che sono a contatto o anche integrate del corpo umano possono esser pericolose se mal progettate, utilizzate in modo improprio o hackerate. Un uso non regolamentato dell’intelligenza artificiale negli armamenti potrebbe condurre a una perdita di controllo su armi distruttive. 

L’ultimo scenario descritto è quasi da film, ma, a ben pensarci, non è impossibile che si verifichi. Proprio in una prospettiva simile sono state girate pellicole molto famose, come Avengers: Age of Ultron, in cui, per un errore commesso da Tony Stark, ovvero Iron Man, Ultron, un’intelligenza artificiale, riesce a prendere possesso di un esercito di armature, simili a quelle indossate dal personaggio interpretato da Robert Downey Jr., e cerca di distruggere il mondo. Altri film famosi in cui si parla di IA sono Terminator e Star Wars, con gli androidi senzienti R2-D2 e C-3PO, per non parlare di Pensiero Profondo, un’IA che nel libro Guida Galattica per autostoppisti è capace di fornire la risposta alla “domanda fondamentale sulla vita, l’universo e tutto quanto”. Esiste, inoltre, una serie tv chiamata NEXT, che parla di un’intelligenza artificiale capace di migliorarsi continuamente che potrebbe portare a una catastrofe mondiale. I protagonisti combattono questa super intelligenza che, invece di lanciare missili, usa l’immensa conoscenza che ha raccolto dai dati per reclutare alleati, mettere le persone le une contro le altre ed eliminare gli ostacoli alla propria sopravvivenza e crescita. 

Dopo questa piccola parentesi sulla fantascienza, tornerei a parlare della critica nei confronti dell’IA, in quanto l’argomento non si esaurisce qui. Infatti, esiste una branca dell’etica, chiamata “Etica dell’intelligenza artificiale” che si occupa delle implicazioni economiche, sociali e culturali dello sviluppo dei sistemi di intelligenza artificiale. 

Oltre a questa disciplina, esistono due correnti filosofiche diverse che cercano di definire una macchina intelligente come prodotto della: 

  • Intelligenza artificiale debole (weak AI): questo pensiero ritiene che una macchina possa essere programmata con delle regole ben definite, in modo da comportarsi in modo intelligente. 
  • Intelligenza artificiale forte (strong AI): alla base di questo pensiero sta il fatto che se una macchina agisce in modo intelligente, viene implicato che essa sia anche cosciente di come realmente si comporta. 

Nel 1950, Alan Turing, nel suo articolo “Computing Machinery and Intelligence”, portò il dibattito filosofico a un livello più concreto, dando una definizione operativa di intelligenza basata su un test comportamentale inventato da lui stesso, chiamato “The Imitation Game” e ricordato anche come “Test di Turing“. 

Il test si basa sull’esistenza di tre stanze poste una vicina all’altra. Nella prima c’è un uomo e nell’ultima una donna, mentre in quella centrale invece risiede l’interrogante. L’uomo e la donna possono comunicare messaggi di testo solamente con l’interrogatore scrivendo tramite una tastiera e leggendo tramite uno schermo. L’obiettivo della donna è quello di farsi identificare come donna, mentre quello dell’uomo è quello di trarre in inganno l’interrogante, facendogli credere di essere una donna. Il gioco è ripetuto una seconda volta, scambiando l’uomo con una macchina. 

La macchina è definita come intelligente se la frequenza con cui l’interrogante individua correttamente l’uomo e la donna è almeno la stessa con cui individua correttamente la macchina e la donna. Una macchina può quindi ritenersi intelligente se e solo se si comporta come un essere umano, quindi solo se riesce a ingannare l’interrogante come farebbe un uomo. 

Come attività pratica sono riuscito a intervistare due esperti informatici, un programmatore ed esperto di Cybersicurezza, e un ingegnere, responsabile dell’Ufficio Tecnologie di un ente pubblico. Il primo dice che l’intelligenza artificiale è una risorsa molto importante del nuovo millennio, ma si trova a uno stadio ancora di sviluppo. Infatti, a questo stato c’è ancora bisogno di una persona che deve controllarla, quindi non sarebbe ancora capace di togliere il posto all’uomo, proprio in virtù di questa sua imperfezione, generata dal fatto che è stata creata dall’uomo. Anche l’ingegnere è pressappoco della stessa opinione. Secondo lui per quanto riguarda il mondo del lavoro, al momento le principali applicazioni riguardano lavori ripetitivi o ad alto rischio per l’essere umano, come ad esempio robot per accedere alle celle frigo, e non si prevede alcun impatto sulla riduzione/sostituzione dell’uomo nelle attività lavorative. Riguardo a questi timori ricorda come in passato si temesse che la rivoluzione fordista, basata sulle catene di montaggio, avrebbe messo in crisi il mondo del lavoro e invece risultò essere un volano per dare slancio all’economia e innalzare il livello di benessere delle popolazioni.  

Sinceramente, io penso che l’intelligenza artificiale sia una risorsa molto potente per il nostro tempo e che dovrebbe essere utilizzata, tenendo conto anche dei rischi. 

Bibliografia 

https://www.europarl.europa.eu/news/it/headlines/society/20200827STO85804/che-cos-e-l-intelligenza-artificiale-e-come-viene-usata

https://it.wikipedia.org/wiki/Intelligenza_artificiale

https://it.wikipedia.org/wiki/Assistente_virtuale

https://www.sernicola-labs.com/magazine/39-intelligenza-artificiale-applicata-al-web-come-puo-aiutare-concretamente-la-tua-azienda

https://www.italiaonline.it/risorse/l-algoritmo-di-instagram-cos-e-come-funziona-e-come-sfruttarlo-3075

https://www.europarl.europa.eu/news/it/headlines/society/20200918STO87404/quali-sono-i-rischi-e-i-vantaggi-dell-intelligenza-artificiale

https://it.wikipedia.org/wiki/Etica_dell%27intelligenza_artificiale

https://www.ionos.com/digitalguide/online-marketing/search-engine-marketing/deep-learning-vs-machine-learning/

https://openai.com/dall-e-2/

https://www.nvidia.com/it-it/studio/canvas/

https://openai.com/blog/chatgpt/

Follow me!