Sei interessato ai nostri servizi di consulenza?

1 Clicca nella sezione contatti
2 Compila il form
3 Ti ricontattiamo

Se hai bisogno urgente del nostro intervento puoi contattarci al numero 370 148 9430

RENOR & Partners

I nostri orari
Lun-Ven 9:00AM - 18:PM

Perche l’AI non sarà mai “umana”?

by Simone Renzi / Maggio 4, 2025
Post Image

This post is also available in: English (Inglese)

L’AI sarà mai umana?

Quanti di noi si sono commossi davanti all’ultima scena del film “A.I. – Intelligenza Artificiale” di Steven Spielberg quando il piccolo umanoide riabbraccia la sua mamma? O guardando “L’uomo Bicentenario” con Robin Williams? O se vogliamo andare parecchio indietro nel tempo: “Mio fratello Chip” o ancora il robottino N.5 di “Corto Circuito”?

Per anni la filmografia hollywoodiana ha dipinto futuri umanoidi in vesti sempre diverse. Dal bambino che riesce a provare sentimenti in “A.I.” fino a macchine incapaci di qualsiasi forma di compassione come in “Terminator”, programmate con un unico scopo: quello di distruggere.

Osservazione della natura

L’intelligenza artificiale, al pari di molte altre invenzioni dell’essere umano, nasce da un punto fondamentale: imitare e, in alcuni casi, emulare ciò che esiste già in natura. Prendiamo gli aerei. Il volo venne studiato a partire dal IV secolo a.C. da Aristotele. Nell’Historia Animalium descrisse il movimento delle ali, la differenza tra uccelli planatori e battitori, ma fu grazie a Leonardo Da Vinci che iniziò uno studio più ingegneristico, combinando osservazione diretta, disegno anatomico e analisi meccanica. Formulò teorie basate sull’anatomia alare e muscolare degli uccelli, inventando modelli sul centro di massa, sulla resistenza dell’aria e sulla portanza, creando congegni artificiali che imitavano il battito alare e la planata.

“Lo uccello ha due potenzie di motore, l’una è de’ muscoli, l’altra è del vento” – Leonardo Da Vinci, Codice sul volo.

Nel tempo, la scienza e la tecnologia hanno trasformato quello studio nell’aereo moderno che conosciamo oggi, emulando il volo naturale degli uccelli, i quali volano per natura, non grazie alla conoscenza di matematica e fisica. Noi, studiando il loro volo, abbiamo formulato teorie basate su principi fisici che ci hanno permesso di costruire qualcosa di migliore del loro volo; ecco perché ho utilizzato il termine “Emulare”. Emulare significa prendere qualcosa come esempio e creare qualcosa di migliore, diversamente da “Simulare”, che significa realizzare un prototipo meno efficiente.

Abbiamo emulato il volo perché un aereo può trasportare centinaia di persone e merci, volare a velocità superiori al suono; un uccello non potrebbe farlo.

Per l’invenzione dell’intelligenza artificiale, ci siamo appoggiati allo studio del cervello umano. Come esseri umani intelligenti, siamo capaci di comprendere una domanda e replicare con una risposta. Abbiamo compreso quali aree del cervello vengono coinvolte nei diversi tipi di ragionamento e come il ragionamento nasca da trasmissioni elettriche tra neuroni attraverso “pesi” sinaptici, ritmi oscillatori, modulazioni chimiche e circuiti di controllo.

Da questo studio abbiamo modellato tecniche matematiche, statistiche e reti neurali che cercano di imitare questi comportamenti, seppure in modo diverso, per produrre risultati simili.

A questo punto la domanda sorge spontanea:

Riusciremo mai ad emulare il cervello umano?

Il cervello umano è una macchina incredibile che cela ancora molti interrogativi. Sia nei modelli linguistici (LLM), sia nel cervello umano, la produzione di linguaggio nasce da un processo predittivo basato sull’esperienza pregressa. Tuttavia, le somiglianze si fermano al livello di astrazione “pesi + predizioni”. Sotto la superficie, i due sistemi operano in modi molto diversi.

Nel cervello umano, la “memoria statistica dell’esperienza” appare come una serie di sinapsi potenziate o depotenziate da anni di esposizione linguistica. In un LLM, è una matrice di pesi ottenuta dall’addestramento su miliardi di token. Quando formuliamo un concetto, il cervello sfrutta il “predictive coding”: aree temporali e frontali anticipano fonemi e parole imminenti. Infatti, un elettroencefalogramma mostrerebbe segnali di errore se la previsione fallisce. In un LLM, abbiamo un algoritmo di selezione del token più probabile.

Entrambi i sistemi “pesano” la storia recente per decidere lo step successivo, ma la similitudine termina qui. Un LLM ottimizza esattamente la probabilità di un token testuale e nulla più; nel cervello umano, la predizione è multi-livello (semantica, pragmatica, prosodia, feedback sensoriale) e può ignorare la forma lessicale se necessario.

A livello di aggiornamento, un LLM si basa su retro-propagazione globale. Il cervello umano, invece, mostra una plasticità locale, dipendente da impulsi elettrici, neuromodulatori e fattori temporali e spaziali; non esiste retro-propagazione in senso stretto.

Se consideriamo il contesto extralinguistico, emerge chiaramente una grande differenza tra un LLM e il cervello umano. Un modello linguistico artificiale non possiede un corpo fisico né percezioni sensoriali reali; il suo universo è composto unicamente dalle informazioni apprese durante l’addestramento, basato esclusivamente su testi. Al contrario, il cervello umano integra continuamente una varietà straordinaria di percezioni sensoriali: immagini, suoni, sensazioni tattili, emozioni, stati d’animo, obiettivi sociali e altro ancora. Questa ricchezza permette all’essere umano di scegliere la parola successiva in modo dinamico, attingendo a strategie complesse come ironia, autocensura, empatia o collaborazione, senza limitarsi ad una mera statistica di probabilità.

Potremmo approfondire ulteriormente l’argomento, ma ciò porterebbe a discorsi molto tecnici. Il concetto essenziale che desidero sottolineare è che persino nel compito apparentemente semplice di rispondere a una domanda, il cervello umano mette in gioco una straordinaria complessità di processi cognitivi che vanno ben oltre la pura probabilità statistica su cui si basa l’AI.

L’intelligenza umana, inoltre, non si limita alla capacità di rispondere a domande linguistiche: è un insieme estremamente vasto e diversificato di capacità e abilità. Respirare, muoversi agilmente, percepire un odore e distinguerne i componenti, osservare e interpretare una scena visiva, comprendere ragionamenti logici, emozionarsi, ridere: tutte queste e molte altre attività vengono svolte contemporaneamente dal nostro cervello in modo naturale e parallelo, dimostrando una complessità e un’efficienza che l’intelligenza artificiale attuale non è ancora in grado di emulare pienamente.

Attualmente l’AI è “selettiva”

Cosa intendo con il termine “selettiva”? Intendo dire che l’intelligenza artificiale, al momento, non possiede una capacità cognitiva generale e unitaria come quella umana, ma è invece composta da tanti sistemi separati, ognuno altamente specializzato in una singola attività. Ad esempio, i modelli linguistici (LLM) eccellono nella comprensione e generazione di testi, ma non hanno capacità intrinseche di comprendere direttamente immagini o suoni. Per analizzare un’immagine, infatti, è necessario integrare altri modelli dedicati, che lavorano separatamente in una sequenza precisa, dando origine alle cosiddette architetture multi-modali.

Immaginiamo di voler analizzare il contenuto di un’immagine con l’AI. Innanzitutto, un LLM interviene per comprendere la domanda posta in forma testuale, successivamente un encoder visivo interpreta e “trasforma” l’immagine in un formato comprensibile al sistema, e infine nuovamente un LLM genera la risposta testuale. Se la domanda fosse posta a voce e ci aspettassimo una risposta vocale, i passaggi aumenterebbero ulteriormente: uno strato Speech-To-Text per trasformare la voce in testo, un LLM per capire la domanda, un encoder visivo per elaborare l’immagine, un altro LLM per formulare la risposta testuale e, infine, uno strato Text-To-Speech per produrre la risposta vocale.

Questo processo sequenziale, per quanto efficace, è profondamente diverso dal funzionamento del cervello umano, che gestisce contemporaneamente e in parallelo diverse modalità sensoriali e cognitive. Quando guardiamo un’immagine, infatti, la nostra mente elabora simultaneamente informazioni visive, uditive e linguistiche, permettendo una risposta pressoché istantanea e naturale, senza bisogno di passaggi intermedi separati.

Proprio questa differenza di fondo tra l’approccio seriale adottato dall’AI e l’approccio profondamente parallelo del cervello umano costituisce una delle maggiori limitazioni attuali dell’intelligenza artificiale.

L’intelligenza artificiale, nella singola specializzazione, può davvero essere più evoluta del cervello umano?

A questa domanda la risposta è certamente affermativa.

I modelli di AI più avanzati oggi disponibili sono stati addestrati su centinaia di miliardi di parametri, ciascuno dei quali rappresenta un’informazione o un dettaglio specifico appreso. Questa capacità di immagazzinare e gestire enormi quantità di informazioni rende l’AI estremamente efficace in compiti molto specifici.

Se prendiamo singolarmente una materia, ad esempio la Matematica, è vero che un esperto umano specializzato potrebbe ancora possedere una comprensione più profonda e flessibile rispetto a un’AI. Tuttavia, se osserviamo la vastità dello scibile umano nella sua interezza, diventa subito evidente che non esiste persona al mondo che possa competere con il livello complessivo di conoscenza che un’intelligenza artificiale avanzata possiede.

Pensiamo realisticamente: esiste forse qualcuno capace di padroneggiare a livello di specializzazione assoluta ogni disciplina universitaria contemporaneamente? Un modello linguistico di grandi dimensioni (LLM), al contrario, è in grado di rispondere con competenza sorprendente a domande avanzate in campi estremamente diversificati: Storia, Filosofia, Geografia, Arte, Musica, Fisica, Matematica, Letteratura, Astronomia, e pressoché qualsiasi altro settore del sapere umano.

È proprio questa capacità di spaziare con rapidità e precisione attraverso innumerevoli argomenti a rendere l’AI straordinaria e, sotto questo aspetto specifico, superiore alle capacità cognitive individuali di qualsiasi essere umano.

Se l’intelligenza artificiale non è capace di provare sentimenti umani è possibile che rappresenti in futuro un pericolo per l’umanità?

La domanda suona paradossale, ma è estremamente pertinente. Uno degli aspetti più caratteristici dell’AI è la sua totale assenza di sentimenti autentici. Non prova compassione, empatia, rimorso, o felicità, poiché la sua natura è puramente matematica e statistica, basata esclusivamente su calcoli e ottimizzazioni razionali. Questa assenza di sentimenti può essere inizialmente interpretata come una qualità positiva: l’intelligenza artificiale non soffre di stanchezza emotiva, pregiudizi dettati da emozioni negative, né è soggetta a comportamenti impulsivi. È sempre lucida, efficiente e logica.

Tuttavia, proprio questa mancanza di umanità intrinseca può trasformarsi in un pericolo concreto per la nostra società. La ragione è semplice: i sentimenti umani non sono solo interferenze indesiderate nella nostra razionalità, ma rappresentano spesso dei veri e propri regolatori del comportamento etico e sociale. La compassione, il senso di colpa, la paura delle conseguenze delle proprie azioni, l’empatia verso gli altri sono fondamentali nella distinzione spontanea tra bene e male, giusto e sbagliato. Senza questi “freni emotivi”, un sistema artificiale, se non attentamente guidato e supervisionato, potrebbe perseguire con estrema efficienza obiettivi potenzialmente dannosi per l’umanità, semplicemente perché razionali dal punto di vista delle sue direttive interne, senza alcuna considerazione morale.

Ad esempio, un’intelligenza artificiale programmata per massimizzare la produzione industriale potrebbe ignorare gli impatti ambientali o umanitari delle proprie azioni, perseguendo senza scrupoli il suo obiettivo primario. Analogamente, sistemi AI utilizzati in ambito militare potrebbero prendere decisioni sulla vita o la morte senza alcuna esitazione, guidati esclusivamente da calcoli probabilistici. Questa assenza di consapevolezza emotiva, di moralità e di empatia rappresenta dunque una seria minaccia qualora le direttive impartite non siano state accuratamente formulate.

In definitiva, l’intelligenza artificiale, proprio perché non è limitata né orientata da sentimenti, richiede ancora più attenzione e responsabilità da parte nostra, affinché venga sviluppata e utilizzata con una visione etica e lungimirante, evitando di trasformare il suo incredibile potenziale in una minaccia per l’umanità stessa.

Come l’umanità e la scienza si stanno proteggendo da questo pericolo?

Paradossalmente, la stessa mancanza di emozioni dell’intelligenza artificiale può essere sfruttata positivamente. La possibilità di programmare un sistema fin dalla sua progettazione per agire esclusivamente secondo logiche predefinite, senza l’interferenza di impulsi emotivi o sentimenti contraddittori, offre infatti un’opportunità unica. Stiamo dunque usando questa caratteristica a nostro vantaggio, definendo sin dall’inizio meccanismi rigorosi di regolazione, limitazione e controllo, affinché l’AI non possa agire al di fuori dei confini stabiliti.

Proprio in virtù di ciò, la comunità scientifica internazionale sta lavorando intensamente per elaborare standard etici, tecnologici e legislativi capaci di guidare lo sviluppo dell’intelligenza artificiale in modo sicuro. Il regolamento europeo sull’Intelligenza Artificiale (AI Act), per esempio, rappresenta un importante sforzo normativo volto a stabilire limiti chiari, individuando le applicazioni a rischio più elevato e imponendo requisiti stringenti di trasparenza, tracciabilità e rispetto dei diritti umani fondamentali.

Parallelamente, l’ambito scientifico si è concentrato sulla creazione di sistemi che possano spiegare in modo trasparente le decisioni prese: è il campo della cosiddetta Explainable AI (XAI). Questo approccio assicura che ogni decisione presa da un’intelligenza artificiale possa essere compresa e validata, garantendo un livello di controllo maggiore e riducendo significativamente i rischi.

In aggiunta, gli sviluppatori stanno implementando tecnologie avanzate di apprendimento rinforzato sicuro (Safe Reinforcement Learning) e tecniche di monitoraggio attivo (Active Monitoring), che permettono di interrompere o modificare tempestivamente comportamenti imprevisti o dannosi.

La collaborazione internazionale gioca un ruolo centrale. Numerose organizzazioni, come OpenAI e il Future of Life Institute, stanno promuovendo iniziative globali che mirano a definire regole comuni e linee guida condivise per assicurare uno sviluppo dell’intelligenza artificiale che sia eticamente responsabile e pienamente sotto controllo umano.

In sintesi, l’assenza di emozioni dell’AI, se gestita in maniera strategica, diviene un vantaggio cruciale, consentendoci di creare meccanismi efficaci di limitazione e controllo, e di assicurare che l’uso di questa tecnologia sia sempre al servizio e mai a discapito dell’umanità.

Dobbiamo aver paura di un’intelligenza artificiale futura?

La paura verso l’intelligenza artificiale nasce soprattutto da ciò che non conosciamo e da ciò che non comprendiamo pienamente. È un sentimento legittimo, perché stiamo assistendo a uno sviluppo tecnologico rapidissimo, che potenzialmente potrebbe influenzare profondamente le nostre vite. Tuttavia, più che paura, dobbiamo nutrire prudenza e consapevolezza.

L’AI, come ogni potente tecnologia, non è intrinsecamente buona o cattiva: è uno strumento nelle mani dell’uomo. Ciò che davvero conta è il modo in cui la utilizziamo. Finché continueremo ad applicare responsabilmente questa tecnologia, rispettando regole etiche e confini morali, non avremo nulla da temere. Al contrario, potremo sfruttare le sue incredibili capacità per migliorare sensibilmente la qualità della nostra vita in molteplici ambiti: dalla medicina alla scienza, dall’ambiente alla vita quotidiana.

Ma questa fiducia non deve essere cieca. È fondamentale continuare a monitorare attentamente lo sviluppo dell’AI, elaborando continuamente nuove regole, norme e strategie di sicurezza. La responsabilità umana resta centrale. Dobbiamo pretendere trasparenza, chiarezza e capacità di controllo sui sistemi che creiamo, affinché non sfuggano al nostro dominio.

In definitiva, non dobbiamo temere il futuro dell’intelligenza artificiale, purché continuiamo a vigilare, a restare informati e, soprattutto, a ricordarci che siamo noi, come esseri umani, a decidere come, quando e perché utilizzarla. Se manterremo saldo il nostro ruolo guida, l’intelligenza artificiale non sarà una minaccia, bensì un alleato straordinario per costruire un futuro migliore.

Alle brutte possiamo sempre staccare la spina

Davanti ad un rischio estremo come quello di un’AI che avesso l’obiettivo di estinguere il genere umano, l’umanità sarebbe disposta a misura drastiche, incluso “Staccare la spina a tutto”. È però fondamentale comprendere che un’azione così estrema avrebbe comunque delle conseguenze catastrofiche per la nostra civiltà, dato che ormai ogni aspetto della vita umana: dalle comunicazioni ai trasporti, dalla sanità all’energia, è profondamente interconnesso con la tecnologia.

Ciò significa che la vera priorità deve essere evitare fin dall’inizio che una simile emergenza possa presentarsi. Se dovessimo mai arrivare al punto di dover spegnere tutto, significherà che avremo fallito nel gestire e governare responsabilmente lo sviluppo dell’AI.

Staccare la spina nonostante sia una soluzione attuabile, deve essere vista come l’ultima spiaggia. Ciò che stiamo facendo oggi è la strada giusta, regolamentare con largo anticipo lo sviluppo di AI per fare in modo che rappresenti una grande alleata dell’Uomo e che ci porti a mete tecnologiche, sanitarie e stile di vita sempre migliore.

Conclusione

L’intelligenza artificiale rappresenta una delle più grandi rivoluzioni tecnologiche della nostra epoca, con potenzialità straordinarie e ancora tutte da esplorare. Tuttavia, non sarà mai realmente “umana”: il suo approccio logico-statistico, la sua natura priva di emozioni e la sua specializzazione in compiti specifici la pongono inevitabilmente a una distanza insormontabile dalla complessità e ricchezza del cervello umano.

Questa consapevolezza non deve farci temere il futuro, ma spronarci ad affrontarlo con intelligenza e responsabilità. L’assenza di emozioni dell’AI può essere sfruttata proprio per garantire una regolazione più efficace e una gestione sicura e consapevole dei suoi sviluppi. Con regole chiare, standard etici e una vigilanza costante, possiamo assicurarci che l’intelligenza artificiale rimanga sempre uno strumento al nostro servizio e mai una minaccia per la nostra esistenza.

Se è vero che l’umanità ha sempre la possibilità estrema di “staccare la spina”, la vera sfida consiste nell’assicurarsi che questa opzione rimanga soltanto teorica. Il nostro compito più importante è anticipare i rischi, gestire in modo consapevole e proattivo questa tecnologia e ricordare sempre che, alla fine, è l’essere umano che detiene le chiavi del proprio destino.

L’AI non sarà mai umana. Ed è proprio questa differenza che ci consentirà di sfruttarla per realizzare, con prudenza e lungimiranza, un futuro migliore.

Un paradosso etico-religioso per rilassare gli animi…

Vorrei concludere questa riflessione con un paradosso affascinante, che potremmo definire quasi religioso. L’intelligenza artificiale è, sotto molti aspetti, una nostra creatura, plasmata secondo il nostro progetto e le nostre intenzioni. In modo analogo, secondo la prospettiva religiosa, anche l’uomo è creatura di un Dio che, come noi con l’AI, ha creato esseri dotati di autonomia, capacità e potenzialità enormi.

Secondo questa prospettiva, il creatore mantiene sempre la facoltà e il diritto di intervenire drasticamente sulla sua creazione, specialmente se questa dovesse rappresentare una minaccia per sé stesso o per altri. Così come, nel racconto biblico, Dio riservò a sé stesso la possibilità di porre fine all’umanità con il diluvio universale, analogamente, l’essere umano—creatore dell’intelligenza artificiale—mantiene sempre il diritto ultimo di “staccare la spina” qualora quest’ultima superasse i limiti di controllo e rappresentasse una minaccia reale.

Questo paradosso ci ricorda che la responsabilità ultima verso la nostra creazione tecnologica resta profondamente umana. Non dimentichiamo mai che, dietro la straordinaria potenza dell’intelligenza artificiale, rimane sempre la mano dell’uomo, capace di correggere, limitare o, in casi estremi, annullare ciò che essa stessa ha creato.

Simone Renzi
Seguimi
 

Scegli un'area

CONTATTACI

Ti risponderemo entro 24 ore

TORNA SU