La risposta è sbagliata. Ma è detta così bene che ci credi lo stesso.
Postato

La risposta è sbagliata. Ma è detta così bene che ci credi lo stesso.

Riflessioni sulle parole sorprendenti di Sam Altman e su un futuro in cui la verità non è più la nostra priorità principale.

La sorpresa di chi l’ha creata

Sam Altman, CEO di OpenAI, ha recentemente ammesso di essere rimasto sorpreso da un fatto tanto curioso quanto inquietante:

“Le persone ripongono un livello di fiducia altissimo in ChatGPT. Ed è strano, perché questa tecnologia ogni tanto… inventa.“ 
(People have a very high degree of trust in ChatGPT, which is interesting, because AI hallucinates)

Non è un mistero che l’Intelligenza Artificiale soffra di un fenomeno noto come hallucination: genera risposte che sembrano corrette, ma che in realtà sono completamente inventate.

Eppure, milioni di persone ogni giorno si affidano a queste risposte senza battere ciglio. Chiedono consigli medici, analizzano relazioni sentimentali, studiano strategie di business, e molto altro ancora.

 

Come è possibile?

Perché, pur sapendo che l’AI può sbagliare, continuiamo ad ascoltarla come fosse un oracolo?

 

La scorciatoia che piace al cervello umano

Immagina questa scena. Hai un dubbio:

“Come faccio a eliminare una macchia di caffè dal tappeto?”

Apri Google, trovi dieci risultati diversi, ognuno con il suo metodo. Tra questi, chi ti dice di usare aceto, chi bicarbonato, chi ammoniaca, chi ti raccomanda addirittura di non fare nulla e chiamare un esperto. 
Tempo stimato per leggere tutto: 15 minuti, forse di più.
Fatica mentale: alta.
Risultato: ancora più confusione.

Ora immagina di chiedere la stessa cosa a ChatGPT:

la risposta arriva in pochi secondi, chiara, rassicurante, con passaggi ordinati:

“Tampona la macchia con acqua fredda, poi usa un mix di aceto e bicarbonato, infine risciacqua bene.”

Plausibile, semplice, pronto da applicare.
Non ti chiedi nemmeno se sia la soluzione “scientificamente più corretta”. La accetti, e vai avanti.

Perché il nostro cervello vuole “la risposta pronta”

Questa scena racconta un meccanismo profondissimo della nostra mente:

  • Preferiamo una risposta immediata e ben raccontata, anche se non perfetta.
  • Non vogliamo impelagarci in lunghi ragionamenti, specie su cose che riteniamo “secondarie”.
  • Quando una risposta appare fluida, ben scritta e logica, il nostro cervello la premia con fiducia.
     

Questo si chiama effetto della fluidità cognitiva: ci fidiamo di ciò che scorre bene, che è semplice da capire, che ci fa risparmiare fatica.
E l’Intelligenza Artificiale è la campionessa assoluta in questo.


 

Il fascino della semplificazione… e il rischio nascosto

ChatGPT non è progettata per dire la verità. Il suo scopo è prevedere la risposta più plausibile, non quella più corretta.

È come una macchina che, al posto di cercare la verità, ti dica ciò che suona bene. Questo non è un errore di progettazione. È il motivo stesso per cui ha così successo: dà alle persone ciò che vogliono sentire, non ciò che richiede fatica capire.
 


Un altro esempio pratico: il consiglio finanziario

Supponi di chiedere:
 

“Qual è il modo migliore per investire 10.000 euro?”

 

ChatGPT ti risponderà in modo generico e rassicurante:
 

“Dipende dai tuoi obiettivi. In generale, puoi considerare un mix di investimenti a basso rischio come i titoli di Stato, oppure fondi indicizzati per il lungo periodo.”

 

Suona bene, è prudente, sembra saggio. Ma… è davvero la risposta giusta? Chi ha mai analizzato la tua situazione finanziaria? Nessuno. È solo una risposta standard, vestita da consiglio personalizzato.


 

Davvero vogliamo “la verità”?

Il punto sollevato da Sam Altman è dirompente:
Siamo sicuri di voler davvero la verità? O cerchiamo solo risposte che ci facciano sentire al sicuro, veloci da capire e facili da applicare?

La sfida del futuro non sarà solo costruire AI più “giuste” o più “oneste”.

La vera sfida sarà educare noi stessi a distinguere tra: risposte che risolvono problemi semplici e quelle che richiedono approfondimento, ricerca e confronto umano.
 

Uno sguardo al domani

Immagina un’AI che non solo risponde, ma che ti dica:

“Questa risposta ha una probabilità del 60% di essere corretta. Ecco i dubbi principali. Vuoi approfondire?”

Sarebbe un AI meno rassicurante, certo. Ma più onesta. E forse, più umana di quanto pensiamo.

Alla fine, la tecnologia non è altro che uno specchio: ci mostra ciò che desideriamo davvero. 
E ciò che oggi sembra il futuro — la velocità, l’efficienza, l’automazione — potrebbe essere solo un altro modo di eludere la domanda più antica di tutte:

“Quanto siamo disposti a lottare per la verità?”

Preferenze cookie
0