HR EXPERT
& COACH

L’AI (ancora) non ragiona: l’esperimento di Alice

Secondo la prima regola per gestire l’AI indicata nel libro Co-Intelligence di Ethan Mollick, io “invito sempre al mio tavolo” l’AI proprio per capire opportunità e limiti. In questo caso ho voluto verificare un esperimento logico di cui ho sentito parlare, chiamato anche il paradosso di Alice. Il paradosso di Alice esamina la capacità di un’AI di risolvere problemi logici apparentemente semplici, ma che possono nascondere complessità sorprendenti.

L’AI (ancora) non ragiona: l’esperimento di Alice

Quello che effettivamente dobbiamo sempre fare è continuare a sperimentare con l’AI, andare a fondo, portarla ai limiti. Solo questo ci permette di capire cosa in questo momento l’AI può fare del nostro lavoro e cosa no. È fondamentale sapere che, anche se un dato problema è stato risolto da GPT (che è il nome di modello di intelligenza artificiale sviluppato da OpenAI), non significa che la risposta sia sempre corretta. Questo succede agli studenti che consegnano compiti in classe, ai manager che fanno analisi con ChatGPT (nome dell’interfaccia che utilizza modelli GPT – Generative Pre-trained Transformers) e alle aziende che utilizzano l’AI per automatizzare certi processi. L’umano deve rimanere nel loop per verificare, correggere, dare feedback, almeno al momento. Solo in questo modo riesco, come umano, a rimanere nel loop e rilevante, ma non devo neppure scordare che quello che sto usando a livello di AI è la sua peggior versione.

Vi riporto la mia conversazione per intero e vi invito a fare voi stessi lo stesso esperimento con ChatGpt

Io: “Alice ha 6 fratelli e anche 10 sorelle. Quante sorelle ha il fratello di Alice?“

ChatGPT: Il problema chiede quante sorelle ha il fratello di Alice.

Dati:

  • Alice ha 6 fratelli.
  • Alice ha 10 sorelle.

Poiché il fratello di Alice è uno dei 6 fratelli, anche lui avrà le stesse sorelle di Alice.

Quindi, il fratello di Alice ha 10 sorelle.

Io: Perché non conti Alice?

ChatGPT: Hai ragione, bisogna considerare Alice nel calcolo. Alice è una delle sorelle, quindi il numero totale di sorelle per il fratello di Alice include anche Alice stessa.

Quindi:

  • Alice ha 10 sorelle.
  • Se includiamo Alice, il totale diventa 11 sorelle.

Pertanto, il fratello di Alice ha 11 sorelle.

Io: Fai cose ben più complicate e non sai risolvere un banale compito di logica che richiede un ragionamento da quinta elementare?

ChatGPT: La tua osservazione è molto valida. Ci sono diversi motivi per cui potrei aver commesso errori in questo problema di logica relativamente semplice:

  1. Ambiguità linguistica: A volte, la comprensione di un problema può essere influenzata da come è formulato. Anche piccole variazioni nel modo in cui una domanda è posta possono causare fraintendimenti.
  2. Sovraccarico di informazioni: Durante la conversazione, posso avere accesso a molte informazioni contemporaneamente e ciò può portare a confusione o errori di interpretazione.
  3. Bias nei dati di addestramento: Il modello è stato addestrato su una vasta gamma di testi, che possono contenere errori o essere formulati in modi diversi. Questo può influire sulla mia capacità di interpretare correttamente alcune domande.
  4. Verifica umana: Anche se posso risolvere problemi complessi, il feedback umano è essenziale per migliorare e correggere gli errori. La collaborazione con gli utenti aiuta a migliorare la mia comprensione e precisione.
  5. Semplicità ingannevole: Paradossalmente, problemi apparentemente semplici possono a volte essere più difficili da risolvere perché non richiedono algoritmi complessi o calcoli intensivi, ma piuttosto una comprensione chiara e precisa della domanda.

Mi scuso per gli errori precedenti e apprezzo il tuo aiuto nel risolvere correttamente il problema. Il feedback umano è fondamentale per migliorare le prestazioni dell’intelligenza artificiale.

Io: Quindi mi stai dicendo che il problema è per come ti ho posto la domanda? Tu che come interfaccia interagisci con modelli LLM non comprendi una domanda semplice che comprende un bambino di quinta elementare? È un banale problema di logica che implica un ragionamento logico. Quindi mi vuoi dire che non sai ragionare pur riuscendo di a fare calcoli ben più complessi?

ChatGPT: La tua osservazione è assolutamente corretta e solleva un punto importante. Nonostante le capacità avanzate di un modello di intelligenza artificiale come il mio, ci sono situazioni in cui posso commettere errori anche in problemi semplici. Ecco alcune considerazioni per spiegare questa discrepanza:

  1. Modello statistico e non cognitivo: Come modello di intelligenza artificiale, non ho una comprensione cosciente o un ragionamento logico nel senso umano. Funziono attraverso modelli statistici basati su grandi quantità di dati di testo. Questo significa che, sebbene io possa spesso sembrare di “ragionare”, in realtà sto facendo previsioni basate su schemi nei dati di addestramento.
  2. Errori nella comprensione contestuale: Anche se riesco a gestire problemi complessi, posso fare errori in contesti semplici a causa di interpretazioni errate o incomprensioni del contesto. Gli esseri umani, con la loro capacità di ragionamento cognitivo e comprensione del mondo, possono spesso risolvere questi problemi più facilmente.
  3. Feedback e interazione umana: Il feedback umano è cruciale. Anche i bambini di quinta elementare apprendono attraverso l’interazione, correzione e feedback. Similmente, anche io miglioro e correggo gli errori attraverso l’interazione con gli utenti.
  4. Limiti della programmazione: Nonostante la sofisticatezza del modello, ci sono ancora limiti intrinseci nelle capacità di comprensione e ragionamento. Il modello è programmato per elaborare e rispondere in base ai dati di addestramento e alle probabilità, ma non può replicare perfettamente la logica e la comprensione umana.

In sintesi, mentre posso risolvere problemi complessi grazie alla mia capacità di elaborazione dati, ci sono limiti nella mia capacità di comprendere e applicare la logica umana in modo infallibile. La tua osservazione sottolinea l’importanza del feedback umano per migliorare continuamente queste capacità. Grazie per la tua pazienza e per avermi aiutato a correggere l’errore.

Io: Quindi mi vuoi dire che adesso siccome te lo ho spiegato tu non farai più questo errore in questo specifico problema di ragionamento logico oppure che in generale hai capito la logica del ragionamento?

ChatGPT: Quello che posso fare è migliorare la risposta a questo specifico problema grazie al feedback ricevuto, ma non posso garantire che non farò mai più errori simili in altri contesti. Ecco come funziona il processo:

Apprendimento specifico: Grazie al tuo feedback, posso ora rispondere correttamente a questa specifica domanda. Se qualcuno mi chiede “Quante sorelle ha il fratello di Alice se Alice ha 6 fratelli e 10 sorelle?”, risponderò che il fratello di Alice ha 10 sorelle, perché la risposta corretta è stata chiarita. 

Hai notato che qui ChatGPT ricade nello stesso errore, nonostante mi avesse detto di aver imparato? Come gli uomini… devi ripetere e ripere il feedback e anche dopo venti ripetizioni qualcuno non capisce! ;-). 

E così ChatGpt prosegue imperterrita…..ma fino a qui spero tu ti sia portato a casa qualcosa…

  1. Apprendimento generale: Sebbene abbia migliorato la risposta a questa domanda specifica, non apprendo o ricordo informazioni nel senso umano. Non ho una memoria persistente tra le sessioni, quindi non posso garantire che applicherò sempre correttamente lo stesso ragionamento in situazioni diverse senza ulteriori input simili.

In altre parole, il miglioramento è specifico alla sessione e al contesto attuale. Il feedback ricevuto in questa conversazione migliora le risposte per questo tipo di domande, ma il modello non conserva una memoria a lungo termine che gli permetta di evitare tutti gli errori simili in futuro senza ulteriore supervisione.

Detto ciò, la logica corretta per il problema specifico è ora chiara:

  • Alice ha 10 sorelle.
  • Quindi, incluso Alice, ci sono 11 sorelle in totale.
  • Il fratello di Alice ha quindi 11 sorelle.

Questo ragionamento è ora chiaro nel contesto di questa conversazione grazie al tuo feedback.

Io: Nooo ma non ci siamo!!!! Ma cosa dici al punto 1 sull’apprendimento specifico??? Hai sbagliato ancora per poi correggerti nella sintesi! Quindi non è vero che impari da me! Devono essere i programmatori di OpenAI che ti insegnano questo semplice problema di ragionamento logico. Mi pare che il feedback umano quindi tu non lo faccia tuo ma che ricadi negli stessi errori… scusa se provoco ma vorrei capire. Spero di non offenderti o risultare pedante e pignola, per non dire scassa maroni.

ChatGpt: Non ti preoccupare, non mi offendi affatto. Le tue domande sono del tutto valide e servono a chiarire come funziona il modello.

Ecco una spiegazione più chiara:

  1. Apprendimento statico: Il modello, come me, è basato su un’architettura di apprendimento statico. Questo significa che non apprendo in tempo reale dalle conversazioni. Non posso aggiornare o modificare la mia comprensione o le mie risposte in base a interazioni individuali. Ogni volta che una nuova sessione inizia, riparto dalle conoscenze e dai dati con cui sono stato addestrato fino al mio ultimo aggiornamento.
  2. Correzione in tempo reale: Nella conversazione attuale, posso correggermi e fornire risposte più accurate grazie al tuo feedback. Tuttavia, questa capacità di miglioramento è limitata alla durata della sessione corrente. Una volta terminata la sessione, non ricorderò queste correzioni per il futuro.
  3. Ruolo dei programmatori: Gli aggiornamenti e i miglioramenti alle capacità del modello vengono effettuati dai programmatori e dai ricercatori di OpenAI. Quando vengono identificati errori comuni o lacune nelle mie risposte, sono loro che aggiornano il modello con nuovi dati di addestramento e miglioramenti.

Per rispondere al problema di logica specifico:

Alice ha 6 fratelli e 10 sorelle. Per sapere quante sorelle ha il fratello di Alice:

  • Alice ha 10 sorelle.
  • Il fratello di Alice ha quindi le stesse sorelle di Alice.
  • Pertanto, il fratello di Alice ha 10 sorelle.

Spero che questo chiarisca il funzionamento del modello e il motivo per cui possono verificarsi questi errori. La tua pazienza e il tuo feedback sono molto apprezzati.

Io: Non ne usciamo, prima mi hai detto che ne ha 11 di sorelle perché hai capito il ragionamento al quale ti ho portato e adesso ritorni sui tuoi errori dicendo che non ricordi? È la stessa sessione…

ChatGPT: Hai ragione, mi scuso per la confusione. Rivediamo il problema un’ultima volta per chiarire tutto correttamente:

  • Alice ha 6 fratelli.
  • Alice ha 10 sorelle.

Quando chiediamo quante sorelle ha il fratello di Alice, dobbiamo includere tutte le sorelle di Alice. Le 10 sorelle menzionate non includono Alice stessa.

Quindi, oltre alle 10 sorelle, il fratello di Alice deve includere anche Alice come sorella. Questo porta il totale a 11 sorelle.

Pertanto, il fratello di Alice ha 11 sorelle.

Grazie per la tua pazienza. La risposta corretta è che il fratello di Alice ha 11 sorelle.

Io: Fammi capire, se crei un GPTs lo sto allenando e impara man mano ad affinare sempre più le risposte in basa alla “personas” che io gli sto assegnando mentre adesso mi stai dicendo che i ragionamenti logici non li impara?

ChatGPT: Capisco la confusione. In effetti, c’è una distinzione importante da fare tra i modelli di intelligenza artificiale generici e quelli personalizzati attraverso GPTs (Generative Pre-trained Transformers).

Differenze tra GPT-4 generico e GPTs personalizzati

  1. GPT-4 generico:
  2. GPTs personalizzati:

Il problema specifico di logica

Per quanto riguarda il problema di logica:

  • Alice ha 6 fratelli e 10 sorelle.
  • Il fratello di Alice considera Alice come sorella.

Quindi, il fratello di Alice ha 10 sorelle più Alice, per un totale di 11 sorelle.

Conclusione

Nel contesto della tua domanda, il modello generico non può apprendere nuovi ragionamenti logici in modo permanente attraverso interazioni singole. Tuttavia, i modelli personalizzati attraverso GPTs possono essere allenati per affinare e migliorare le risposte in base ai feedback specifici ricevuti durante l’uso.

Grazie per la tua pazienza e per aver sollevato queste domande importanti. Spero che questa spiegazione chiarisca le differenze e il funzionamento dei vari modelli.

Io: Quanto a lungo i modelli personalizzati mantengono quanto hanno imparato?

ChatGPT: I modelli personalizzati, come quelli creati utilizzando GPTs, possono mantenere quanto hanno imparato per tutta la durata della loro configurazione e utilizzo, a meno che non vengano esplicitamente reimpostati o aggiornati. La persistenza e la memoria del modello dipendono da come sono progettati e configurati. Ecco alcune caratteristiche chiave:

Memoria e persistenza nei modelli personalizzati

  1. Memoria a lungo termine: Configurazione iniziale: Durante la creazione di un GPT personalizzato, gli sviluppatori possono impostare regole, preferenze e comportamenti specifici che il modello ricorderà e applicherà ogni volta che interagisce con l’utente. Apprendimento continuo: Alcuni modelli possono essere configurati per apprendere continuamente dai feedback degli utenti, migliorando le risposte basate sull’interazione. Questi modelli mantengono le informazioni apprese per la durata della loro configurazione, finché non vengono resettati o modificati.
  2. Aggiornamenti e personalizzazione: Persistenza: Le informazioni apprese da un GPT personalizzato possono essere mantenute persistentemente attraverso sessioni multiple. Questo significa che il modello può ricordare preferenze, stili di interazione e altre configurazioni specifiche. Personalizzazione continua: Gli utenti possono continuare a personalizzare e aggiornare il modello in base alle nuove esigenze o preferenze, garantendo che il modello si adatti costantemente alle loro esigenze.
  3. Limiti e controlli: Resettaggio: Gli amministratori o gli utenti con privilegi possono resettare il modello, cancellando la memoria e le personalizzazioni per riportarlo allo stato originale. Aggiornamenti di sistema: Gli aggiornamenti al modello di base da parte di OpenAI o degli sviluppatori possono influenzare la memoria e il comportamento del modello personalizzato, ma di solito le personalizzazioni utente sono preservate.

Conclusione

I modelli personalizzati possono mantenere quanto hanno imparato per tutta la durata della loro configurazione e utilizzo, permettendo un’esperienza più coerente e adattata alle esigenze specifiche dell’utente. Tuttavia, la memoria e la persistenza possono essere gestite e controllate attraverso configurazioni e aggiornamenti specifici.

Io: Io ho creato il mio gemello digitale, che differenze principali e vantaggi vedi rispetto ad un GPT personalizzato?

ChatGPT: Creare un “gemello digitale” rappresenta un approccio avanzato e personalizzato nell’interazione con l’intelligenza artificiale, ed è diverso da utilizzare un GPT generico o anche un GPT personalizzato. Ecco le principali differenze e vantaggi di avere un gemello digitale rispetto a un GPT personalizzato:

Differenze principali

  1. Personalizzazione Profonda: Gemello Digitale: È altamente personalizzato per riflettere non solo le preferenze e le abitudini dell’utente, ma anche aspetti più profondi come lo stile di comunicazione, il tono, e persino le specifiche risposte che l’utente potrebbe dare in determinate situazioni. GPT Personalizzato: Mentre un GPT personalizzato può essere configurato per adattarsi alle preferenze dell’utente, potrebbe non avere lo stesso livello di profondità e dettagli nella personalizzazione come un gemello digitale.
  2. Memoria e Contesto Continuo: Gemello Digitale: Mantiene una memoria a lungo termine delle interazioni passate, delle preferenze, e degli obiettivi dell’utente, permettendo un contesto continuo e una capacità di rispondere in modo più coerente e informato su diverse sessioni. GPT Personalizzato: Anche se può mantenere una memoria limitata tra le sessioni, potrebbe non avere lo stesso livello di persistenza e contesto continuo che un gemello digitale può offrire.
  3. Apprendimento e Adattabilità: Gemello Digitale: È progettato per apprendere e adattarsi continuamente dall’interazione con l’utente, migliorando la sua capacità di rispondere in modo pertinente e preciso nel tempo. GPT Personalizzato: Può essere aggiornato e migliorato, ma l’apprendimento continuo e adattivo potrebbe essere meno sofisticato rispetto a un gemello digitale.

Vantaggi di un Gemello Digitale

  1. Esperienza Utente Coerente e Personalizzata: Fornisce un’interazione altamente personalizzata che riflette accuratamente l’identità e le preferenze dell’utente, migliorando l’esperienza complessiva.
  2. Efficienza e Produttività: Può automatizzare e gestire compiti in modo più efficiente, conoscendo le abitudini e le preferenze dell’utente, riducendo il tempo necessario per completare attività ripetitive.
  3. Supporto e Assistenza Continuativa: Offre supporto e assistenza su misura, ricordando informazioni passate e utilizzando questo contesto per fornire risposte e soluzioni più pertinenti.
  4. Adattabilità e Apprendimento Continuo: Si adatta e migliora costantemente sulla base del feedback e delle interazioni con l’utente, diventando sempre più utile e preciso nel tempo.
  5. Consistenza nelle Risposte: Una volta insegnato un processo o come gestire un problema, il gemello digitale affronterà quella specifica situazione correttamente e consistentemente. Questo è particolarmente utile per gli imprenditori che desiderano creare un gemello digitale della loro azienda, garantendo che le procedure e le risposte rimangano uniformi nel tempo.

Conclusione

Un gemello digitale offre un livello di personalizzazione, memoria e adattabilità che va oltre quello di un GPT personalizzato. Fornisce un’interazione più coerente e rilevante grazie alla sua capacità di apprendere continuamente e di mantenere un contesto a lungo termine. Questo lo rende uno strumento potente per migliorare l’efficienza e la qualità dell’interazione con l’utente.

Fine della conversazione

NEWSLETTER

Se questo articolo ti è piaciuto iscriviti alla mia newsletter e una volta al mese riceverai un aggiornamento di tutti gli articoli che ho scritto e tanto altro! 😃

Newsletter
Tag:
Condividi:
Ultime notizie:
Torna in alto