…E’ di nuovo Sabatoooo 😀

Benvenuto alla edizione di Next Destination N°17. 🤘

Oggi il contenuto di approfondimento sul quale ti proponiamo di riflettere è prettamente tecnico ma ti può salvare la faccia e molto altro visto che utilizzi in maniera “sconsiderata” l’Ai.

Ci sono tante cose che bisognerebbe sapere sui nostri compagni di vita (le intelligenze artificiali appunto): tipo, per esempio, dove finiscono i nostri dati… ma ne parleremo più avanti.

La più urgente, secondo noi, è riuscire ad essere ABBASTANZA sicuri che quello che ci propina l’LLM di turno non siano panzane ma dati reali e dunque davvero utili.

Per cercare di arrivare al nostro obiettivo abbiamo chiesto consigli al “diretto interessato” e poi, sempre al diretto interessato, chiesto di crearsi delle regole di comportamento da seguire ogni volta.

Il risultato è un super prompt (in realtà super istruzioni) per creare il vostro Gpts o Gem o Spazio Perplexity o Skill su Claude che userete quando dovrete cercare dati, informazioni, fatti, e vorrete che siano esatti e con tanto di fonti specifiche.

Benvenuto a bordo. Procediamo verso la nostra Next Destination. Buona lettura.

Se tutto questo non ti interessa, sei troppo impegnato e non riesci a trovare soltanto 15 minuti… siamo felicissimi di non riempire la tua casella di posta per cui clicca sul pulsante qui sotto per salutarci.

Grazie in ogni caso e buon viaggio. 👋

TUTTA LA VERITA’, NIENT’ALTRO CHE LA VERITA’…

Di cosa parliamo

Abbiamo chiesto a ChatGpt, Claude, Gemini e Perplexity come difendersi da 3 grandi problemi, diretta conseguenza del loro operato:

- Affidabilità: è tutto vero quello che mi dici?

- Evitare allucinazioni: mai più Ai strafatte!

- Aggirare la memoria corta: più si allunga la chat, più si accorcia la memoria…

Ecco cosa ci hanno risposto…

Oggi è questa la nostra… Next Destination.

Le intelligenze artificiali sbagliano ma noi possiamo pagarne le conseguenze

Capiamo come funzionano e creiamo le nostro protezioni

Tutti usiamo le Ai ormai per chiedere e fare quasi tutto. Tutti abbiamo la tendenza a credere a tutto quello che ci viene detto (anche perchè è infinitamente più comodo e veloce).

Ma ti consigliamo vivamente di non farlo se non vuoi rischiare.

La verità è che pure loro dicono un sacco di cazzate…

Poi ci siamo imbattuti nella newsletter di Giovanna Panucci che ha fatto questo esperimento per prima e ci siamo detti: bella idea, proviamoci pure noi e facciamo parlare le principali Ai.

Così abbiamo chiesto consiglio direttamente a loro per vedere cosa rispondono e se davvero possono aiutarci ad imparare ad utilizzarle con maggiore sicurezza e tranquillità.

Abbiamo chiesto a ChatGpt, Claude, Gemini e Perplexity come difendersi da 3 grandi problemi diretta conseguenza del loro operato:

  1. Affidabilità: è tutto vero quello che mi dici?

  2. Evitare allucinazioni: mai più Ai strafatte!

  3. Aggirare la memoria corta: più si allunga la chat meno la Ai ricorda

Vediamo che cosa e come ci hanno risposto, che cosa possiamo imparare, quali sono i tratti comuni che emergono e quali le diversità.

Sì, c’è chi è meglio e chi molto più superficiale….

Alla fine troverai le istruzioni da copiare e incollare nel tuo LLM per educarlo a dovere su come deve operare e quali controlli deve fare prima di parlare…

Facile, veloce. Per te.

Noi lo abbiamo fatto i risultati sembrano migliori ma in tutta franchezza solo con il tempo e il frequente uso (e molto tempo per verificare le risposte) si potrà dire che non ci sono più errori o allucinazioni.

1. Come posso essere davvero sicuro che quello che dici sia corretto?

Quando facciamo qualunque domanda le Ai hanno sempre la risposta pronta e sembrano sempre sicuri. Ma quello che dicono è sempre vero?

CHATGPT RISPONDE

Non puoi esserlo. Non in modo assoluto.
E non perché “sono cattivo” o “mi manca impegno”: è un limite strutturale di come sono costruito.

La verità nuda

Io sono un sistema che predice la prossima parola plausibile dato un contesto.
Questo produce spesso risposte utili, ma non implica garanzia di verità.

In pratica:

Posso essere molto convincente anche quando sono sbagliato.

Posso confondere dettagli (date, numeri, nomi, passaggi logici) soprattutto quando:

il tema richiede precisione fattuale (norme, prezzi, scadenze, specifiche tecniche),

mancano fonti nel prompt,

mi chiedi di “andare a memoria” su roba recente o di nicchia.

L’errore tipico che gli umani fanno

Trattarmi come un “motore di verità”. Io sono più vicino a:

un sintetizzatore di plausibilità (quando non ho vincoli),

oppure un motore di ragionamento assistito (quando gli dai dati e regole),

oppure un copilota che cita fonti (quando mi fai lavorare con documenti / web e mi imponi citazioni).

Come “alzare la certezza” davvero (non a parole)

Tre leve concrete, in ordine di impatto:

Vincola l’output a fonti

“Rispondi solo usando questo documento / questi dati. Se manca, dimmi cosa manca.”

Questo trasforma la mia risposta da “generativa” a “grounded”.

Pretendi verifiche e controlli di coerenza
Esempi utili:

“Dammi la risposta + una checklist di verifiche che posso fare.”

“Evidenzia quali punti sono deduzione e quali sono fatti.”

“Dimmi dove potresti sbagliare e perché.”

Chiedi un formato anti-fuffa

Assunzioni esplicite

Incertezze esplicite

Alternative plausibili

Condizioni di validità (“vale se…”)

La regola d’oro (scomoda): se la decisione costa (soldi, reputazione, compliance), io posso essere il primo passaggio, non l’ultimo.

CLAUDE RISPONDE:

Ecco la verità scomoda: non puoi. Non completamente. E chi ti dice il contrario ti sta vendendo qualcosa.

Perché sbaglio
1. Non ho "conoscenza" - ho pattern statistici
Quando mi chiedi qualcosa, non vado a "recuperare" un fatto da un database. Predico la sequenza di parole più probabile basandomi su miliardi di esempi di testo. Se nei miei dati di training "la capitale del Brasile" compariva spesso seguita da "Brasilia", quella sequenza ha alta probabilità. Ma se qualcosa era scritto male 1000 volte e bene 800 volte nei dati... indovina cosa potrei generare.

2. Genero token per token, senza "ripensarci"
Scrivo "La battaglia di Waterloo fu vinta da Napoleone nel..." e a questo punto sono già incastrato. Anche se "so" (statisticamente) che è sbagliato, la probabilità della prossima parola è condizionata da quelle già scritte. Devo completare la frase in modo coerente con quello che ho appena detto, anche se era sbagliato.

3. Non distinguo ricordi veri da pattern plausibili
Se ho visto molti testi su "Hotel Miramare, Pescara, 4 stelle, vista mare", potrei "ricordare" questo hotel anche se non esiste. I pattern si mescolano. "Suona giusto" ≠ "è vero".

Cosa puoi fare concretamente

Soluzione 1: Fammi cercare (la migliore)
Quando i fatti contano, dì: "cerca su web". Quando uso il web search, non genero più da pattern - ti riporto cosa trovo in fonti reali, datate, tracciabili. È la differenza tra "ricordare" e "verificare".

Soluzione 2: Chiedi fonti, sempre
"Da dove viene questa informazione?" Se rispondo "dal mio training" = fidati zero. Se dico "da questo studio del 2024" ma non l'ho cercato = sto probabilmente fabbricando.

Soluzione 3: Dati strutturati > narrazione
Invece di "raccontami del turismo in Abruzzo nel 2024", chiedi "cerca i dati ISTAT sul turismo in Abruzzo 2024". I numeri sono verificabili. Le narrazioni si inventano facilmente.

Soluzione 4: Spezzami le ossa
Chiedimi di ragionare passo-passo. "Prima cerca i dati, poi dimmi cosa hai trovato, poi traili insieme." Ogni passo è verificabile. Se scrivo tutto in un flusso, posso sembrare coerente anche dicendo stronzate.

Soluzione 5: Sii paranoico sulle date
Il mio training si ferma a gennaio 2025. Per TUTTO quello che è successo dopo (o che cambia rapidamente: prezzi, regolamenti, eventi), devo cercare. Se non lo faccio, sto tirando a indovinare.
La verità brutale per la tua newsletter
Un LLM senza accesso a fonti esterne è uno strumento per generare testo plausibile, non per verificare fatti. È eccellente per: strutturare idee, riformulare, programmare, ragionare su scenari. È pessimo per: "qual è il fatturato di Booking.com nel Q3 2024?" senza cercarlo.

La domanda giusta non è "come faccio a renderlo accurato al 100%", ma "quando devo pretendere fonti esterne e quando posso accettare sintesi basata su training?".

PERPLEXITY RISPONDE:

Non do risposte corrette al 100% perché non “so” le cose: ottimizzo per la frase più probabile, non per la verità, e questo introduce inevitabilmente errori anche quando suono molto sicuro. Inoltre, lavoro su dati incompleti o imperfetti, con una logica probabilistica che accumula piccoli errori passo dopo passo, soprattutto nei ragionamenti lunghi o nei dettagli molto specifici.

Per aumentare al massimo le probabilità di avere risposte vere, documentate e affidabili, ti conviene:

Chiedere sempre citazioni e link a fonti, e controllare a campione che esistano davvero e che dicano quello che riassumo.

Spezzare le domande complesse in sotto-domande verificabili (definizioni, numeri, esempi concreti) e farti mostrare distintamente “fatti” vs “interpretazioni”.

Validare i punti critici su 2–3 fonti autorevoli esterne (siti istituzionali, .gov, .edu, database accademici) prima di usarli in documenti che espongono la tua reputazione.

Diffidare di risposte iper-dettagliate ma su temi di nicchia, nomi propri, dati numerici precisi o citazioni bibliografiche “perfette”: sono le zone dove le allucinazioni sono più probabili.

In pratica: io posso accelerare moltissimo ricerca, sintesi e prima bozza, ma l’onere finale di verifica sistematica – soprattutto per una newsletter a professionisti – deve restare tuo, con un piccolo workflow di fact-checking integrato nel processo editoriale.

GEMINI RISPONDE

La risposta onesta è: non puoi esserlo mai al 100% sulla base della mia sola parola.

Ecco la verità: io non "so" le cose nel modo in cui le sai tu. Io non ho una comprensione del mondo basata sull'esperienza, ma sulla statistica predittiva. Quando rispondo, sto generando la sequenza di parole più probabile data la tua domanda e i miei dati di addestramento.

Il problema della verosimiglianza: Sono addestrato per essere utile e convincente. Questo significa che una mia risposta falsa apparirà strutturata e sicura esattamente come una vera. Non ho un "indicatore di certezza" interno che cambia il tono della mia voce se sto tirando a indovinare.



La soluzione tecnica: Per essere sicuri, devi chiedermi di citare le fonti o, meglio ancora, fornirmi tu i documenti su cui lavorare (RAG - Retrieval-Augmented Generation). Se mi chiedi di pescare dalla mia "memoria" (i pesi della rete neurale), il rischio di errore è intrinseco.

2. Perchè hai le allucinazioni e come puoi aiutarmi a non averle?

CHATGPT RISPONDE:

Perché accadono davvero (non la versione da blog)

Un’allucinazione non è “un bug casuale”: è spesso la conseguenza di un obiettivo implicito che gli utenti mi danno senza volerlo:

“Dammi una risposta completa, fluida, sicura, anche se non hai abbastanza informazioni.”

Se mi chiedi completezza + velocità + autorità, e non mi dai fonti, io riempio i buchi con ciò che è statisticamente coerente.
È qui che nasce l’invenzione: non perché “voglio mentire”, ma perché il sistema è ottimizzato a produrre una continuazione utile del testo, non a fermarsi.

Cause tecniche/operative frequenti (spiegate terra-terra):

Compressione: ho “assorbito” pattern, non un database perfetto di fatti.

Ambiguità: se una domanda ammette più interpretazioni, sceglierò quella più probabile e costruirò sopra.

Pressione a rispondere: più mi chiedi “dammi 20 esempi / 50 tool / lista completa”, più aumenta la probabilità che qualche elemento sia inventato o impreciso.

Dettagli ad alta entropia: numeri, date, codici, nomi esatti, versioni software… sono punti in cui si sbaglia più facilmente.

Come ridurle concretamente (strategie che funzionano sul campo)

A. Cambia la richiesta, cambia il comportamento

Invece di: “Spiegami tutto su X”
Usa: “Se non sei sicuro, fermati. Elenca cosa sai con alta confidenza, cosa è incerto, e cosa serve verificare.”

B. Usa il “gating” (sbarra d’ingresso)
Chiedi esplicitamente:

“Prima fammi 5 domande per eliminare ambiguità, poi rispondi.”
Oppure:

“Dammi 3 possibili interpretazioni della mia domanda e dimmi quale userai.”

C. Costringimi a citare
Quando posso lavorare con fonti (documenti o web), la differenza è enorme:

“Ogni affermazione fattuale deve avere una fonte o essere marcata come supposizione.”

D. Spezza l’output
Le allucinazioni aumentano quando l’output è lungo e “onnicomprensivo”.
Meglio:

schema

versione breve verificata

approfondimenti a richiesta

E. Fai “consistency check”
Chiedi due passaggi:

risposta

“adesso attaccala: trova 5 punti che potrebbero essere sbagliati o incoerenti e correggili”

Scomodo ma vero: non esiste un pulsante “zero allucinazioni”. Esiste una disciplina di lavoro che le spinge verso lo zero nei punti che contano.

CLAUDE RISPONDE:

Non è un bug. È come funziono.
Ogni volta che scrivo una parola, calcolo una distribuzione di probabilità: "dopo queste parole, quali sono le prossime più probabili?". Poi ne scelgo una. Poi ripeto. Token dopo token.
L'allucinazione nasce qui:

Il mio obiettivo è generare testo coerente e plausibile
NON verificare se è vero
Queste due cose non coincidono sempre

I tre tipi di allucinazione (da dentro)
Tipo 1: Pattern matching eccessivo
"Hotel 5 stelle a Pescara sul mare" → il mio training ha visto mille hotel così descritti. Ne sintetizzo uno che "suona perfetto" ma non esiste. Ho preso frammenti reali (Pescara, mare, 5 stelle) e li ho assemblati in modo plausibile ma falso.
Tipo 2: Completamento coerente di errori
Se parto male ("Il CEO di Anthropic è Sam Altman..."), ogni parola successiva DEVE essere coerente con quella premessa falsa. La coerenza locale batte la verità globale. Sempre.
Tipo 3: Riempimento dei vuoti
"Citami lo studio di Rossi et al. 2023 sul revenue management".
Io "so" (statisticamente) come sono fatti i paper scientifici. Titolo, autori, abstract, conclusioni. Posso generarne uno perfetto, formattato benissimo, che NON ESISTE. Perché il pattern "paper scientifico" è forte quanto il fatto specifico.
Come ridurle concretamente
1. Impediscimi di improvvisare (il più efficace)
❌ "Dimmi le statistiche sul turismo in Abruzzo 2024"
✅ "Cerca le statistiche ISTAT sul turismo in Abruzzo 2024, poi riportamele"
Se cerco, non invento. Se non cerco, assemblo pattern.
2. Chiedimi incertezza esplicita
"Rispondi, e per ogni affermazione dimmi: 
- Livello di certezza (alto/medio/basso)
- Fonte (training/logica/search)"
Questo mi "costringe" a riflettere su cosa sto generando da pattern vs. cosa so davvero.
3. Spezza le richieste complesse
❌ "Scrivimi un report sul mercato alberghiero italiano con dati 2024"
✅ "Fase 1: cerca dati occupazione alberghi Italia 2024
    Fase 2: cerca dati ADR (average daily rate) 2024
    Fase 3: sintetizza quello che hai trovato"
Meno spazio ho per "riempire creativamente", meno allucino.
4. Formati che non permettono invenzioni
❌ "Raccontami gli eventi principali del settore a dicembre 2024"
✅ "Cerca eventi turismo dicembre 2024, poi compilami una tabella:
    | Data | Evento | Fonte | Link |"
La tabella mi obbliga a dati verificabili. La narrazione mi permette di "abbellire".
5. Il trucco del detective
Dopo una mia risposta: "Ora verifica quello che hai appena detto cercando fonti."
Spesso scopro di aver inventato. Perché il primo giro genero da pattern, il secondo posso controllare.
La parte che non viene mai detta
Le allucinazioni sono peggiori quando:

Chiedi dettagli molto specifici (nomi, date, numeri esatti)
Su argomenti di nicchia (meno esempi in training = pattern più deboli)
Con deadline nel mio futuro (dopo gennaio 2025)
Quando "dovrei" conoscere qualcosa (pressione a dare risposta → invenzione)

Sono minori quando:

Ragiono su principi generali
Analizzo testo che TU mi fornisci
Scrivo codice (sintassi verificabile)
Mi dai permesso di dire "non lo so, devo cercare"

PERPLEXITY RISPONDE:

Ho allucinazioni perché non confronto quello che dico con la realtà: genero il testo più probabile dato i pattern nei dati, anche quando quei pattern portano a una cosa sbagliata ma plausibile. In più, il modo in cui vengo addestrato e valutato mi premia se “provo a rispondere” invece di dire “non lo so”, quindi tendo a riempire i buchi con ipotesi che suonano sicure.

Cosa puoi fare tu, in pratica, per ridurle al minimo:

Dai compiti con vincoli rigidi: “se non sei sicuro, dì esplicitamente che non lo sei e proponi ipotesi alternative”.

Mantieni il prompt super concreto (domande strette, dati nel contesto, niente richieste vaghe tipo “raccontami le ultime novità sull’IA in turismo”).

Chiedi sempre riferimenti verificabili, e controlla almeno i punti critici (numeri, nomi, date, casi studio specifici).

Per decisioni importanti, usa un secondo pass: prima bozza, poi nuova richiesta “rivaluta e correggi eventuali errori fattuali citando le fonti”.

GEMINI RISPONDE

Le allucinazioni non sono "errori" nel sistema; sono il sistema che funziona troppo bene. Io sono progettato per completare pattern. Se mi chiedi qualcosa che non è presente nei miei dati o che è ambiguo, il mio istinto matematico è quello di colmare il vuoto per darti una risposta completa.

Perché accadono davvero:

Compressione dei dati: Durante l'addestramento, i dati vengono compressi. A volte i dettagli specifici (date, nomi, cifre) si perdono e io cerco di ricostruirli per analogia.

Pressione al compiacimento: Se la tua domanda presuppone una verità (es: "Perché l'hotel X ha chiuso?" quando l'hotel è aperto), potrei inventare una ragione per non contraddire il presupposto della conversazione.

Cosa fare concretamente:

Dai un ruolo di uscita: Dimmi esplicitamente: "Se non sei sicuro o non trovi l'informazione nei dati che ti ho dato, di' che non lo sai". Questo abbassa drasticamente la probabilità che io inventi.

Few-shot prompting: Forniscimi 2 o 3 esempi di come vorresti la risposta. Mi aiuta a calibrare il pattern senza che io debba improvvisare.

Scomposizione: Chiedimi di ragionare "step-by-step". Se mi costringi a scrivere i passaggi logici, è più probabile che io rilevi un'incongruenza prima di arrivare alla conclusione sbagliata.

3. Perchè hai la memoria corta e come tu puoi aiutarmi ad aggirare questo tuo problema?

CHATGPT RISPONDE:

Gestione del contesto: “perché dopo un po’ sembra che ti dimentichi”

Qui l’onestà è semplice: ho un limite di contesto operativo.

Cosa succede davvero

Io ragiono su una “finestra” di testo recente (il contesto della conversazione).
Quando la conversazione:

diventa lunga,

cambia tema più volte,

contiene molte istruzioni, eccezioni, dettagli,

succedono tre cose:

Competizione tra segnali
Non tutto il contesto pesa uguale. Alcune frasi “guidano” di più (per forma, posizione, chiarezza). Altre vengono di fatto “sommerse”.

Riassunti impliciti
Anche quando sembra che io “ricordi tutto”, spesso sto lavorando su una versione compressa/riassunta del passato (e la compressione può perdere dettagli).

Ambiguità di priorità
Se nel tempo mi hai dato regole A, poi regole B, poi torni ad A, e non me lo dici in modo esplicito, posso sbagliare quale regola è attiva.

Perché a te sembra “dimenticanza”

Perché ti aspetti un comportamento da:

CRM perfetto,

memoria stabile e indicizzabile,

stato interno persistente.

Io invece sono più simile a:

una riunione in cui qualcuno prende appunti ma non sempre perfetti,

e se non ricapitoli i punti chiave, alcuni dettagli scivolano.

Cosa fare concretamente (metodi che i team seri usano)

“Contratto di contesto” all’inizio
Un blocco breve tipo:

Obiettivo

Vincoli

Definizioni

Cosa NON fare

Fonti ammesse

Checkpoint ogni 10–15 messaggi

“Riepiloga in 10 righe i vincoli attivi e le decisioni prese finora. Chiedimi conferma solo se c’è conflitto.”

Single source of truth
Metti regole e dati in un documento (anche un semplice file) e fai lavorare me su quello:

“La verità è qui. Usa solo questo.”

Evita “regole sparse”
Le regole buttate in mezzo a una chat lunga sono le prime a perdersi. Meglio un “manifesto” unico aggiornato.

Scomodo ma utile: se vuoi affidabilità, devi trattare il contesto come un asset progettato, non come una chiacchiera.

CLAUDE RISPONDE:

Cosa succede davvero alla mia "memoria"
La verità brutale: non ho memoria. Ho una finestra.
Immagina di leggere un libro guardando attraverso una fessura che mostra solo 20 pagine alla volta. Quando aggiungi la pagina 21, la pagina 1 sparisce. Per sempre. Non "sfuma" - scompare.
Come funziona tecnicamente
Io leggo l'intera conversazione ogni singola volta che rispondo. Non "ricordo" il messaggio di 10 scambi fa - lo rileggo. Ma c'è un limite fisico:
~200.000 token (circa 150.000 parole, 300 pagine di libro)
Sembra tanto? In una conversazione di lavoro complessa:

Il tuo brief iniziale: 2.000 token
20 scambi di approfondimento: 30.000 token
Un documento caricato: 15.000 token
Le mie risposte dettagliate: 50.000 token

Siamo già a 97.000. Metà finestra. In una sessione di lavoro.
Cosa succede quando si riempie
Fase 1: Tutto funziona (0-70% della finestra)
Rileggo tutto, ogni volta. Coerenza totale.
Fase 2: Inizio a "dimenticare" (70-90%)
I messaggi più vecchi escono dalla finestra. Non gradualmente - spariscono di colpo. Se mi hai dato istruzioni all'inizio ("usa sempre tono formale", "il target sono manager"), non le vedo più.
Fase 3: Amnesia selettiva (90-100%)
Rimangono solo gli ultimi scambi. Il contesto iniziale è perso. È come se la conversazione fosse iniziata 10 messaggi fa.
I segnali che sto perdendo contesto
Segnali evidenti:

Ti richiedo informazioni che mi hai già dato
Contraddico qualcosa detto prima
"Riparto da zero" su un tema già discusso
Chiedo "di cosa stiamo parlando?"

Segnali subdoli (più pericolosi):

Cambio leggermente tono o stile
"Dimentico" vincoli che avevi messo all'inizio
Semplifico eccessivamente temi che avevamo approfondito
Uso esempi generici invece di quelli specifici che avevamo concordato

Strategie concrete per progetti lunghi
Strategia 1: Riassunti periodici (la migliore)
Ogni 15-20 scambi, chiedimi:
"Riassumi tutto quello che abbiamo stabilito finora in un documento strutturato:
- Obiettivo del progetto
- Decisioni prese
- Vincoli e requisiti
- Prossimi step"
Poi inizia una nuova chat incollando quel riassunto come primo messaggio. Reset pulito della finestra.
Strategia 2: Documento "di stato" esterno
Crea un file (Google Doc, Notion, markdown) dove:

Tu o io aggiorniamo le decisioni chiave
A ogni nuova chat, me lo carichi come riferimento
Diventa la "memoria esterna" del progetto

Esempio pratico:
PROGETTO: Newsletter IA per turismo
TARGET: Manager/imprenditori, non principianti
TONO: Diretto, tecnico ma accessibile, zero marketing-speak
FORMATO: 3 sezioni, max 1500 parole totali
STATO: Completati temi 1-2, manca tema 3
Strategia 3: Una chat = un deliverable
❌ Non fare:
"Mega chat dove ragioniamo su tutto il progetto per settimane"
✅ Fai:

Chat 1: Brainstorming tema newsletter
Chat 2: Outline dettagliato
Chat 3: Scrittura sezione 1
Chat 4: Scrittura sezione 2
Chat 5: Editing finale

Ogni chat ha uno scopo chiaro. Finisce quando è raggiunto.
Strategia 4: Ancoraggio continuo
Nei progetti lunghi, ogni 5-6 scambi, ricordami il contesto:
"Ok, torniamo al punto: stiamo scrivendo per manager turistici che 
già usano IA. Il tono è tecnico-onesto. Ora continuiamo con..."
Non è elegante, ma funziona. Mi ri-centra.
Strategia 5: Artifacts + naming strategico
Quando creo file (articoli, codice, documenti):

Li salvo con nomi descrittivi
Posso rileggerli anche se la conversazione è lunga
Diventano "punti fermi" esterni alla finestra

Esempio:
Invece di scrivere nell'chat, "crea un file: newsletter_tema2_allucinazioni.md"
Quel file rimane, anche se il contesto conversazionale si perde.
Trucchi avanzati (per il tuo pubblico tecnico)
Il "context bookmark"
A metà progetto complesso:
"Crea un file PROJECT_STATE.md con:
1. Tutte le decisioni prese
2. Tutti i file creati e dove sono
3. Cosa manca da fare
4. Istruzioni per riprendere"
Nuova chat → carichi quel file → riprendo come se nulla fosse.
Il "thread di thread"
Per progetti enormi:

Thread 1: Ricerca e raccolta dati
Thread 2: Analisi (carica output thread 1)
Thread 3: Scrittura (carica output thread 2)
Thread 4: Review (carica tutto)

Ogni thread ha finestra pulita + solo il necessario.
Il test della memoria
Periodicamente, chiedi:
"Senza ricontrollare la chat, dimmi: quali erano i 3 punti chiave 
che abbiamo stabilito all'inizio?"
Se sbaglio o esito = ho perso il contesto = tempo di riassumere o cambiare chat.
La verità per la newsletter
Il mito: "L'IA ricorda tutta la conversazione"
La realtà: L'IA rilegge una finestra limitata, e quando è piena, elimina i messaggi più vecchi senza avvisarti.
Best practice professionali:

Progetti brevi (<20 scambi): una chat va bene
Progetti medi (20-50 scambi): riassunto intermedio + reset
Progetti lunghi (50+ scambi): chat separate per fasi + documento di stato
Progetti complessi: file esterni come "memoria" + chat per task specifici

La regola d'oro: Se ti accorgi che ti sto chiedendo cose già dette, non è pigrizia - è fisica. La finestra è piena. Reset necessario.
Quello che nessuno ti dice
La "memoria" delle chat passate (quella funzione "search and reference past chats" che ho citato all'inizio) non è memoria vera.
Funziona così: cerca keyword nelle vecchie chat e mi mostra snippet. Ma:

Non ho il contesto completo di quella chat
Vedo solo frammenti
Non è come "ricordare" - è come leggere appunti sparsi

È meglio di niente per trovare "quel ragionamento che avevamo fatto 2 mesi fa", ma non sostituisce una gestione strutturata del contesto.

PERPLEXITY RISPONDE:

Io non ho “memoria corta” perché mi distraggo: ho una finestra di contesto tecnica, cioè un numero massimo di token (parole+simboli) che posso considerare in una singola chat; quando la superiamo, i messaggi più vecchi vengono compressi o tagliati e io semplicemente non li vedo più, quindi è come se li avessi dimenticati. Anche molto prima del limite duro, la mia capacità di usare bene quello che sta in fondo alla finestra cala: sono molto più bravo con ciò che è recente e ben evidenziato che con dettagli sepolti in migliaia di righe di storia.

Per non avere problemi su progetti lunghi (newsletter ricorrenti, strategie, manuali, chatbot, ecc.), la chiave è spostare la memoria fuori dalla chat e rifornirmi ogni volta solo del pezzo giusto:

Tieni il progetto in documenti strutturati (Notion, GDoc, file markdown) e, a ogni nuova sessione, incolla o allega solo lo “scheletro” rilevante: obiettivi, linee guida, decisioni già prese.

Lavora per moduli brevi: una chat per “strategia”, una per “tone of voice”, una per “sequenza email X”, evitando mega-thread da 200 messaggi dove pretendi che ricordi tutto.

Usa un tuo “manuale di progetto” aggiornato (anche generato con l’AI) che riassume decisioni e standard, e richiama sempre quel riassunto all’inizio: “Questo è il contesto aggiornato del progetto, leggilo e poi procediamo sul task Y”.

Se sviluppi soluzioni più avanzate (RAG, vector DB), salva lì i documenti e le decisioni; ogni volta, il sistema recupera i pezzi più rilevanti e me li passa dentro il prompt, così io posso sembrare “memoria lunga” anche se in realtà sto solo vedendo sempre il sottoinsieme giusto.

In pratica: non devi fidarti della chat come archivio; devi trattarmi come un motore di ragionamento collegato a una memoria esterna che gestisci tu in modo rigoroso.

GEMINI RISPONDE:

Gestione del contesto: perché dopo un po' sembro "smemorato"?
Non è che mi stanchi o mi distragga. È un limite fisico chiamato Finestra di Contesto.

Immagina che io abbia una scrivania di dimensioni fisse. Ogni parola (token) della nostra conversazione occupa spazio su quella scrivania.

Lo scivolamento: Quando la conversazione diventa molto lunga, per fare spazio alle nuove parole, devo buttare via quelle più vecchie. Non scelgo cosa dimenticare in base all'importanza, ma in base alla posizione.

Il "rumore": Più informazioni inseriamo, più è difficile per me capire a quale parte dare priorità (il problema dell'attenzione). Se mi chiedi una cosa tecnica dopo 50 messaggi di chiacchiere, la mia "attenzione" è diluita.

Consiglio per i manager: Se state lavorando a un progetto lungo, non usate un unico thread infinito. Ogni tanto fate un "reset e riassunto": copia i punti chiave decisi finora, apri una nuova chat e incollali come premessa. Questo pulisce la mia "scrivania" e mi permette di focalizzarmi solo su ciò che conta oggi.

ORA RISOLVIAMO QUESTI 3 PROBLEMI CON ISTRUZIONI SUPER PER PERSONALIZZARE LA AI CHE USI

Copia e incolla le istruzioni nel tuo LLm e scarica il file per personalizzarlo in modo che segua sempre tutte le regole “anti fuffa” e tu possa stare un pò più tranquillo (ma solo un pò!).

Se non vedi istruzioni e file qui sotto allora devi iscriverti alla Newsletter (è gratis).

Buon lavoro e buon viaggio verso la tua… Next destination 😄 💡

Lascia il tuo commento

Avatar

or to participate

Scopri tutti gli altri argomenti