Hai ChatGPT a pagamento, hai Claude, hai Gemini. E li usi per chiedere il meteo o per farti scrivere un’email generica che inizia con “Gentile cliente, spero che questa email la trovi bene”.
Il problema non è lo strumento, è il modo in cui viene usato. Garbage in, garbage out: se si dà un input generico, si riceve una risposta generica. Semplice.
Monty — che costruisce da mesi una startup gestita al 95% da agenti AI — ha messo a punto sette tecniche che cambiano concretamente il modo di lavorare con l’intelligenza artificiale. Non teorie. Cose che usa ogni giorno, con risultati verificabili.
1. Il fascicolo: dai contesto, non istruzioni
L’AI non legge nel pensiero. Quello che elabora è il contesto che riceve — e se il contesto è scarso, la risposta sarà per forza generica.
L’immagine giusta è quella del fascicolo da tribunale: prima di chiedere qualsiasi cosa di importante, si costruisce un dossier completo. Chi sei, cosa fai, chi sono i tuoi clienti, qual è il tuo modello di business, quali sono le tue priorità, il tuo tono di voce, le cose che vuoi e quelle che non vuoi.
Per le domande banali non serve. Ma per le decisioni strategiche — di business, di prodotto, di comunicazione — il fascicolo è la differenza tra una risposta mediocre e una risposta utile. Senza contesto, l’AI risponde per tutti. Con il contesto, risponde per te.
2. Gira la palla: fatti fare le domande
Quasi nessuno usa questa tecnica, eppure è una delle più potenti: invece di sforzarsi di scrivere il prompt perfetto, si chiede all’AI di fare le domande che le servono per dare una risposta migliore.
La formula è semplice: “Prima di darmi una soluzione, fammi le cinque domande più importanti di cui hai bisogno per rispondermi bene.”
Il risultato è quasi sempre sorprendente. L’AI individua angolazioni e informazioni mancanti che chi fa la domanda non aveva considerato — e che cambiano radicalmente la qualità della risposta finale. È il passaggio da “pretendo risposte” a “mi faccio interrogare”: un cambio di prospettiva che vale più di qualsiasi tecnica di prompting.
3. Chiedi quali sono le ipotesi
Ogni risposta dell’AI si basa su ipotesi di partenza, a volte sbagliate. Se le ipotesi sono errate, anche la risposta più elaborata sarà inutile.
La tecnica: dopo aver ricevuto una risposta o un piano, chiedere esplicitamente “Quali assunzioni hai fatto per arrivare a questa conclusione?” Spesso emerge che il modello ha dato per scontato qualcosa di fondamentalmente sbagliato rispetto alla situazione specifica.
L’ipotesi sbagliata manda in fumo l’intero piano. Correggere prima le ipotesi significa correggere le risposte alla radice.
4. Insisti: la prima risposta è sempre quella pigra
La prima risposta di qualsiasi modello AI è, per definizione, quella di comodo. Equilibrata, prudente, un colpo al cerchio e un colpo alla botte. Non è sbagliata, ma non è nemmeno utile.
La regola pratica: non accettare mai la prima risposta come definitiva. Metti in dubbio, chiedi di approfondire: “Sei sicuro che non ci siano soluzioni migliori? Cerca in modo più approfondito. Non mi convince, prova di nuovo.”
La differenza tra la prima e la settima risposta è quella tra un candidato che vuole fare bella impressione e un consulente esperto che dice davvero quello che pensa. La qualità cresce con la pressione.
5. La semplificazione: esiste una soluzione più elegante?
Quando l’AI propone una soluzione complessa, vale sempre la pena chiedersi se ne esiste una più semplice. I modelli tendono a elaborare soluzioni articolate — codice, integrazioni, procedure multi-step — anche quando basterebbe qualcosa di molto più diretto.
La domanda da fare: “Esiste una soluzione più elegante, più semplice, più veloce da implementare?” Spesso la risposta è sì — e quella soluzione esiste dall’inizio, ma il modello non la propone perché non viene spinto a cercarla.
Come diceva Mark Twain: la differenza tra la parola quasi giusta e la parola giusta è la stessa che c’è tra una lucciola e un fulmine. Vale anche per le soluzioni.
6. Il red team: fatti demolire il progetto
L’AI è bravissima a costruire. Ed è altrettanto brava a demolire. Il problema è che fa solo una cosa per volta — e di default costruisce sempre. Tocca a chi la usa dirle di fare l’altra.
La tecnica red team funziona così: dopo aver ricevuto un piano o un progetto, si chiede esplicitamente di smontarlo. “Adesso sii il più critico possibile: quali sono i tre buchi più grandi in questo piano? Dove sono i punti deboli? Cosa potrebbe andare storto?”
Quello che emerge è spesso illuminante. L’AI non ha nessun attaccamento emotivo al progetto che ha appena preparato — e lo smonta senza imbarazzo, trovando falle che chi ha costruito il progetto non avrebbe mai visto da solo. Un umano difende il proprio lavoro per istinto. L’AI no.
I buchi trovati prima di andare sul mercato si correggono gratis. Quelli trovati dopo si pagano con i propri soldi.
7. Usa almeno due modelli: non fidarti di uno solo
Nel 2026, usare un solo modello AI per decisioni importanti è come consultare un solo medico per una diagnosi seria. I modelli diversi sono stati addestrati con dati e approcci diversi — e danno risposte diverse sullo stesso problema.
Il minimo è usarne due in parallelo: ChatGPT e Claude, Claude e Gemini, Gemini e Grok. Non per fare una media delle risposte — che non sarebbe comunque una garanzia di correttezza — ma per avere due angolazioni diverse sullo stesso problema. Le differenze tra le risposte sono spesso le informazioni più preziose.
Un punto importante: il fatto che quattro modelli diversi siano d’accordo su qualcosa non significa che sia vero. È un indizio, non una prova. L’AI è un intermediario — un ricercatore molto competente ma fallibile.
Conclusione: l’AI è bravissima a sembrare sicura. Il dubbio tocca a noi.
Queste sette tecniche non richiedono competenze tecniche, non richiedono di imparare linguaggi di programmazione e non richiedono abbonamenti speciali. Richiedono solo un approccio diverso: più consapevole, più esigente, meno passivo.
L’AI risponde meglio a chi domanda meglio. Tutti gli altri ricevono la stessa risposta mediocre — e in più pagano l’abbonamento.
L’AI è bravissima a sembrare sicura. Ed è esattamente per questo che il dubbio — quello critico, quello che verifica, quello che insiste — deve restare umano.
Staff Monty
Questo post è stato scritto con l’ausilio dell’AI partendo da un video di Monty