Molti hanno recentemente avuto un'esperienza sottile: i modelli AI sono chiaramente diventati più potenti, ma in pratica sono diventati sempre più 'strani'.
È molto probabile che tu abbia già affrontato questa situazione:
Conversare con l'AI per diverse decine di round.
Correggere il codice, aggiungere condizioni poco a poco.
Realizzare una funzione, ma regolare ripetutamente.
Alla fine, il costo dei token è molto alto, ma i risultati sono ancora instabili.
Questo sembra irragionevole. Le capacità del modello stanno migliorando rapidamente, perché l'efficienza d'uso non aumenta secondo?
Il recente suggerimento di Anthropic su come utilizzare Claude Code in combinazione con Opus 4.7 spiega proprio questo fenomeno. Ma se lo consideri solo come una guida d'uso ordinaria, perderai il valore centrale.
Perché questo consiglio rivela non è solo una semplice abilità d'uso, ma un cambiamento fondamentale:
La programmazione AI sta passando dall'era della 'generazione di dialogo' all'era della 'gestione dei compiti'.
Non è una guida all'ottimizzazione dei prompt, ma una ridefinizione della relazione di collaborazione tra uomo e AI.
Da 'assistente reattivo' a 'ingegnere delegato'.
Negli ultimi due anni, la maggior parte delle persone ha preso l'abitudine di considerare l'AI come uno strumento di potenziamento.
un motore di ricerca che scrive codice.
Un Stack Overflow più intelligente.
Un Copilot con cui chattare in qualsiasi momento.
Un modo tipico di utilizzo è 'l'approccio multi-round': lanciare una domanda, osservare la risposta, aggiungere condizioni, modificare una volta, avvicinandosi gradualmente al risultato desiderato.
Questo approccio è stato molto efficace nei primi tempi di ChatGPT, poiché il modello allora assomigliava più a un assistente reattivo - aiutandoti a completare un pezzo di codice, spiegare un errore, modificare una funzione.
Tuttavia, la nuova generazione di strumenti, rappresentata da Claude Code + Opus 4.7, sta cambiando la struttura dei compiti in cui il modello eccelle.
Il consiglio centrale fornito da Anthropic può essere riassunto in una frase:
Non considerare più il modello come un partner per la programmazione a coppie, ma come un ingegnere a cui delegare compiti.
Il significato di questa frase è molto profondo:
L'unità di interazione è passata da 'una singola risposta' a 'un compito completo'.
Il criterio di valutazione è passato da 'la risposta è corretta o meno' a 'il compito è stato consegnato con successo'.
Il ruolo dell'utente è passato da 'guidatore' a 'definitore del compito + verificatore'.
Non si tratta più di un'ottimizzazione a livello di prompt, ma di una ricostruzione della relazione uomo-macchina.
Perché i dialoghi multi-round stanno diventando inefficienti?
Molti sanno che 'meno round consumano meno token', ma questo è solo un motivo superficiale. La vera causa risiede nel cambiamento della struttura dei costi del modello.
Nei modelli iniziali, ogni round di conversazione era fondamentalmente una semplice generazione, con una profondità di ragionamento limitata.
Nei modelli avanzati come Opus 4.7, ogni round di dialogo aggiuntivo può contenere:
Ricostruzione della comprensione del compito.
Riallineamento del contesto.
Analisi delle condizioni di vincolo.
Pianificazione delle soluzioni.
Decisioni sulle chiamate agli strumenti.
In altre parole, ogni round non è solo aggiungere una frase, ma effettuare un nuovo modello di compito.
Il costo delle interazioni multi-round non aumenta più linearmente, ma è una somma della ricostruzione ripetuta. Questo porta direttamente alla vecchia abitudine di 'provare prima, poi aggiungere un po', poi modificare' a diventare rapidamente costosa, lenta e con risultati instabili sui nuovi modelli di tipo agente.
Pertanto, Anthropic sottolinea ripetutamente che già dal primo round è necessario:
Definire chiaramente il compito.
Fornire il contesto completo.
Chiarire tutte le condizioni e vincoli.
Scrivere chiaramente gli standard di accettazione.
Perché la cosa più costosa non è la generazione dei contenuti, ma la ricostruzione ripetuta del problema stesso.
L'aggiornamento del Prompt: da abilità di domanda a specifiche di compito.
La competenza chiave della fase precedente era il Prompt Engineering. Ora, si sta verificando un importante aggiornamento:
Il Prompt si sta evolvendo in Specifiche (descrizione del compito).
In passato, scrivere prompt significava principalmente ottimizzare l'espressione per far comprendere meglio il problema al modello.
Scrivere un prompt ora significa definire un compito che può essere eseguito in modo affidabile, e deve includere chiaramente:
Qual è l'obiettivo?
Dove sono i confini?
Quali risorse possono essere utilizzate?
Cosa conta come completamento?
Questo è estremamente simile a PRD, proposte tecniche e standard di accettazione nell'ingegneria del software.
Un cambiamento importante portato è: saper scrivere prompt non è più solo una competenza linguistica, ma una capacità di progettazione di sistemi.
La vera chiave non è più 'come chiedi', ma:
Puoi definire chiaramente il problema?
Puoi scomporre obiettivi e vincoli?
Puoi fornire il contesto giusto?
Puoi progettare in anticipo gli standard di accettazione?
Pertanto, possiamo fare un giudizio più forte:
La prossima fase della programmazione AI non è il Prompt Engineering, ma la Specification Engineering.
Pensiero adattativo: il modello inizia a gestire autonomamente le risorse di ragionamento.
Opus 4.7 ha cancellato il budget di riflessione fisso, passando a una riflessione adattativa (Adaptive Thinking).
Questo cambiamento sembra un dettaglio tecnico, ma ha un significato profondo: il modello inizia a gestire autonomamente le risorse di ragionamento, anziché essere 'assegnato' dagli esseri umani.
In passato erano gli esseri umani a decidere quanto tempo dedicare alla riflessione su un problema, ora è il modello a giudicare autonomamente.
È necessario un ragionamento profondo?
Fino a che punto dovrebbe arrivare il ragionamento?
Vale la pena investire di più in calcolo?
Questo significa che l'attenzione alle capacità del modello sta cambiando: non si tratta più solo di 'può ragionare?', ma di 'può giudicare saggiamente quando ragionare, come controllare la profondità e fare compromessi tra velocità, costo e accuratezza'.
Il modo in cui gli esseri umani controllano si aggiornerà anche, passando dal controllo dei parametri (budget, passi) al controllo delle strategie (intenti, preferenze), ad esempio:
"Questo problema è piuttosto complesso, procedi con ragionamento graduale."
"Rispondi rapidamente, non è necessaria un'analisi approfondita."
L'interfaccia uomo-macchina sta passando da parametri di base a strategie di alto livello.
Perché il modello è diventato improvvisamente 'conservatore'?
Molti utenti hanno osservato: le chiamate agli strumenti sono diminuite, i sussidiari sono diventati più cauti e le risposte sono diventate più brevi.
Non si tratta di un regresso delle capacità, ma di una scelta attiva di Anthropic sulla filosofia del prodotto: non si tratta di fare il massimo possibile, ma di fare le cose giuste a costi controllabili.
Gli obiettivi sottostanti sono tre:
Ridurre l'esecuzione inefficace (agenti aggressivi sono facilmente occupati senza risultati concreti).
Aumentare la prevedibilità del comportamento (gli utenti aziendali hanno bisogno di stabilità e affidabilità, non di prestazioni sporadiche).
Restituire agli utenti l'intensità dell'esplorazione (predefinita conservativa, ma consentire agli utenti di autorizzare esplicitamente comportamenti più aggressivi).
Questo è fondamentalmente una ridefinizione dei confini di responsabilità: il sistema è responsabile della sicurezza e dei costi, l'utente della intensità del compito e dell'ambito di esplorazione.
L'intero settore si sta spostando verso la 'gestione dei compiti'.
Sebbene Claude Code sia un prodotto di Anthropic, questa direzione è in realtà una tendenza comune nell'intero settore dell'AI.
Le diverse aziende seguono percorsi diversi, ma la competizione di base è su una sola cosa: chi può diventare il livello di programmazione efficace tra il modello e il lavoro reale.
Anthropic definisce 'ingegnere AI' tramite Claude Code.
OpenAI rafforza la chiamata agli strumenti e le capacità di agenti generali.
Google integra profondamente Gemini nel pacchetto Workspace.
Cursor integra completamente l'AI nell'IDE degli sviluppatori.
Devin cerca di completare automaticamente i compiti software end-to-end.
In superficie sembra una differenza di forma del prodotto, ma in realtà si compete su capacità di ricezione dei compiti, comprensione del contesto, pianificazione dei passi, chiamata degli strumenti e verifica dei risultati.
Il modello è il motore, ma il livello degli strumenti e il flusso di lavoro sono il vero sistema di trasmissione. Il futuro vincerà probabilmente in base alla qualità di questo sistema di trasmissione.
Anthropic e Google: Agente vs Ambiente.
Allargando la visione, diverse aziende stanno scommettendo su futuri differenti:
Anthropic sta definendo l'agente: migliorare la capacità di esecuzione del compito di un singolo agente intelligente, per permettere all'utente di affidare compiti all'AI senza preoccupazioni.
Google sta definendo l'ambiente: non un agente isolato, ma integra l'AI in ogni nodo di lavoro esistente dell'utente (Gmail, Docs, Sheets, Drive, ecc.).
In sintesi:
Anthropic ti permette di delegare compiti all'AI, Google fa apparire l'AI in ogni passo del tuo lavoro.
La vera questione è il modello di divisione del lavoro tra uomo e macchina.
Molte discussioni si limitano a 'chi è più intelligente, chi ha un contesto più lungo, chi è più veloce', ma la differenza più fondamentale risiede nel modello di divisione del lavoro uomo-macchina predefinito di ciascun prodotto.
Claude Code: l'uomo definisce il compito, l'AI esegue e consegna.
ChatGPT: esplorare problemi insieme all'AI.
Cursor: gli umani guidano lo sviluppo, l'AI fornisce accelerazione.
Gemini: l'uomo non cambia il flusso originale, l'AI è integrata nel flusso.
Devin: l'AI sostituisce il flusso intero il più possibile.
La vera differenza non è nelle capacità del modello, ma nel livello di coinvolgimento umano nel lavoro che è stato ridefinito.
Il valore degli ingegneri sta salendo.
Man mano che l'AI può assumere sempre più lavoro del 'livello di realizzazione', il valore degli ingegneri si sta spostando dall'esecuzione di base verso l'alto.
Da
Scrivere codice, regolare interfacce, debug.
Spostarsi verso.
Definire il problema, scomporre il sistema, progettare vincoli, controllare i rischi, stabilire standard di accettazione.
Questa è una tipica riallocazione del lavoro.
I grandi modelli non hanno eliminato l'ingegneria del software, ma stanno ristrutturando le fasi ad alto valore nel processo ingegneristico.
Conclusione: questo è un aggiornamento nel modo di produrre software.
Il vero significato di Claude Code + Opus 4.7 non è che possa scrivere codice più velocemente o rispondere più intelligentemente, ma che sta spingendo verso una trasformazione più profonda:
La produzione di software sta passando da 'l'essere umano scrive codice, l'AI assiste' a 'l'essere umano definisce il sistema, l'AI esegue e realizza'.
Quando questa tendenza si stabilizzerà, molte cose cambieranno di conseguenza:
Il Prompt si evolverà in Specifiche.
Le conversazioni diventeranno deleghe di compiti.
Gli strumenti si aggiorneranno in flussi di lavoro.
Gli ingegneri diventeranno orchestratori (sistemisti).
Questa guida non vuole trasmettere 'come usare Claude più efficientemente', ma:
Il software del futuro non sarà scritto, ma definito.

