Le AI non stanno diventando più intelligenti. Stanno imparando a lavorare
Agenti, sistemi multi-agente, automazioni: il vocabolario della GenAI si è affollato di termini nuovi. Quel che conta però non è il lessico, ma il cambiamento in corso
Questa settimana parliamo di AI, e cerchiamo di fare un po’ di chiarezza su cosa sia un agente, come funziona e cosa realmente è in grado di fare ora
La GenAI fa carriera. Non è più composta da un esercito di stagisti. Invece, sta imparando a lavorare. Per questo è arrivato il momento di fare un po’ di chiarezza tra i nuovi paradigmi.
Dal rispondere al fare
Fino a poco tempo fa, il modello d’uso era semplice: si scriveva qualcosa, il sistema rispondeva. Una conversazione, nel senso più elementare del termine. Quello che sta emergendo adesso è strutturalmente diverso: un ciclo in cui il modello pianifica, esegue azioni, osserva i risultati e corregge il tiro in autonomia, senza che ogni passaggio richieda un intervento umano. Non è più una chat. È un processo.
Il cambiamento interessa due livelli molto diversi tra loro. Da un lato ci sono gli strumenti per sviluppatori: framework come LangGraph o sistemi come Claude Code, che permettono di costruire agenti sofisticati per chi sa programmare. Dall’altro, e qui sta la novità più rilevante per la maggior parte delle persone, ci sono strumenti già usabili senza competenze tecniche. Microsoft Copilot Tasks ad esempio legge in autonomia la mail, estrae una data, aggiorna il calendario e invia una conferma. Zapier e n8n collegano migliaia di applicazioni diverse in flussi automatici. Cowork permette di delegare al computer intere sequenze di operazioni su file e programmi. Non è fantascienza: sono cose già disponibili, anche se con limiti concreti (e probabilmente rischiose in presenza di dati personali, perché possono compiere azioni irreversibili).
L’azienda come metafora
Il punto più interessante non è però cosa fa un singolo agente, ma cosa succede quando ce n’è più d’uno e tutti lavorano insieme. L’architettura multi-agente funziona in modo analogo a un’organizzazione umana ben strutturata: non esiste un unico collaboratore tuttofare, ma ci sono figure specializzate che si occupano ciascuna di un compito preciso.
Un agente legge le fatture in PDF, un altro controlla le scadenze e il terzo fa partire i pagamenti dovuti. Altri ancora si occupano di preparare i report da inviare e rispondono alle email di routine. Ognuno sa fare bene una cosa sola, e questa limitazione non è un difetto: è esattamente il punto. I sistemi multi-agente funzionano quando i compiti sono delimitati, verificabili e ripetibili. Diventano fragili, invece, appena si chiede loro di affrontare processi lunghi, variabili e critici.
L’autonomia, con riserva
Il limite più importante da tenere presente è quello dell’affidabilità. Gli agenti commettono errori, e gli errori nei processi automatici si propagano: una data sbagliata diventa una riunione fissata nel giorno sbagliato, e poi una catena di mail fuori posto. Questo perché gli agenti possono eseguire azioni non valide, fraintendono i risultati intermedi, a volte entrando in loop senza accorgersene. Più un sistema è autonomo, meno è facile controllarlo in tempo reale.
Le soluzioni in corso, come la supervisione umana su certi passaggi critici (human-in-the-loop), i sistemi di verifica incrociata e il monitoraggio continuo dei flussi, aiutano ma non eliminano il problema. L’autonomia reale è ancora limitata: i casi in cui un agente gestisce da solo un processo end-to-end complesso e lo fa in modo affidabile sono ancora pochi. Quel che funziona oggi è più modesto e più utile di quanto la narrazione corrente suggerirebbe: agenti specializzati su compiti precisi, inseriti in flussi di lavoro progettati con attenzione, con un presidio umano sui punti di snodo.
La GenAI non sta diventando più intelligente: sta imparando a stare dentro i processi. E quando succede, il punto non è più cosa sa dire, ma cosa riesce a portare a termine.
Le altre notizie della settimana. ma sempre collegate alle intelligenze artificiali
Musk unisce SpaceX, Tesla e xAI per Terafab: la fabbrica di chip per data center spaziali
Elon Musk ha annunciato Terafab, il primo progetto congiunto di SpaceX, Tesla e xAI: una fabbrica ad Austin (Texas) per chip AI su scala massiccia: un terawatt annuo, 50 volte la produzione mondiale attuale. La fabbrica produrrà chip per Optimus, robotaxi e satelliti resistenti a radiazioni e calore estremo. L’obiettivo sono i data center orbitali più efficienti grazie al sole, i lanci con Starship e, in futuro, gli acceleratori lunari.
OpenAI chiude Sora: addio ai video AI, focus sul core business in vista della quotazione
OpenAI ha annunciato lo stop definitivo a Sora, la sua piattaforma per la generazione di video con intelligenza artificiale ormai giudicata obsoleta. La mossa mira a concentrare risorse sui prodotti principali e a preparare il terreno per la futura quotazione in Borsa dell'azienda. Disney, intanto, ha annunciato di aver cancellato il suo investimento da un miliardo di dollari in OpenAI, segnando un dietrofront clamoroso.
Apple fissa la WWDC: in arrivo le integrazioni con Gemini di Google?
Apple ha svelato la data della Worldwide Developers Conference (WWDC) 2026, in programma dal 9 al 13 giugno a Cupertino, con streaming globale. Tra i probabili annunci, l’integrazione del modello Gemini di Google nei sistemi iOS e macOS, per potenziare Siri e l'AI on-device. Sarebbe la mossa strategica contro la concorrenza di OpenAI e Anthropic, dopo le recenti partnership con Google su Chrome e ricerca. Lo sapremo solo il 9 giugno, durante il keynote di apertura.
Nutrire la macchina: il libro che svela il costo umano dell’intelligenza artificiale
Domani esce il libro Nutrire la macchina. Come alimentiamo l’intelligenza artificiale di James Muldoon, Mark Graham e Callum Cant edito da Mimesis. È un saggio che smonta il mito dell’AI “pulita” delle Big Tech. Attraverso un’inchiesta sul lavoro invisibile di moderatori, annotatori e “lavoratori dei dati”, il libro mostra come l’intelligenza artificiale sia alimentata anche da sfruttamento, condizioni precarie e impatti ambientali, rivelando uno dei prezzi che paghiamo per la cosiddetta “rivoluzione digitale”.
Per questa settimana è tutto, grazie per averci letto!

