Nella supply chain contemporanea, l’intelligenza artificiale sta evolvendo da strumento predittivo a vero e proprio soggetto operativo. L’agentic AI promette di trasformare la gestione dei trasporti, intervenendo in autonomia nella qualificazione dei vettori, nel monitoraggio dinamico degli Eta e nella gestione delle interruzioni. Ne abbiamo parlato con Philipp Pfister, sector vice president di Transporeon – network di trasporto globale del Gruppo Trimble – per capire come gli agenti digitali stiano ridefinendo processi, ruoli e performance nella logistics execution.
Nella supply chain, l’agentic AI sta superando il perimetro dell’automazione tradizionale. In che modo e in quali applicazioni gli agenti intelligenti possono supportare – o sostituire – attività decisionali nella gestione delle decisioni operative?
L’agentic AI segna il passaggio della supply chain da un modello di automazione passiva a uno di autonomia operativa attiva, agendo come un vero e proprio collega digitale in grado di ragionare, pianificare ed eseguire flussi di lavoro complessi, ottimizzandoli in funzione di obiettivi aziendali specifici come, ad esempio, la riduzione dei costi e delle emissioni di CO2 o il rispetto degli slot prenotati per la consegna. Nelle operazioni quotidiane, questa tecnologia consente di ridurre o eliminare l’intervento manuale nelle attività che richiedono decisioni rapide, come ad esempio lo spot buying. La nostra soluzione Autonomous Procurement analizza gli andamenti del mercato in tempo reale e la storicità del comportamento dei vettori per negoziare al meglio e con coerenza le tariffe ed assegnare le spedizioni in modo autonomo. Il valore dell’agentic AI va oltre la semplice esecuzione: gli AI agents possono gestire direttamente attività operative quotidiane, ad esempio possono reindirizzare autonomamente le spedizioni in caso di congestioni dettate dal traffico, verificare la compliance dei vettori durante il processo di onboarding o adattare le strategie di bidding per intercettare le migliori condizioni di mercato.
Con la crescita delle capacità di autonomia decisionale dell’agentic AI, come cambierà il ruolo degli operatori in carne e ossa, e quali nuove competenze – tecniche e non – saranno indispensabili per loro nei prossimi anni?
In Transporeon, consideriamo l’agentic AI non come un sostituto delle persone, ma come un vero e proprio “collega digitale”, in grado di far evolvere il ruolo del professionista della logistica, passando da una sequenza di attività manuali e ripetitive a una funzione di supervisione strategica. Ad esempio, mentre gli AI agents assumono il controllo delle decisioni ripetitive e ad alta velocità – come la negoziazione delle tariffe di trasporto o il reindirizzamento dei camion in caso di congestione – il ruolo dell’uomo si trasforma progressivamente in quello di un “AI supervisor”. In questo nuovo scenario, le competenze principali verteranno su una combinazione di capacità di supervisione tecnica e giudizio umano. Esiti positivi dipenderanno dalla capacità di definire regole e perimetri operativi efficaci per l’AI, nonché dalla disponibilità del personale a lavorare in sinergia con questi sistemi autonomi. Se da un lato la tecnologia offre la velocità necessaria per elaborare grandi volumi di dati, dall’altro l’esperienza e la visione strategica restano prerogative imprescindibili dell’uomo: è proprio questa collaborazione human-plus-AI a rendere le supply chain globali più resilienti, efficienti e adattive.

A che punto sono le aziende della logistica nella reale adozione di sistemi avanzati di questo tipo e quali sono, secondo lei, i principali ostacoli che frenano una maggiore diffusione dell’agentic AI nella supply chain?
Secondo il nostro Transportation Pulse Report 2026, sebbene il 62% delle organizzazioni stia già sperimentando l’utilizzo dell’agentic AI, solo l’1% degli shippers ha raggiunto capacità avanzate di decision-making autonomo, quindi, la transizione verso sistemi pienamente “agentic” è ancora in una fase iniziale. Il principale ostacolo resta la qualità del dato: gli agenti AI necessitano infatti di dati coerenti e di alta qualità per prendere decisioni affidabili. Molte imprese continuano a confrontarsi con sistemi informativi datati che creano silos di dati, limitando l’efficacia dei processi di automazione. Oltre agli aspetti tecnologici, emerge con forza anche il fattore umano, per ottenere ottimi risultati servono approcci strutturati di change management, necessari per accompagnare i team nella transizione verso un modello in cui gli uomini supervisionano gli AI agents considerati come nuovi “colleghi digitali”. Sebbene la tecnologia sia già pronta all’utilizzo, l’adozione su larga scala dipende dalla capacità delle aziende di rafforzare i propri dati e di coinvolgere attivamente le persone lungo questo percorso di trasformazione. Quando queste condizioni sono soddisfatte, osserviamo miglioramenti rapidi e significativi nelle performance operative dei nostri clienti.
Man mano che l’agentic AI cresce nel prendere decisioni in autonomia, quanto è importante e in che modo è necessario definire confini chiari per garantire sicurezza, allineamento agli obiettivi e controllo continuo sulle decisioni degli agenti intelligenti?
La definizione di confini chiari rappresenta la base in un sistema autonomo, in cui l’AI opera entro un perimetro ben definito – che può essere paragonato a una vera e propria job description – e agisce esclusivamente entro limiti prestabiliti dall’uomo. Questi guardrails possono includere vincoli finanziari (come soglie massime di offerta) e regole operative (ad esempio liste di vettori già approvati). Un elemento fondamentale è rappresentato dai meccanismi di sicurezza progettati per attivare alert per un operatore quando una situazione logistica diventa troppo complessa, a garanzia che l’uomo rimanga il decisore finale per le azioni critiche. Il nostro approccio, come Transporeon, è volto a garantire che ogni integrazione dell’AI nelle nostre soluzioni sia accompagnata da un “AI safety layer by design”. Questo impegno è supportato da investimenti significativi nei nostri sistemi: non ci limitiamo a implementare la tecnologia, ma ne verifichiamo costantemente l’utilizzo e la sicurezza su larga scala, offrendo così soluzioni abilitate dall’AI che non trascurino mai la supervisione e non compromettano la sicurezza.