Con l’integrazione crescente di assistenti conversazionali e strumenti di intelligenza artificiale nei siti web, una nuova sfida si impone agli specialisti di web analytics: come monitorare in modo efficace il traffico generato dai modelli linguistici di grandi dimensioni (LLM). Che si tratti di un chatbot basato su GPT‑4 o di un sistema AI che consiglia contenuti agli utenti, è fondamentale saper distinguere e analizzare le interazioni generate da queste tecnologie rispetto al traffico umano tradizionale.
Perché il traffico da LLM non è come gli altri
Un LLM può generare traffico in modo diretto o indiretto. Può suggerire un link all’utente, oppure “precaricare” contenuti per conto del visitatore, creando richieste al server che non corrispondono a sessioni reali. In molti casi, queste visite appaiono come “traffico diretto” o “referral” generico, senza alcuna attribuzione chiara. Questo crea un buco nei dati e può distorcere le analisi su performance di campagne, contenuti e comportamento degli utenti.
Non solo: il traffico da LLM è spesso asincrono, distribuito su più dispositivi e difficile da ricondurre a un’identità coerente. Senza una strategia di tracciamento specifica, le aziende rischiano di perdere informazioni preziose su come l’intelligenza artificiale stia già influenzando la customer journey digitale.
Strategia base: usare parametri personalizzati
Il primo passo per tracciare correttamente il traffico LLM è introdurre un parametro identificativo nelle URL generate o consigliate dal modello AI. Un esempio pratico: se un chatbot propone un link, quel link dovrebbe contenere un parametro come ?fonte_ai=chatbotGPT4
.
In Google Analytics 4, è possibile definire una dimensione personalizzata chiamata ad esempio fonte_ai, da valorizzare in ogni evento “page_view” o “click”. Lo stesso principio si applica in Adobe Analytics, creando una variabile eVar dedicata, come eVar20 = Fonte AI. Questi dati possono poi essere esplorati nei report personalizzati o integrati in dashboard più complesse.
Gestire la sessione: continuità e stitching
Il traffico AI‑generato ha spesso un limite critico: l’attribuzione si perde tra un dispositivo e l’altro, o tra diverse fonti di accesso. Un utente può iniziare il suo percorso tramite chatbot e poi tornare da desktop ore dopo, senza che le analytics riescano a collegare i due momenti.
Per affrontare questo problema, si può implementare un identificatore persistente — ad esempio un cookie o un localStorage value — che lega la fonte AI all’utente anche in sessioni successive. In GA4 questo si può gestire tramite il client ID, mentre in Adobe si può sfruttare il visitor ID personalizzato. Il risultato? Un’analisi più accurata delle conversioni influenzate dagli LLM, anche se non avvengono subito.
KPI specifici per il traffico LLM
Per valutare l’impatto reale degli LLM serve andare oltre il semplice numero di sessioni. Alcuni indicatori chiave da tenere d’occhio includono:
- Sessioni generate da AI (tramite
fonte_ai
) - Tempo medio tra suggerimento AI e interazione
- Tasso di conversione delle sessioni AI rispetto a quelle organiche
- Profondità di navigazione e bounce rate per fonti AI
È utile anche confrontare le performance di diverse fonti AI: ad esempio, un motore di raccomandazione potrebbe generare sessioni ad alto valore, mentre un assistente virtuale pre‑acquisto potrebbe portare traffico informativo ma poco convertente.
Separare traffico umano da traffico tecnico
Molti LLM eseguono chiamate automatiche o “prefetch” di contenuti per ottimizzare l’esperienza utente. Tuttavia, queste richieste possono gonfiare artificialmente i dati, generando sessioni di pochi secondi o hit che non corrispondono a visite reali.
La soluzione è distinguere chiaramente tra interazioni utente e chiamate AI automatizzate. Si può introdurre un flag (es. tipo_ai=prefetch
) e filtrare questi eventi in fase di reportistica, oppure creare eventi distinti come llm_view vs llm_click. In GA4, questi eventi possono essere gestiti con condizioni nel tag manager; in Adobe, con regole di esclusione o segmenti ad hoc.
Feedback loop: usare i dati per migliorare l’AI
Una volta tracciato il traffico AI, il passo successivo è usare questi dati per ottimizzare il comportamento del modello stesso. Ad esempio, se noti che certi suggerimenti portano traffico con alto bounce rate, puoi “istruire” l’LLM a evitare quei link o a proporre alternative più pertinenti.
Questo approccio si integra perfettamente con una strategia di growth hacking avanzata, dove l’AI viene continuamente alimentata con feedback analitici per migliorare la pertinenza, il timing e la qualità delle sue interazioni.
Tag management: orchestrare gli script in modo intelligente
Che tu usi Google Tag Manager o Adobe Launch, la chiave è assicurarsi che ogni evento AI venga catturato nel momento giusto, con i dati giusti. Ecco un esempio per GTM:
dataLayer.push({
event: 'interazioneAI',
fonte_ai: 'motore_recommendation_v2',
url_clickata: url
});
Questa struttura permette di popolare eventi in GA4 con parametri chiari, mantenendo coerenza tra fonti. Allo stesso modo, in Adobe puoi attivare eventi personalizzati usando _satellite.track()
o configurare le regole direttamente dal pannello di interfaccia.
LLM su app, chatbot e canali esterni
Spesso l’LLM non vive solo nel sito web, ma anche in app mobili, assistenti vocali o chat integrate in piattaforme esterne. È essenziale mantenere coerenza di tracciamento tra tutti i touchpoint. Ad esempio, in un’app mobile, puoi passare il parametro fonte_ai
agli eventi Firebase collegati a GA4. In un chatbot, puoi registrare gli eventi server‑side tramite API Adobe.
Solo una governance centralizzata dei tag e delle variabili può garantire che le interazioni AI vengano tracciate ovunque e che i report siano realmente comparabili. Questo approccio permette di analizzare l’effetto di un suggerimento AI dal primo click fino alla conversione, anche se il percorso attraversa tre dispositivi diversi.
Marketing, AI e attribuzione: serve una visione strategica
Il tracciamento del traffico AI non è solo un’esigenza tecnica. È uno strumento per comprendere come l’intelligenza artificiale stia trasformando le dinamiche di acquisizione, conversione e fidelizzazione. Un esempio pratico? Se il 18% dei lead proviene da sessioni avviate tramite AI, e quel segmento mostra un CPA più basso del 25% rispetto alla media, è una notizia strategica. Ti permette di ridistribuire budget, ottimizzare contenuti e prendere decisioni basate su dati solidi.
Anche il posizionamento SEO può risentirne. Se gli LLM spingono traffico verso pagine specifiche, queste potrebbero guadagnare nuova autorevolezza agli occhi dei motori di ricerca. Per saperne di più su come il marketing digitale ha trasformato queste logiche, leggi questo approfondimento su come il digital marketing ha cambiato il mondo.
Conclusione: misurare l’AI per migliorarla
Monitorare il traffico LLM con Adobe Analytics e Google Analytics significa portare rigore analitico in un territorio nuovo. Non si tratta solo di conteggiare le sessioni, ma di costruire un sistema intelligente che distingue, misura, analizza e restituisce valore.
Grazie a un tracciamento coerente, a una segmentazione efficace e a un uso strategico dei KPI, puoi non solo capire cosa fa l’intelligenza artificiale sul tuo sito, ma guidarla verso obiettivi concreti di business. In altre parole, non stai semplicemente osservando il cambiamento—lo stai orchestrando.