GTM e MCP: audit del container con Claude
Ho connesso Claude a Google Tag Manager via MCP. Il risultato non è un chatbot che risponde a domande — è un audit che trova quello che hai dimenticato da anni.
Ho connesso Claude a Google Tag Manager via MCP la settimana scorsa. Il risultato non era quello che mi aspettavo.
Cosa fa MCP con GTM
MCP (Model Context Protocol) è il modo con cui Claude si connette a strumenti esterni. Hai già visto esempi con database, filesystem, Slack. GTM ha un'API REST completa — legge container, tag, trigger, variabili, versioni.
Metti insieme i due pezzi: ottieni un LLM che interroga il tuo container in tempo reale, ragiona su quello che trova, e propone azioni concrete.
Non è un chatbot che spiega come funziona GTM. È qualcuno che legge il tuo container specifico e ti dice cosa non va.
Il problema che risolve
Ogni container GTM che supera i 2 anni diventa un problema. Tag aggiunti da agenzie diverse. Trigger con condizioni che nessuno ricorda perché esistono. Variabili ridondanti. Tag che sparano su pagine rimosse 18 mesi fa.
L'audit manuale è tedioso e quasi sempre incompleto. Passi un'ora nel container, trovi 10 cose, ne lasci passare 20 perché non hai il contesto dell'intero progetto in testa.
Con MCP e Claude il flusso cambia. Dai al modello accesso all'API GTM. Gli chiedi di fare un audit. Lui legge tutti i tag, i trigger, le variabili — tutto insieme, tutto in contesto. Poi ragiona.
Setup pratico
L'API GTM richiede un service account Google con accesso al container. La documentazione Google su questo punto è decente.
La configurazione nel file MCP passa account ID, container ID e le credenziali:
{
"mcpServers": {
"gtm": {
"command": "python",
"args": ["-m", "mcp_server_gtm"],
"env": {
"GTM_ACCOUNT_ID": "123456",
"GTM_CONTAINER_ID": "GTM-XXXXXX",
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/sa.json"
}
}
}
}
Una volta connesso, Claude vede il container come se avesse aperto GTM nel browser — ma processa tutto insieme invece di cliccare tag per tag.
Quello che ho trovato
Sul mio container di test — un progetto e-commerce con tre anni di storia — ho lanciato un audit semplice: controlla tutti i tag e dimmi cosa non funziona o è ridondante.
Risultati in 2 minuti:
- 7 tag con trigger che referenziavano URL di pagine rimosse 18 mesi fa
- 3 coppie di tag GA4 duplicate — stesso evento, nomi leggermente diversi, aggiunti in tempi diversi da persone diverse
- 1 tag remarketing Facebook con il pixel ID cambiato a metà: il vecchio ancora attivo, il nuovo aggiunto senza rimuovere il precedente
- 12 variabili definite ma non referenziate da nessun tag attivo
Nessuna di queste cose era critica da sola. Insieme rappresentavano rumore nei dati che si trascinava da mesi.
Il tempo che ho speso: scrivere il prompt. Il modello ha fatto il resto.
Il limite reale
MCP legge il container, non il traffico. Non sa quante volte un tag spara in produzione, non vede i dati di debug in tempo reale, non ha accesso a GA4 o BigQuery.
Per un audit completo serve combinare: GTM via MCP per la struttura, GA4 API per i dati reali, e qualcuno che sappia interpretare la differenza tra i due.
L'altra limitazione è la scrittura. Puoi configurare MCP con permessi di scrittura sull'API GTM — Claude può creare tag, modificare trigger, pubblicare versioni. Io non lo faccio in produzione. Ogni modifica viene revisionata prima di essere applicata.
Il valore sta nella lettura e nel ragionamento. La scrittura rimane un'azione umana deliberata.
Un container GTM ben tenuto produce dati puliti. MCP abbassa il costo di tenerlo in ordine — e forse questo è il caso d'uso più sottovalutato dell'AI negli analytics.