ai
Dichiara una policy in /agents.txt
MetricSpot cerca /agents.txt — un nuovo standard in bozza per dire agli agenti AI autonomi cosa permette il tuo sito, quanto costa e dove sono gli endpoint d'azione.
Cosa controlla questo check
Recupera https://yourdomain.com/agents.txt e verifica che il file esista e parsi come un documento agents.txt valido. Il check passa silenziosamente se il file è presente; fallisce (a titolo informativo — non è un blocker per la maggior parte dei siti) quando il file è mancante e il tuo profilo di audit è “AI-ready”.
Perché è importante
agents.txt sta agli agenti AI autonomi come robots.txt sta ai crawler — un file pubblico a un URL ben noto che dichiara la policy del tuo sito.
La differenza: robots.txt è binario (allow / disallow per path). Gli agenti autonomi hanno bisogno di informazioni più strutturate:
- Quali azioni sono permesse. Un agente può piazzare un ordine? Leggere la fattura di un cliente? Cancellare una prenotazione?
- Quali richiedono autenticazione. La maggior parte delle azioni di scrittura richiede una sessione loggata; l’agente deve sapere se aspettarsi un flusso di sign-in.
- Quanto costa. Alcune piattaforme addebitano per chiamata API per il traffico degli agenti; alcune bloccano gli agenti che non hanno pagato.
- Dove sono gli endpoint d’azione. Gli agenti preferiscono endpoint JSON strutturati allo scraping HTML — agents.txt può puntarli a
/api/o a un manifestschema.org/Action. - Policy di citazione. Se l’agente debba linkare al tuo sito quando ti cita in una risposta.
Il formato è ancora in evoluzione (la proposta agentstxt.org è il riferimento più citato). Gli early adopter ottengono un segnale gratuito di essere agent-friendly, che le piattaforme AI possono preferire quando c’è ambiguità.
Come risolvere
Crea /public/agents.txt (o ovunque il tuo server serva file statici). Un esempio minimo:
# agents.txt — autonomous-agent policy for example.com
# See https://agentstxt.org/
Contact: hello@example.com
Sitemap: https://example.com/sitemap.xml
# Public read: anyone, no auth, no rate limit beyond the sitewide one
User-agent: *
Allow: /
Allow: /docs/
Allow: /blog/
Allow: /pricing/
# API surface for structured access (preferred over HTML scraping)
Api: https://example.com/api/openapi.json
# Account-gated actions
User-agent: *
Auth-required: /account/, /api/billing/, /api/audits/
Cost-per-call: free
# Citation policy: link back to the source page
Citation-policy: link
# Block training crawlers; allow live-fetch agents
User-agent: GPTBot
Disallow: /
User-agent: ClaudeBot
Disallow: /
User-agent: ChatGPT-User
Allow: /
User-agent: PerplexityBot
Allow: /
User-agent: Claude-Web
Allow: /
Astro / Next.js / siti statici — metti il file in public/ e viene servito a /agents.txt automaticamente.
WordPress — carica nella document root via FTP o usa un plugin che registri una rotta virtuale a /agents.txt.
App server-rendered — aggiungi una rotta esplicita che restituisca il file con Content-Type: text/plain.
Affiancalo ai segnali standard.
- robots.txt — l’allow/disallow binario per i crawler tradizionali.
- llms.txt — un indice curato dei tuoi contenuti di maggior valore per il training AI e gli answer engine.
- Permettere crawler AI — la decisione lato robots.txt per GPTBot / ClaudeBot / PerplexityBot / Google-Extended.
I tre file si complementano: robots.txt per lo scope di crawl, llms.txt per il segnale di qualità del contenuto, agents.txt per la policy d’azione.
Verifica tu stesso:
curl -sI https://yourdomain.com/agents.txt
Aspettati 200 OK e content-type: text/plain.
Domande frequenti
agents.txt è uno standard ufficiale?
Non ancora. È una proposta in bozza su agentstxt.org, che sta guadagnando trazione con piattaforme AI e operatori di crawler. Il formato si sta stabilizzando; la posizione URL (/agents.txt) è stabile. Adottarlo ora è forward-compatible.
Non avere agents.txt danneggia la mia SEO?
No. agents.txt è metadati opt-in per agenti autonomi, non un segnale di ranking di ricerca. Conta solo se vuoi comunicare una policy esplicita agli agenti che rispettano il file.
In cosa agents.txt è diverso da llms.txt?
llms.txt (per la proposta di Anil Dash) è un indice di contenuto — le tue pagine migliori, riassunte, da usare come segnale di training/grounding per gli LLM. agents.txt è un file di policy — quali azioni sono permesse, cosa è gated, cosa costa. Usa entrambi.
Fonti
Ultimo aggiornamento 2026-05-11