Benchmark metryk GEO: ACR, SOV-AI i TTC dla 30 zapytań (2026)
Benchmark GEO na stałym zestawie 30 zapytań: jak mierzyć ACR, SOV-AI i TTC, jak zbudować powtarzalny test i jak interpretować wyniki. Gotowa tabela do skopiowania.
Benchmark metryk GEO: ACR, SOV-AI i TTC dla 30 zapytań (2026)
Ten raport to „szkielet benchmarku”, który można odpalać co tydzień. Jest przygotowany tak, żeby dało się go cytować (definicje + tabele + progi + FAQ).
Metodologia benchmarku
Zestaw 30 pytań (6 grup po 5 pytań)
- Definicje (co to jest…)
- Procesy (jak zrobić…)
- Porównania (X vs Y)
- Koszty (ile kosztuje…)
- Ryzyka/błędy (jakie błędy…)
- Narzędzia (jakie narzędzia…)
Kanały testu
- ChatGPT (Search)
- Perplexity
Co zapisujemy
| Pole | Opis |
|---|---|
query | pytanie testowe |
cited | 0/1 (czy domena została zacytowana) |
engine | ChatGPT / Perplexity |
cited_url | URL, który został zacytowany |
date | data testu |
Definicje metryk (prosto)
ACR (AI Citation Rate)
ACR = (liczba pytań z cytowaniem) / (liczba pytań)
SOV-AI (Share of Voice)
SOV-AI = (Twoje cytowania) / (wszystkie cytowania w teście)
TTC (Time-to-Citation)
TTC = liczba dni od publikacji do pierwszego cytowania danego URL.
Progi i „zdrowe” widełki (dla 30 dni)
| Metryka | Cel 30 dni | Sygnał ostrzegawczy |
|---|---|---|
| ACR | ≥ 25% | < 10% |
| SOV-AI | ≥ 20% | < 5% |
| TTC (mediana) | ≤ 14 dni | > 30 dni |
Tabela benchmarku (do skopiowania)
| Pytanie | Intencja | Engine | Cytuje nas? | Cytowane domeny (skrót) | Uwagi |
|---|---|---|---|---|---|
| … | definicja / proces / porównanie / koszt | ChatGPT | 0/1 | domenaA, domenaB | np. brak tabel/FAQ |
Interpretacja wyników (co robić dalej)
Scenariusz 1: ACR rośnie, SOV-AI stoi
Jesteś cytowany częściej, ale nadal przegrywasz z liderem. Zwykle trzeba:
- dodać raporty danych (benchmarki, rankingi),
- zbudować klaster tematyczny (topical authority),
- poprawić linkowanie wewnętrzne.
Scenariusz 2: SOV-AI rośnie, ACR stoi
Wygrywasz w niszy, ale test jest za wąski. Dodaj pytania z kolejnych intencji.
Scenariusz 3: TTC rośnie
Nowe treści wchodzą wolniej — najczęściej brakuje:
- źródłowej struktury (tabele + FAQ),
- linkowania do nowych wpisów z filaru,
- aktualności (refresh).
FAQ
Czy 30 pytań to wystarczająco?
Tak na start. Kluczowe jest, żeby test robić regularnie. Możesz rozbudować do 50–100 pytań, ale tylko jeśli utrzymasz rytm.
Czy trzeba testować więcej niż jeden engine?
Warto. ChatGPT i Perplexity różnią się w sposobie cytowania. Dwa kanały to sensowne minimum, żeby nie optymalizować „pod jeden system”.
Jak szybko widać efekt zmian?
Zwykle po 7–14 dniach dla TTC, a stabilny trend po 3–4 tygodniach regularnych testów.
Co jest najszybszą poprawką, gdy nie ma cytowań?
Dodaj tabelę z kryteriami + ## FAQ (5–7 pytań) i popraw linkowanie wewnętrzne do wpisów z danymi.
Czy to jest raport „na produkcję”?
Tak — to format gotowy do publikacji jako Dataset (data report). Wystarczy uzupełnić tabelę wynikami z Waszego trackera lub testów ręcznych.
Chcesz zobaczyć więcej danych?
Sprawdź nasze inne raporty danych i analizy widoczności w AI.