Benchmark AI Visibility: jak zbudować test 20 pytań i mierzyć ACR oraz SOV-AI
Praktyczny benchmark widoczności w asystentach AI: jak dobrać pytania, jak ustalić konkurencję i jak mierzyć ACR oraz Share of Voice. Gotowy szablon testu i interpretacja wyników.
Benchmark AI Visibility: jak zbudować test 20 pytań i mierzyć ACR oraz SOV-AI
Bez benchmarku GEO łatwo wpaść w „wrażenia”: raz jesteśmy cytowani, raz nie, ale nie wiadomo, czy to trend, przypadek czy zmiana w treści. Najprostsze rozwiązanie to stały zestaw pytań testowych i regularny pomiar.
Zobacz też: Share of Voice w AI oraz Jak mierzyć ROI GEO?.
Co mierzymy (minimum)
ACR (AI Citation Rate)
ACR = (liczba pytań, gdzie Twoja domena jest cytowana) / (liczba pytań testowych)
SOV-AI (Share of Voice)
SOV-AI = (Twoje cytowania) / (wszystkie cytowania w danym teście)
ACR mówi „czy jesteś cytowany”, a SOV-AI mówi „czy wygrywasz w temacie”.
Jak zbudować zestaw 20 pytań (żeby nie był przypadkowy)
Najlepszy układ to 4 grupy intencji po 5 pytań:
- Definicje: „co to jest…”, „jak działa…”
- Proces: „jak wdrożyć…”, „krok po kroku…”
- Porównania: „X vs Y”, „jakie narzędzia…”
- Koszty/ryzyka: „ile kosztuje…”, „jakie są błędy…”
Każde pytanie powinno:
- dotyczyć Twojej branży,
- mieć realną intencję zakupową lub decyzyjną,
- mieć „miejsce na źródło” (dane, definicję, porównanie).
Jak wybrać konkurencję do SOV-AI
Minimum 3–5 domen:
- 1 lider (duży gracz),
- 1–2 średnich konkurentów,
- 1–2 niszowych specjalistów.
Nie wybieraj tylko „największych” — wtedy SOV-AI będzie zawsze niskie i demotywujące. Celem jest trend i progres.
Szablon tabeli do benchmarku
| Pytanie | System | Cytuje nas? | Jakie domeny cytuje? | Uwagi |
|---|---|---|---|---|
| … | ChatGPT | 0/1 | domenaA, domenaB | np. brak tabel w naszym wpisie |
Wystarczy prosta tabela w arkuszu + notatka, co poprawić w treści.
Krok po kroku: benchmark w 30 minut (co tydzień)
- Uruchom 20 pytań w 1–2 systemach (np. ChatGPT + Perplexity).
- Zapisz, czy jesteś cytowany (ACR) i jakie domeny pojawiają się łącznie (SOV-AI).
- Zaznacz 5 pytań, gdzie przegrywasz najbardziej (brak cytowania lub słabe domeny).
- Dopisz do backlogu konkretne zmiany w treści: tabela / FAQ / definicja / linkowanie.
- Porównaj wynik tydzień do tygodnia, nie „jednorazowo”.
Jak interpretować wyniki
- ACR rośnie, SOV-AI stoi: jesteś cytowany częściej, ale nadal przegrywasz z liderem — potrzebujesz klastra tematycznego i danych (benchmarki).
- SOV-AI rośnie, ACR stoi: wygrywasz w niszy, ale test jest za wąski — dodaj pytania w nowych intencjach.
- ACR spada: wpisy się starzeją lub konkurencja dopisała lepsze dane — zrób content refresh i dopisz FAQ.
FAQ
Czy 20 pytań to nie za mało?
To minimum, które da się robić regularnie. Jeśli masz zasoby, rozbuduj do 50 pytań, ale lepiej trzymać 20 i robić co tydzień niż 100 raz na kwartał.
Czy testować tylko jeden system?
Możesz zacząć od jednego, ale różnice w cytowaniach bywają duże. Dla GEO sensowne minimum to dwa systemy, np. ChatGPT i Perplexity.
Jak często mierzyć ACR i SOV-AI?
Najlepiej co tydzień, szczególnie gdy publikujesz nowe wpisy. Jeśli publikacje są rzadkie, wystarczy co 2 tygodnie, ale zachowaj stały rytm.
Co zrobić, gdy konkurencja cytuje się częściej?
Zwykle pomaga: dopisanie tabel z danymi, poprawa struktury nagłówków, mocniejsze FAQ oraz budowa klastra tematycznego (topical authority).
Skąd brać pytania do benchmarku?
Z rozmów sprzedażowych, listy obiekcji klientów, Search Console, oraz z własnych testów w asystentach AI. Najlepsze pytania to te, które padają „przed decyzją zakupową”.
Chcesz dowiedzieć się więcej o GEO?
Sprawdź nasze narzędzia do monitorowania widoczności w AI i rozpocznij optymalizację swojej strony.