Przejdź do treści
ARDURA Lab
ARDURA Lab
·2 min

Sitemap XML — jak stworzyć mapę strony dla Google?

SEO technicznesitemapindeksowanie

Czym jest sitemap XML?

Sitemap XML to plik zawierający listę wszystkich ważnych stron Twojej witryny, które powinny zostać zindeksowane przez wyszukiwarki. Plik sitemap informuje crawlery (np. Googlebot) o strukturze strony, priorytetach i datach ostatniej modyfikacji — ułatwiając efektywne skanowanie i odkrywanie nowych treści.

Sitemap jest szczególnie ważna dla dużych witryn (1000+ stron), nowych stron bez wielu backlinków i stron z dynamicznie generowanym contentem.

Dlaczego to ważne?

  • Szybsze indeksowanie — Google szybciej odkrywa nowe i zaktualizowane strony
  • Efektywne crawlowanie — crawler wie, które strony są najważniejsze
  • Diagnostyka — Google Search Console raportuje błędy indeksowania per URL z sitemapy
  • Duże witryny — bez sitemapy Google może nie odkryć stron głęboko w strukturze

Jak działa sitemap?

Sitemap to plik XML umieszczony najczęściej pod adresem /sitemap.xml. Zawiera:

<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
  <url>
    <loc>https://example.com/strona</loc>
    <lastmod>2026-03-01</lastmod>
  </url>
</urlset>

Kluczowe elementy:

  • loc — pełny URL strony (wymagany)
  • lastmod — data ostatniej modyfikacji (zalecany — ale musi być prawdziwy!)
  • changefreq — częstotliwość zmian (ignorowany przez Google)
  • priority — priorytet strony (ignorowany przez Google)

Najlepsze praktyki

  1. Umieść sitemapę w robots.txtSitemap: https://twojadomena.pl/sitemap.xml
  2. Zgłoś w Google Search Console — weryfikacja i monitoring statusu indeksowania
  3. Aktualne daty lastmod — zmieniaj datę TYLKO gdy treść się zmienia (nie przy każdym buildzie!)
  4. Tylko kanoniczne URL-e — nie dodawaj stron z noindex, przekierowań ani duplikatów
  5. Limit 50 000 URL — dla większych witryn użyj sitemap index
  6. Automatyczna generacja — frameworki jak Next.js i Astro generują sitemapę automatycznie

Szczegóły w naszym checklistie SEO technicznego.

Powiązane pojęcia

  • Robots.txt — plik kontrolujący dostęp crawlerów
  • Crawlability — zdolność strony do bycia przeskanowaną
  • Indeksowanie — proces dodawania do indeksu Google
  • SEO — optymalizacja pod wyszukiwarki
  • Canonical URL — wskazanie wersji kanonicznej strony

Potrzebujesz wsparcia?

Kompleksowe pozycjonowanie stron — sprawdź naszą ofertę.