4.7/5 (6)

Co to jest plik robots.txt?

SEO
28 września 2023 (aktualizacja: 28 listopada 2024)

Czy kiedykolwiek zastanawiałeś się, jakie tajemnice kryją się za kulisami twojej witryny internetowej, które mają wpływ na jej widoczność w wyszukiwarkach? Jednym z takich elementów, który odgrywa kluczową rolę w świecie SEO, a mogłeś o nim nie wiedzieć, jest niewielki, ale potężny plik tekstowy robots.txt. Zastanawiasz się czym on jest, i jak można go wykorzystać podczas pozycjonowania? Dowiedz się tego z poniższego artykułu, zapraszamy po dawkę SEO wiedzy!

Co to jest plik robots.txt?

Plik robots.txt to niewielki tekstowy dokument umieszczony w głównym katalogu witryny internetowej. Jego główną funkcją jest dostarczanie instrukcji dla robotów wyszukiwarek, takich jak Googlebot, dotyczących tego, które strony lub sekcje witryny powinny być skanowane i indeksowane, a które powinny zostać pominięte (robots exclusion protocol). Najprostszym sposobem na sprawdzenie jak wygląda plik robots.txt i czy znajduje się on w obrębie Twojej witryny, jest wpisanie w pasku adresu przeglądarki: twoja-domena.pl/robots.txt.

Zobaczysz wtedy zwykły plik tekstowy, który w głównej mierze odpowiada za to, jak roboty wyszukiwarek zachowują się po wejściu na Twoją stronę.

Do czego służy plik robots.txt?

Zapisy w pliku robots służą przede wszystkim do komunikacji z robotami wyszukiwarek. Umożliwiają one właścicielom stron m.in:

  • Zabezpieczanie wybranych treści: Z pomocą pliku robots.txt możemy uniemożliwić robotom wyszukiwarek dostęp do określonych sekcji naszej strony, np. części administracyjnej bądź katalogów, które zawierają poufne dane
  • Optymalizacja crawlowania: Blokując dostęp do mniej ważnych sekcji, możemy skupić roboty na kluczowych częściach witryny, poprawiając tym samym jej widoczność w wynikach wyszukiwania. Jest to jeden z istotnych aspektów optymalizacji Crawl Budget, zwłaszcza w przypadku dużych sklepów internetowych
  • Zapobieganie problemom z duplikacją: Jeśli mamy strony o podobnej treści, możemy użyć pliku robots.txt, aby unikać problemów z duplikatami w wynikach wyszukiwania, blokując odpowiednie schematy adresów np. związane z wynikami wewnętrznej wyszukiwarki, przez co Google Bot nie będzie ich indeksował.

Jak utworzyć plik robots.txt?

Tworzenie pliku robots.txt to proces prosty, lecz wymagający wiedzy. Aby stworzyć taki plik, rozpocznij od utworzenia zwykłego dokumentu tekstowego pod nazwą „robots.txt”. W tym pliku możesz umieścić konkretne instrukcje, które będą mówiły robotom wyszukiwarek, jakie sekcje Twojej strony mają zostać zeskanowane, a jakie mają zostać pominięte. Podstawowe dyrektywy, takie jak „User-agent”, „Disallow” oraz „Allow”, służą do określenia rodzaju robota i ścieżek dostępu, które mają zostać zablokowane lub dozwolone.

Gdy plik robots.txt jest już gotowy, umieść go w głównym katalogu swojego serwera. Upewnij się, że jest dostępny pod adresem Twojej strony internetowej poprzedzonym przez „/robots.txt” (na przykład: https://twojadomena.pl/robots.txt). Pamiętaj, aby regularnie monitorować i aktualizować swój plik robots.txt, aby zapewnić, że dostarcza on aktualnych instrukcji dla robotów wyszukiwarek.

Plik robots.txt – przykładowe zapisy

Poniżej przedstawiamy kilka przykładowych zapisów, które można wprowadzić w pliku robots.txt oraz wskazujemy ich wpływ na zachowanie robotów indeksujących. Pamiętaj jednak, że każdorazowo warto sprawdzić, czy blokując określone zasoby, nie zostały zablokowane rzeczy do których roboty powinny mieć dostęp.

Indeksowany nie będzie tylko plik logo.png” w katalogu „/obrazy”:

User-agent: *
Disallow: /directory/file.html

Zablokowanie przed indeksowaniem całej strony:

User-agent: *
Disallow: /

Zablokowanie przed indeksowaniem całej strony:

User-agent: *
Disallow: /obrazy/
Disallow: /teksty/

Testowanie pliku robots.txt

Po utworzeniu pliku robots.txt niezmiernie ważne jest jego przetestowanie. temu możemy upewnić się, że roboty wyszukiwarek interpretują nasze instrukcje zgodnie z naszymi intencjami. Google dostarcza narzędzie do testowania pliku robots.txt w ramach Google Search Console. Narzędzie to pozwala użytkownikowi zobaczyć, jak roboty Google interpretują zawartość pliku, umożliwiając szybką identyfikację i naprawę ewentualnych problemów.

Nie jest to jednak jedyny krok w procesie testowania indeksacji, w tym wpływu pliku robots.txt na zachowanie robotów wyszukiwarek. Równie ważne jest monitorowanie raportów dotyczących indeksowania w Google Search Console. Pozwala to łatwo zidentyfikować, czy roboty faktycznie przestrzegają dyrektyw zawartych w pliku robots.txt oraz czy nie napotykają na nieprzewidziane bariery podczas skanowania strony. Pamiętaj, że regularne testowanie i monitorowanie pliku robots.txt jest kluczem do skutecznej optymalizacji witryny w wyszukiwarkach.

Plik robots.txt i jego wpływ na SEO

Podsumowując, plik robots.txt jest jednym z mechanizmów „Robots Exclusion Protocol”, umożliwiających informowanie roboty indeksujące o tym, czego nie powinny robić na stronie internetowej. Zawartość pliku robots pozwala nam komunikować się z robotami wyszukiwarek, decydując, które części naszej witryny powinny zostać zeskanowane, a które pominięte. Właściwie skonfigurowany plik robots.txt nie tylko chroni wrażliwe sekcje naszej strony przed niepożądanym indeksowaniem, ale również optymalizuje proces skanowania, co w dłuższej perspektywie może prowadzić do lepszej widoczności witryny w wynikach wyszukiwania.

Autor
Norbert Zbylut
Head of SEO
Zobacz wszystkie wpisy 20
Poprzedni wpis
Sprawdzeni Kompani – Tamago Software
Spis treści
Spodobał się artykuł?
Udostępnij

    Bądź na bieżąco
    w branży UX/UI i SEO
    Twój e-mail
    Poznaj nasze rozwiązania UX/UI/SEO
    Chcesz dotrzeć do nowych użytkowników i zwiększyć konwersję swoich działań?
    Skontaktuj się z nami