View Categories

Cum să creezi și să configurezi un fișier robots.txt

Fișierul robots.txt este un element esențial pentru optimizarea SEO și gestionarea accesului motoarelor de căutare pe site-ul tău. Acest fișier controlează modul în care crawler-ele indexează paginile site-ului, ajutând la direcționarea traficului și protejarea conținutului sensibil. În acest ghid, îți vom explica ce este un fișier robots.txt, cum să-l creezi și să-l configurezi corect.

Ce este un fișier robots.txt?

Fișierul robots.txt este un fișier text plasat în directorul rădăcină al site-ului tău, utilizat pentru a instrui motoarele de căutare cu privire la paginile care pot sau nu pot fi accesate. Acesta folosește protocolul Robots Exclusion Standard(REP) și este primul fișier pe care un crawler îl verifică înainte de a indexa site-ul.

De ce este important fișierul robots.txt?

  • Îmbunătățește eficiența indexării – Permite motoarelor de căutare să se concentreze pe paginile importante.
  • Protejează paginile sensibile – Blochează accesul la pagini precum panoul de administrare.
  • Ajută la gestionarea resurselor site-ului – Evită supraîncărcarea serverului de către crawlere.

Cum să creezi un fișier robots.txt?

  1. Deschide un editor de text – Poți folosi Notepad (Windows), TextEdit (Mac) sau un editor avansat precum VS Code.
  2. Creează un fișier nou și denumește-l „robots.txt”.
  3. Adaugă reguli de acces – Exemplu de bază:User-agent: * Disallow: /admin/ Disallow: /private/ Allow: /public/
  4. Salvează fișierul și încarcă-l în directorul rădăcină al site-ului.
  5. Testează fișierul – Utilizează Google Search Console pentru a verifica dacă regulile sunt aplicate corect.

Exemple de reguli robots.txt

✔️ Permite accesul la toate paginile:

User-agent: *
Disallow:

✔️ Blochează toate crawlerele:

User-agent: *
Disallow: /

✔️ Blochează doar un anumit crawler (Googlebot):

User-agent: Googlebot
Disallow: /

✔️ Permite accesul doar la anumite pagini:

User-agent: *
Disallow: /
Allow: /pagina-importanta.html

Cum să verifici și să optimizezi fișierul robots.txt?

  • Folosește Google Search Console – Mergi la „Crawl” > „robots.txt Tester”.
  • Verifică erorile – Dacă ai reguli incorecte, corectează-le și reîncarcă fișierul.
  • Asigură-te că nu blochezi pagini importante – Evită blocarea neintenționată a conținutului relevant pentru SEO.