Prilagodite robote za WordPress | Workion. ru

Neki početnici koji stvaraju WordPress stranice sigurni su da nakon instalacije motora možete početi popunjavati stranicu. U stvari, postoji mnogo suptilnosti o kojima morate razmišljati prije nego što roboti za pretraživanje počnu indeksirati web-lokaciju.

Datoteka robota. txt sadrži podatke koji pomažu ograničiti tražilice od nepotrebnih informacija na web-lokaciji, njegova prisutnost i konfiguracija je obavezna.

Datoteka robota. WordPress txt se instalira prema zadanim postavkama, tako da je sve što trebate učiniti postaviti. U robotima.

1 19 '' u robotima. Txt, koji je po defaultu instaliran, već sadrži neke podatke, primjerice string User-agent. Ovaj redak omogućuje vam da odredite za koji pretraživački robot postavljate. Simbol * označava da su postavke zajedničke svim robotima tražilica.

Ako je potrebno, možete unijeti u liniju User-agent ime jednog od robota tražilice i tako postaviti pojedinačne parametre. Ovdje su imena robota za pretraživanje:

Prilagodite robote za WordPress | Workion. ru

U svakoj od tražilica nalaze se i pojedinačni roboti koji su odgovorni za određeni sadržaj. U mreži možete pronaći imena svakog od njih, ali se vrlo rijetko koriste. Na primjer, zamislite nekoliko Yandex robota:

Prilagodite robote za WordPress | Workion. ru

Sljedeći važni dijelovi robotske datoteke. txt su direktive Disallow, Host i Satemap.

Disallow - zahvaljujući toj vrijednosti možete sakriti neke informacije o web-lokaciji iz pretraživačkih robota. Zadani u vašim robotima. txt bi trebao biti već zatvoren od indeksiranja sljedećih direktorija:

Disallow: / wp-admin /
Disallow: / wp-includes /
Disallow: / wp-trackback
Disallow: / wp-feed
Disallow: / wp-comments
Disallow: / wp-content / plugins
Disallow: / wp-content / themes
Disallow: / wp-login. php
Disallow: / wp-register. php

Ovo nije cijeli popis zatvorenih direktorija koji sadrže različite stranice dodataka, predmemorije, administrativne ploče i drugih direktorija.

Što je bolje zatvoriti iz robota za pretraživanje?

To ne mora biti jedinstveni sadržaj ili dvostruke stranice. Kao što praksa pokazuje, kada koristite CMS, mnogi ljudi imaju problema s duplikatima, koje je najlakše sakriti.

Host - sljedeća funkcija omogućuje vam da odredite glavnu adresu web-mjesta. Čak i ako vaša web-lokacija ima jednu domenu, ona ima dvije vrijednosti, na primjer, www. workion. ru i samo rad. ru. Kada kupujete veze, morate koristiti jednu od vrsta URL-ova vaše web-lokacije i datoteku robota. txt, odredite koji je glavni.

Satemap - ovaj redak označava put do karte web-lokacije. Stvaranje sitemapa na WordPress-u nije teško, postoje posebni dodaci za to. Potrebno je da tražilice brzo pronađu nove materijale za indeksiranje.

Pitanja o konfiguriranju robota. txt

Moji redoviti čitatelji doslovce zaspavaju s raznim pitanjima vezanim uz ovu datoteku. Da ne bismo pisali istu stvar mnogo puta, odlučio sam sastaviti popis popularnih pitanja i odgovoriti na njih:

  1. Kako spriječiti indeksiranje stranice?

Da biste zabranili indeksiranje jedne stranice, upotrijebite Onemogući funkciju, evo primjera:

Disallow: http: // www. domene. ru / shop / 22

  1. Kako zabraniti indeksiranje web-mjesta?

Također je korisno za Disallow, stavi vezu na korijen stranice (može se instalirati za određene tražilice pomoću Korisnički agent):

Disallow: /

  1. Kako odrediti Sitemap?

Da tražilice ispravno pronađu kartu web-lokacije koristite funkciju Sitemap:

Sitemap: http: // sait / sitemap. xml

  1. Kako onemogućiti prekinute veze?

Kada rade različiti dodaci, mogu se pojaviti prekinute veze. Kako ne biste u potpunosti zabranili komponente, definirajte ih i dodajte Robote u kôd:

Disallow: / index. php? option = com_jreviews. Itemid = 91

  1. Kako onemogućiti indeksiranje poddomene?

Da biste zatvorili poddomenu, morate stvoriti robote u korijenu sekundarne stranice. txt i tamo propisuju isti kod kao u drugom pitanju (potpuna zabrana indeksiranja stranice).

Evo nekoliko jednostavnih rješenja za složena pitanja. Za ovo se često zanimaju novajlije, pa bi informacije trebale biti korisne.

Ispravni roboti za WordPress, kako konfigurirati?

Za svaku stranicu morate stvoriti pojedinačnu datoteku robota. txt za Workion blog.ru izgleda ovako:

User-agent: *
Disallow: / wp-admin
Disallow: / wp-includes
Disallow: / wp -content / plugins
Disallow: / wp-content / cache
Disallow: / wp-content / themes
Disallow: / trackback
Disallow: * / trackback
Disallow: * / * / trackback
Disallow: * / * / feed / * /
Disallow: * / feed
Disallow : / *? *
Disallow: / tag

Korisnički agent: Yandex
Disallow: / wp-admin
Onemogući: / wp-includes
Disallow: / wp-content / plugins
Disallow: / wp-content / cache
Disallow: / wp-content / themes
Disallow: / trackback
Disallow: * / trackback
Disallow: * / * / trackback
Disallow: * / * / feed / * /
Disallow: * / feed
Disallow: / *? *
Disallow: / tag
Host: your_site. ru

Sitemap: http: // your_site. ru / sitemap. XML. gz
Sitemap: http: // your_site. ru / sitemap. xml

Ako ste već izradili web-lokaciju na CMS WordPress-u i nikada niste obratili pozornost na datoteku robota. txt, preporučujemo da to učinite. Tako da čak ni početnici nemaju problema prilikom postavljanja ove važne datoteke, da vidimo u čemu su sve te linije napisane:

User-agent: - označava da će sva navedena pravila biti uzeta u obzir od strane svih tražilice. Ako je potrebno postaviti pravila za određenu tražilicu, određuje se format User-agent: Yandex.

Dopusti je inverzna funkcija Disallowa, omogućuje indeksiranje (za WordPress ne možete ga koristiti).

Asterisk * - označava proizvoljan skup znakova.

Ostale funkcije su već opisane u ovom članku. U principu, razumjeti to nije potrebno, jer možete uzeti gotovu verziju malo više. Službena internetska stranica Yandexa sadrži detaljan opis svih važnih točaka za postavljanje robota. txt (

1).

Nakon postavljanja različitih parametara i instaliranja iznad navedenog koda pojavili su se problemi. Ispalo je da stranica nije konfigurirana CNC (što je URL i CNC). Ako na vašem resursu nema adresa koje se mogu čitati, upotrijebite sljedeći kod u robotima. txt:

Korisnički agent: *
Disallow: / cgi-bin
Disallow: / wp-admin
Disallow: / wp-includes
Disallow: / wp-content / plugins
Disallow: / wp-content / cache
Disallow: / wp-content / themes
Disallow: / trackback
Disallow: * / trackback
Ne dopuštam: * / * / trackback
Disallow: * / * / feed / * /
Disallow: * / feed
Disallow: / tag
Korisnički agent: Yandex
Disallow: / cgi-bin
Disallow: / wp-admin
Disallow: / wp-includes
Disallow: / wp-content / plugins
Disallow: / wp-content / cache
Disallow: / wp-content / teme
Disallow: / trackback
Disallow: * / trackback
Disallow: * / * / trackback
Disallow: * / * / feed / * /
Disallow: * / feed
Disallow: / tag
Host: your_site. ru
Sitemap: http: // your_site / sitemap. XML. gz
Sitemap: http: // your_site / sitemap. xml

Svaki put nakon što napravite promjene u ovoj datoteci, provjerite. Za to tražilice imaju posebne alate ().

Ako ne želite ručno konfigurirati ovu datoteku, možete koristiti dodatak za konfiguriranje robota. Sve u jednom SEO Pack.

Pretraživanje robota ne može samostalno odrediti na koje direktorije vaše web-lokacije ići i što točno indeksirati.

Potrebna im je pomoć u vezi s tim, i postavljanje robota. txt stvarno pomaže u tome . Učinite to tako da je ova datoteka idealna za vaš resurs, ovo je jedna od važnih točaka optimizacije.

Zainteresirani ste i za:
- Kako doći do prirodnih veza?
- Besplatni graditelj web stranica
- Negativan utjecaj pokretanja direktorija

traži

povezani članci