Google Search Console neseniai pradėjo siuntinėti dar vieno tipo įspėjimus šiame įrankyje užsiregistravusiems naudotojams.

New Coverage issue detected for site

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pranešime sakoma, kad yra atrasta problema – mes savo robots.txt faile blokuojame kažką ir neleidžiame Google robotams suindeksuoti tam, kad po to rodyti Google paieškos rezultatuose.

Pirmiausia reikėtų suprasti ar tikrai yra problema. Gal tam tikra tinklapio dalis specialiai užblokuota nuo robotų. Google gi nežino apie tai ir klaidina rašydama, kad problema. Tiksliau būtų sakyti, kad „galimai yra problema”.

Taigi atsidarote jusutinklapis.lt/robots.txt ir pažiūrite, kas parašyta eilutėse su „disallow” žodžiu.
Pvz. webconsulting.lt/robots.txt
robots.txt

 

 

 

 

 

 

 

Taip pamatote, kokios tinklapio dalys blokuojamos. Jei nežinote ar turi būti šios dalys blokuojamos, klausiate programuotojo.
Webconsulting atveju, matau, kad užblokuotos trys vietos ir pamenu, kokiu tikslu aš tai padariau. Žinau, kad viskas taip ir turi būti.

Jei žinote, kad blokuojama kažkas per klaidą, tuomet kreipkitės į programuotoją, kad ištrintų tas eilutes, kurios blokuoja. Jei esate pažengęs interneto naudotojas, tai galite padaryti patys:
  1. Prisijungiate prie savo webhostingo paskyros
  2. Parsisiunčiate robots.txt failą
  3. Ištrinate per klaidą ribojančias eilutes
  4. Išsaugote failą
  5. Įkeliate atgal į serverį
  6. Pasižiūrite per naršyklę robots.txt failą, ar jis toks yra dabar, koks turi būti.

 

Norite daugiau sužinoti apie tai ir kitas SEO „paslaptis”, pradėkite savarankiškas SEO studijas Webakademijoje.