Controlul paginilor de indexat se face foarte usor cu ajutorul unui fisier robots.txt ce se urca in root-ul site-ului. Exemple de sintaxa:
User-agent: *Aceasta regula arata ca toate paginile sunt indexabile de toti botii.
Disallow:
User-agent: GooglebotAceasta regula arata ca nici o pagina din site nu este indexabila de Googlebot.
Disallow:/*
User-agent: *Aceasta regula arata ca nicio pagina care se termina in /feed/ nu este indexabila . In plus, directorul /disclaimer/ este si el neindexabil si la fel orice link care contine parametri.
Disallow: */feed/
Disallow: */trackback/
Disallow: /disclaimer/
Disallow: /*?*
Sintaxa robots-ului este foarte simpla si usor de folosit. Ea nu permite expresii regulate insa cu ceva efort, se poate elimina cam orice tip de pagina de la indexare.
Niciun comentariu:
Trimiteți un comentariu