Back to top

Autore Topic: Robots per url duplicate  (Letto 984 volte)

Offline fabioweb

  • Appassionato
  • ***
  • Post: 443
    • Mostra profilo
Robots per url duplicate
« il: 29 Mag 2015, 22:31:41 »
Ciao a tutti!
ho un centinaio di url segnalate come dupicate in GWT

Es: /chioschi/?custom_f_35%5B0%5D=5&order=ASC&orderby=category_name

Se inserissi questo parametro nel robots.txt potrebbe essere una buona soluzione??

User-agent: *
 Disallow: /*?*

Grazie a tutti!

 



Web Design Bolzano Kreatif