Back to top

Autore Topic: robots: giusto cosė?  (Letto 1107 volte)

paolo192

  • Visitatore
robots: giusto cosė?
« il: 16 Giu 2011, 19:56:51 »
Scusate l'ignoranza ma prima di fare danni preferisco chiedere.
Mi ritrovo con decine di url duplicati - esempio:
/component/content/article/2-non-categorizzato/24-simboli
/component/content/article/2-non-categorizzato/25-luoghi
/ospitalita/shopping/edicole/2-non-categorizzato/24-simboli
/centro-congressi/2-non-categorizzato/26-nomi

pensavo quindi di intervenire con una regola nel file robots.txt.
Visto che la costante č il "2-non-categorizzato" come dovrei scrivere il comando disallow?

Offline 56francesco

  • Fuori controllo
  • *
  • Post: 29585
  • Sesso: Maschio
    • Mostra profilo
Re:robots: giusto cosė?
« Risposta #1 il: 16 Giu 2011, 20:03:26 »
che centra il disallow?

e quelli non sono url duplicati, sono diversi da quanto vedo, forse hai pių menų che puntano agli stessi contenuti, nel caso modifica quelli e usa la voce di menų di tipo alias
anche modificare spesso i menų comporta problemi.
(uso XP perchč win98 non si installa) 
PS: non sono un dipendente dello sbonzor quindi č necessario un "per favore" alla richiesta e un "grazie" alla risposta, sempre! PPS: non scrivo mai per primo in MP, in caso contrario chiedimi una conferma, Grazie.

 



Web Design Bolzano Kreatif