Joomla.it Forum
Forum traduzioni italiano => Le traduzioni e le informazioni della community => Articoli della community => : ZioPal 23 Oct 2012, 00:23:57
-
Ciao a tutti,
proseguendo con lo sviluppo di quello che è stato l'argomento trattato nell'intervento al JoomlaDay sui contenuti duplicati è naturale, dopo aver visto nella prima parte (http://www.joomla.it/articoli-community-16-e-17-tab/6254-come-evitare-i-contenuti-duplicati-nel-tuo-sito-prima-parte.html) cosa sono e quali rischi puoi correre tralasciando d'intervenire, cercare di capire quali sono i modi d'intervento, cosa si aspettano da te motori di ricerca e quale filosofia dovrà muovere i tuoi accorgimenti.
Riflessioni ed approfondimenti.
Maurizio ZioPal
Link all'articolo: http://www.joomla.it/articoli-community-16-e-17-tab/6260-contenuti-duplicati-come-intervengo-seconda-parte.html
-
Complimenti (anche) per questo secondo articolo su un argomento molto interessante!
+1 ;)
-
Articolo molto interessante e completo. Di una chiarezza esemplare.
Complimenti.
-
Grazie xplosion e grazie fcforum, speriamo sia anche utilile. :)
Maurizio ZioPal
-
Complimenti per l'articolo e per come hai espletato il tuo talk a Torino!
Volevo farti una domanda sull'inserimento nel file robots.tx di una disallow specifico per una parola all'interno della url, ad esempio
http:www.mios.to/animali/items/mammiferi/cani.html
vorrei che queste url aventi items al suo interno non venissero seguite dagli spider.
In questo caso, se possibile, quale è la giusta sintassi da scrivere?
Grazie
-
Grazie giusebos,
non sono sivcuro di aver capito cosa vuoi escludere ma tieni presente che la sintassi è quella "DOS" per cui potresti escludere un file specificando il percorso, in relazione al dominio, direttamente nel file, se metti un * (asterisco) escludi tutto.
Considera che inserire troppi parametri nel file robots e pericoloso e se non ho capito male penso che faccia più al caso tuo la gestione del rel canonical.
Maurizio ZioPal
-
per tornare all'esempio:
http:www.mios.to/animali/items/mammiferi/cani.html
pensavo di scrivere così la mia esclusione:
Disallow: /*items
per intenderci sono i famosi url generati da k2
-
Lo avevo immaginato ma non lo farei perché rischi d'invalidare anche altri item.
Ti avrei suggerito d'installare metagenerator se non foose stato appena testato da Max con scarsi risultati per K2. Puoi provare TagMeta (http://extensions.joomla.org/extensions/site-management/seo-a-metadata/meta-data/7124) non l'ho ancora testato (lo farò per il la terza parte dell'articolo), am promette di gestire bene i rel canonical.
Tutto questo per dirti che non hai bisogno di toccare il robots.txt e puoi gestire tutto con un componente per il rel canonical.
Maurizio ZioPal
-
Ok grazie per le risposte. :)