Joomla.it Forum

Forum traduzioni italiano => Le traduzioni e le informazioni della community => Articoli della community => : ZioPal 23 Oct 2012, 00:23:57

: Contenuti duplicati, come intervengo? - Seconda Parte
: ZioPal 23 Oct 2012, 00:23:57
Ciao a tutti,
proseguendo con lo sviluppo di quello che è stato l'argomento trattato nell'intervento al JoomlaDay sui contenuti duplicati è naturale, dopo aver visto nella prima parte (http://www.joomla.it/articoli-community-16-e-17-tab/6254-come-evitare-i-contenuti-duplicati-nel-tuo-sito-prima-parte.html) cosa sono e quali rischi puoi correre tralasciando d'intervenire, cercare di capire quali sono i modi d'intervento, cosa si aspettano da te motori di ricerca e quale filosofia dovrà muovere i tuoi accorgimenti.

Riflessioni ed approfondimenti.

Maurizio ZioPal

Link all'articolo: http://www.joomla.it/articoli-community-16-e-17-tab/6260-contenuti-duplicati-come-intervengo-seconda-parte.html
: Re:Contenuti duplicati, come intervengo? - Seconda Parte
: xplosion 23 Oct 2012, 09:41:35
Complimenti (anche) per questo secondo articolo su un argomento molto interessante!
+1  ;)
: Re:Contenuti duplicati, come intervengo? - Seconda Parte
: fcforum 23 Oct 2012, 10:12:20
Articolo molto interessante e completo. Di una chiarezza esemplare.
Complimenti.
: Re:Contenuti duplicati, come intervengo? - Seconda Parte
: ZioPal 23 Oct 2012, 16:28:56
Grazie xplosion e grazie fcforum, speriamo sia anche utilile. :)

Maurizio ZioPal
: Re:Contenuti duplicati, come intervengo? - Seconda Parte
: giusebos 23 Oct 2012, 16:41:18
Complimenti per l'articolo e per come hai espletato il tuo talk a Torino!

Volevo farti una domanda sull'inserimento nel file robots.tx di una disallow specifico per una parola all'interno della url, ad esempio

http:www.mios.to/animali/items/mammiferi/cani.html

vorrei che queste url aventi items al suo interno non venissero seguite dagli spider.

In questo caso, se possibile, quale è la giusta sintassi da scrivere?

Grazie
: Re:Contenuti duplicati, come intervengo? - Seconda Parte
: ZioPal 23 Oct 2012, 17:20:48
Grazie giusebos,
non sono sivcuro di aver capito cosa vuoi escludere ma tieni presente che la sintassi è quella "DOS" per cui potresti escludere un file specificando il percorso, in relazione al dominio, direttamente nel file, se metti un * (asterisco) escludi tutto.

Considera che inserire troppi parametri nel file robots e pericoloso e se non ho capito male penso che faccia più al caso tuo la gestione del rel canonical.

Maurizio ZioPal
: Re:Contenuti duplicati, come intervengo? - Seconda Parte
: giusebos 23 Oct 2012, 17:33:11
per tornare all'esempio:
:
http:www.mios.to/animali/items/mammiferi/cani.htmlpensavo di scrivere così la mia esclusione:
:
Disallow: /*items
per intenderci sono i famosi url generati da k2


: Re:Contenuti duplicati, come intervengo? - Seconda Parte
: ZioPal 23 Oct 2012, 18:55:51
Lo avevo immaginato ma non lo farei perché rischi d'invalidare anche altri item.

Ti avrei suggerito d'installare metagenerator se non foose stato appena testato da Max con scarsi risultati per K2. Puoi provare TagMeta (http://extensions.joomla.org/extensions/site-management/seo-a-metadata/meta-data/7124) non l'ho ancora testato (lo farò per il la terza parte dell'articolo), am promette di gestire bene i rel canonical.

Tutto questo per dirti che non hai bisogno di toccare il robots.txt e puoi gestire tutto con un componente per il rel canonical.

Maurizio ZioPal 
: Re:Contenuti duplicati, come intervengo? - Seconda Parte
: giusebos 23 Oct 2012, 19:18:48
Ok grazie per le risposte. :)