Back to top

Autore Topic: Tag Title duplicati e Meta description duplicate(da strumenti Google Web Master)  (Letto 11085 volte)

Offline imejopitbul84

  • Esploratore
  • **
  • Post: 64
    • Mostra profilo
Ciauz a tutti, spero di postare nella sezione giusta, riscontro un paio di problemi con i Tag title che mi vengono duplicati e idem per le meta description...
Vi allego gli screen Shot almeno potete il casino che molto probabilmente ho fatto.
Il sito di cui parlo è questo.


Ho allegato 3 Screen..




Oggi nel file robots.txt ho aggiunto queste due stringhe che portano alla sitemap, è corretto scrivere quì dentro queste due stringhe ?

Sitemap: http://dominiosito.it/sitemap.xml
Sitemap: http://dominiosito.it/sitemap_mobile.xml


Grazie mille in anticipo !
Andrea





[allegato eliminato automaticamente dopo un anno]

Offline ZioPal

  • Abituale
  • ****
  • Post: 806
  • Sesso: Maschio
  • SWM - Servizi Web Marketing Roma
    • Mostra profilo
Ciao imejopitbul84,
hai un bel mucchio di contenuti duplicati, probabilmente dipende da una voce di menù.

Le stringhe nel robots vanno bene.

Maurizio ZioPal
 
Realizzazione e posizionamento siti web Roma
Realizzazione Siti Web Roma Twitter: @ZioPal Facebook: Maurizio Palermo

Offline giusebos

  • Fuori controllo
  • *
  • Post: 21748
  • Sesso: Maschio
  • Giuseppe Serbelloni Mazzanti Viendalmare
    • Mostra profilo
proprio ziopal ha scritto 3 interessanti articoli cercali fra gli articoli della comunity
su www.icagenda.it guide e tutorial con esempi di chronoforms e chronoconnectivity

Offline imejopitbul84

  • Esploratore
  • **
  • Post: 64
    • Mostra profilo
Ho cercato un pochetto tra gli articoli della comunity, ed ho trovato riscontri molto interessanti, che applicherò già da domani.
( poi dovrò manualmente cancellare il link doppio dall' indice di google, oppure faccio un redirect del doppio menu ?)



Una domanda, tutto ciò può far pesare l'indicizzazione e il posizionamento sui motori di ricerca con scarsi successi di visite ? ed in particolare il Page Rank, che stà a 0 ( è da luglio che c'è il nuovo sito).


mentre per per le parole chiave (in generale) il sito com'è messo secondo voi ?


Andiamo ancor di più in generale, il sito (senza parlare di grafica) è appetibile per i motori di ricerca ?
Vedete dei problemi a parte questo dei tag duplicati etcc ?


Grazie Mille ZioPal e giusebos ;-)

Offline imejopitbul84

  • Esploratore
  • **
  • Post: 64
    • Mostra profilo
Rieccomi di nuovo... come sempre ringrazio in anticipo tutti coloro che "perderanno" il loro prezioso tempo a leggere i miei post...


Una domanda al volo (ho letto una miriade di articoli sulla questione).....


Se aggiungo nel file robots.txt questa stringa : Disallow: /pagina.html per ogni link (ne ho circa 420) e poi vado nel pannello di google webmaster e cancello ogni singolo link, evito il continuo proliferare di link duplicati, per lo meno questi conosciuti... ?


P.S: ho controllato ogni singolo link che invio con la sitemap, ma questi link che invio non vengono inviati da mè  :'(


Grazie mille !!!
Andrea

Offline ZioPal

  • Abituale
  • ****
  • Post: 806
  • Sesso: Maschio
  • SWM - Servizi Web Marketing Roma
    • Mostra profilo
Ciao imejopitbul84,
se proprio hai voglia di scrivere 420 righe, fallo nel htaccess, ne senso ti conviene fare dei riedirect. :)

La cosa migliore sarebbe che tu riesca ad implementare per le pagine duplicate il rel canonical, quindi reindirizzarle con un 301, ed eventualmente cancellarle da GWT.

Quella del robots.txt è la strada sbagliata.

Maurizio ZioPal
Realizzazione e posizionamento siti web Roma
Realizzazione Siti Web Roma Twitter: @ZioPal Facebook: Maurizio Palermo

Offline imejopitbul84

  • Esploratore
  • **
  • Post: 64
    • Mostra profilo
Azz una volta che mi son fatto una cultura sul file robots vengo a scoprire che non è la strada migliore  :'(

Potresti gentilmente darmi uno spunto su come agire sul file htaccess ?

Guarda sono talmente disperato che sono disposto a inserirne manualmente anche a milioni di link, basta riuscire a mettere una pezza su questo problema...
doveva essere un sito di piacere/svago e si è rilevato fonte di grane  :'(
Dopo due anni dalla pollici one Page Rank di Google è ancora a 0  :'(
Grazie mille per tutto il supporto.
Andrea

Offline ZioPal

  • Abituale
  • ****
  • Post: 806
  • Sesso: Maschio
  • SWM - Servizi Web Marketing Roma
    • Mostra profilo
il file robots serve ma non in questo caso.

Per l'htaccess puoi far riferimento a questa discussione, ci sono esempi di reindirizzamento.

Maurizio ZioPal
Realizzazione e posizionamento siti web Roma
Realizzazione Siti Web Roma Twitter: @ZioPal Facebook: Maurizio Palermo

Offline imejopitbul84

  • Esploratore
  • **
  • Post: 64
    • Mostra profilo
Grazie Mille per l'imbeccata, anzi per le imbeccate ;-)
facciamo la prova del 9 ;-)

Io ho per esempio (reale) questi due link di cui uno è il duplicato segnalato da google


il sito è questo

Alcatel One Touch 922  (scheda)
/alcatel/351-alcatel-one-touch-922 (link esistente ed  inviato via sitemap)
/smartphone/alcatel/351-alcatel-one-touch-922 (link che trova google, ma non esiste un vero e proprio link)

ZioPal ti posso chiedere una gentilezza ??
Potresti vedere come si comporta il sito aprendo i due link... uno è corretto mentre l'altro fà un numero strano :o

Per evitare che al prossimo passaggio di google (via sitemap questi link non vengono inviati perchè non esistono) non trovi più questo link dovrei fare in questa maniera :

Il primo link è quello inesistente, mentre il secondo è quello esistente

Apro il file Htaccess e incollo la stringa:

Redirect 301 smartphone/alcatel/351-alcatel-one-touch-922/  alcatel/351-alcatel-one-touch-922/


Giusto ?

Fatto questo vado in strumenti per i web master di google e faccio la richiesta di rimozione del' Url duplicato, selezionando la voce di rimuovere la pagina dai risultati web e dalla cache.
in questo caso il file robots me lo posso scordare vero ?
Grazie Mille per la santa pazienza, ma ho voluto specificare passo passo per vedere se ho capito il tutto, ma sopratutto se è corretto lasciarne una traccia precisa per chi in futuro avrà o cercherà di risolvere lo stesso problema.

Grazie ancora

Andrea


« Ultima modifica: 12 Mar 2014, 19:18:51 da imejopitbul84 »

Offline ZioPal

  • Abituale
  • ****
  • Post: 806
  • Sesso: Maschio
  • SWM - Servizi Web Marketing Roma
    • Mostra profilo
Ciao imejopitbul84,
perdonami ma mi sono un po' perso.

Attualamte gli URL esistono tutti e due giusto?
Tu vorresti far fuori questo /alcatel/351-alcatel-one-touch-922? Perché a me sembra non abbia senso la seconda URL. :)

Comunque questa è una soluzione:
  • per primo si scrive redirect 301;[/*]
  • poi si mette il vecchio url, cioè quello che si vuole spostare, senza http://www.miosito;[/*]
  • infine si mette la url di destinazione (con il percorso completo).[/*]

    Potresti anche installare ReDJ che ti aiuta a gestire i reindirizzamenti.

    Citazione
    Fatto questo vado in strumenti per i web master di google e faccio la richiesta di rimozione del' Url duplicato, selezionando la voce di rimuovere la pagina dai risultati web e dalla cache.
    questo va bene, usa anche il robots, non è sbagliato, ma da solo non ti avrebbe aiutato.

    Dovrai segnare, in GWT, come risolto anche i duplicati che lui ti segnala.

    Usa screaming frog o xenu per fare il crawling del tuo sito perché per me hai anche altre pagine duplicate.

    Maurizio ZioPal



« Ultima modifica: 12 Mar 2014, 22:43:28 da ZioPal »
Realizzazione e posizionamento siti web Roma
Realizzazione Siti Web Roma Twitter: @ZioPal Facebook: Maurizio Palermo

Offline ZioPal

  • Abituale
  • ****
  • Post: 806
  • Sesso: Maschio
  • SWM - Servizi Web Marketing Roma
    • Mostra profilo
il redirect è giusto solo ora mi sono reso conto dei colori. :D

Realizzazione e posizionamento siti web Roma
Realizzazione Siti Web Roma Twitter: @ZioPal Facebook: Maurizio Palermo

Offline imejopitbul84

  • Esploratore
  • **
  • Post: 64
    • Mostra profilo

EHEH.. io mi ero già perso da un pò  :'(

il link che voglio far furori è /smartphone/351-alcatel-one-touch-922


Tutti i link che iniziano con /smartphone/etcc devo eliminarli perchè non sono una vera pagina, ma google sicuramente per un mio errore iniziale li vede come link (solo quel menu genera quel problema)


Ora siccome ne ho circa 420 di duplicati e siccome sono disperato scriverò a mano tutti i redirect 301 nel file Htaccess  :'(
Sperando che al prossimo giro di google non rilevi più questi...


passo 1° Htaccess
Redirect 301 smartphone/alcatel/351-alcatel-one-touch-922/  http://www.allsmartphone.it/alcatel/351-alcatel-one-touch-922/
Passo 2° Robots
Disallow: /smartphone/alcatel/351-alcatel-one-touch-922

3° GWT
Segnalare e far eliminare i link che sono segnati come duplicati

In questa maniera spero che non vengano più visti tutti questi errori...altrimenti getto la spugna  :'(
Sicuramente prima di fare il tutto proverò ReDJ, magari mi semplifica un pò il lavoro.
Appena finisco tutto faccio sapere com'è andata finire..

Grazie Mille

Andrea
« Ultima modifica: 13 Mar 2014, 17:26:18 da imejopitbul84 »

Offline ZioPal

  • Abituale
  • ****
  • Post: 806
  • Sesso: Maschio
  • SWM - Servizi Web Marketing Roma
    • Mostra profilo
tu ce la metti tutta per far casino però, questo  /smartphone/351-alcatel-one-touch-922 cos'è un terzo link :)

Citazione
passo 1° Htaccess
Redirect 301 smartphone/alcatel/351-alcatel-one-touch-922/  http://www.allsmartphone.it/alcatel/351-alcatel-one-touch-922/
Passo 2° Robots
Disallow: /smartphone/alcatel/351-alcatel-one-touch-922

3° GWT
Segnalare e far eliminare i link che sono segnati come duplicati

comunque la procedura è giusta ma se devi far fuori tutte quelle con  /smartphone/ o /smartphone/alcatel/ ti conviene inibire l'accesso da robots direttamente per la cartella:
Codice: [Seleziona]
Disallow: /smartphone/
Disallow: /smartphone/alcatel/


Maurizio ZioPal
« Ultima modifica: 13 Mar 2014, 19:33:32 da ZioPal »
Realizzazione e posizionamento siti web Roma
Realizzazione Siti Web Roma Twitter: @ZioPal Facebook: Maurizio Palermo

Offline domfitty

  • Nuovo arrivato
  • *
  • Post: 4
    • Mostra profilo
Ho un problema simile, mi aggancio a questa discussione e, se lo ritenete opportuno ne creo una nuova.

Ho migrato un sito da J1.5 a J3.2.

Le nuove pagine sono state indicizzate, solo alcuni vecchi URL anzichè restituire 404 restituiscono
- visivamente la homepage
- dal punto di vista dei tag quelli di 1 altra pagina esistente.

Risultato: problema di meta duplicati.

Ecco 1 esempio

URL corretto: http://www.webcilento.com/dove-dormire/hotel-4-5-stelle/hotel-le-piane.html
URL vecchio che duplica le info: http://www.webcilento.com/events/viewevent/208-castellabate+sagra+del+pescato+di+paranza+iv+edizione.html

Ho uno scarico su excel di tutti gli url duplicati (sono diverse centinaia!) e sto già separando i buoni dai cattivi.

Vorrei sapere dalla vostra esperienza quale sarebbe l'approccio migliore per risolvere: per ogni url "cattiva" 404 redirect tramite htaccess?

Offline ZioPal

  • Abituale
  • ****
  • Post: 806
  • Sesso: Maschio
  • SWM - Servizi Web Marketing Roma
    • Mostra profilo
Ciao domfitty,
visto che hai già scaricato il file excel non ti resta che fare i redirect 301 alla pagina che desideri.

Maurizio ZioPal
Realizzazione e posizionamento siti web Roma
Realizzazione Siti Web Roma Twitter: @ZioPal Facebook: Maurizio Palermo

Offline domfitty

  • Nuovo arrivato
  • *
  • Post: 4
    • Mostra profilo
Ciao domfitty,
visto che hai già scaricato il file excel non ti resta che fare i redirect 301 alla pagina che desideri.

Maurizio ZioPal

Grazie 1000, li reindirizzo tutti sulla 404.

htaccess è il metodo più giusto no?
Mica devo richiedere anche la rimozione da google?

Offline ZioPal

  • Abituale
  • ****
  • Post: 806
  • Sesso: Maschio
  • SWM - Servizi Web Marketing Roma
    • Mostra profilo

htaccess è il metodo più giusto no?
Mica devo richiedere anche la rimozione da google?

se non sono molte si, se non c'è un motivo particolare per tenerle farei anche la richiesta di rimozione

Maurizio ZioPal
Realizzazione e posizionamento siti web Roma
Realizzazione Siti Web Roma Twitter: @ZioPal Facebook: Maurizio Palermo

Offline domfitty

  • Nuovo arrivato
  • *
  • Post: 4
    • Mostra profilo
se non sono molte si, se non c'è un motivo particolare per tenerle farei anche la richiesta di rimozione

Maurizio ZioPal

Sono diverse centinaia! Con la funzione concatena di excel faccio presto a generare il codice per l'htaccess.

C'è qualche metodo alternativo preferibile?

Offline ZioPal

  • Abituale
  • ****
  • Post: 806
  • Sesso: Maschio
  • SWM - Servizi Web Marketing Roma
    • Mostra profilo

C'è qualche metodo alternativo preferibile?

Il migliore è l'htaccess il contro è non farlo diventare troppo grande. In altenativa potresti usare il già citato ReDJ.

Maurizio ZioPal
Realizzazione e posizionamento siti web Roma
Realizzazione Siti Web Roma Twitter: @ZioPal Facebook: Maurizio Palermo

Offline imejopitbul84

  • Esploratore
  • **
  • Post: 64
    • Mostra profilo
tu ce la metti tutta per far casino però, questo  /smartphone/351-alcatel-one-touch-922 cos'è un terzo link :)

comunque la procedura è giusta ma se devi far fuori tutte quelle con  /smartphone/ o /smartphone/alcatel/ ti conviene inibire l'accesso da robots direttamente per la cartella:
Codice: [Seleziona]
Disallow: /smartphone/
Disallow: /smartphone/alcatel/


Maurizio ZioPal



Ciao ZioPal, ho aggiunto al file robots Disallow: /smartphone/  così da non far più trovare a google i link duplicati, ti allego due screen


Ho inviato la richiesta a google di eliminare i link dalla directory e dalla cache, speriamo in bene ( sopratutto che non li trovi!!! ;-)


Mi consigli comunque di fare il procedimento redirect 301 per ogni link duplicato, oppure attendo e vedo come agisce la stringa sul file robots ?


Grazie Mille per la tua immensa pazienza  ;D


 

[allegato eliminato automaticamente dopo un anno]

 



Web Design Bolzano Kreatif