Back to top

Autore Topic: "Errori di scansione" (report da strumenti per webmasters di Google)  (Letto 1627 volte)

Offline willy_bis

  • Appassionato
  • ***
  • Post: 214
  • Sesso: Maschio
    • Mostra profilo

Buona sera a tutt@, da una settimana ho dato in pasto il sito agli strumenti in oggetto, sitemap.xml inclusa, e oggi mi trovo con alcuni report che vorrei capire per quali motivi succedono. Il Googlebot mi ha trovato 500 errori di scansione nel mio sito joomla :o e me li elenca a mo di url tipo
"index.php?lang=en&Itemid=162&format=feed&type=atom&option=com_content" e così via. Ma cosa vuol dire ? Che cosa può dare errori di scansione delle pagine quando io le provo tutte e tutte funzionano? Perché mi dice che su alcune pagine non riesce ad accedere e se io clicco sull'URL dichiarato "erroneo" infatti non funziona? Da dove tira fuori degli URL che non funzionano?   I codici di errore di queste pagine è 500. Negli articoli dico di non visualizzare links NON autorizzati. Sarà per questo ? Devo dire di permettere la visualizzazione? (non ho gestione di utenti registrati)


In soldoni la mia domanda: alcuno ha avuto a che fare con questi reports ? Qualcuno ha avuto errori di scansione del sito ?  qualcuno ha capito i motivi e potrebbe darmi delle dritte?


*ultimo momento*  mi è sfuggita una domandina: è meglio abilitare tutte le cartelle nel file robots.txt ? oppure, quali cartelle sarebbe meglio bloccare ?  Grazie ancora

« Ultima modifica: 13 Mar 2012, 22:52:36 da willy_bis »
Using Joomla 2.5x

Offline Fabrizio Fiorita

  • Abituale
  • ****
  • Post: 1315
  • Sesso: Maschio
    • Mostra profilo
Ciao.
Secondo la fisica il calabrone non potrebbe volare.
Ma siccome il calabrone non ha studiato fisica, continua a volare lo stesso.
Lascia perdere i reports degli strumenti di scansione: spesso non funzionano proprio come dovrebbero.
Al mio sito sono stati trovati circa 2000 errori su una pagina: peccato che poi, andando a vedere bene, il programma di scansione non si è accorto che utilizzo HTML5 e CSS3 e mi considerava "utente" di HTML4.1 e CSS2.1

Circa robots.txt ti consiglio:

Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /logs/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Fabrizio
Per programmare servono i tasti e la testa. Peccato che molti usino solo i primi...
Vai a vedere il mio sito: http://www.fabriziofiorita.joomlafree.it/index.php?option=com_content&view=featured&Itemid=101

Offline willy_bis

  • Appassionato
  • ***
  • Post: 214
  • Sesso: Maschio
    • Mostra profilo
Ciao.
Secondo la fisica il calabrone non potrebbe volare.
Ma siccome il calabrone non ha studiato fisica, continua a volare lo stesso.
Lascia perdere i reports degli strumenti di scansione: spesso non funzionano proprio come dovrebbero.
Al mio sito sono stati trovati circa 2000 errori su una pagina: peccato che poi, andando a vedere bene, il programma di scansione non si è accorto che utilizzo HTML5 e CSS3 e mi considerava "utente" di HTML4.1 e CSS2.1

Circa robots.txt ti consiglio:

Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /logs/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/


ha ha ha Fabrizio, eppure ce una spiegazione al volo del calabrone solo che i fisici non hanno voglia di indagare  ;D   Cmq. non mi preoccupo affatto. Volevo solo capire come funzionava. Grazie mille per il robots.txt
Using Joomla 2.5x

 



Web Design Bolzano Kreatif