Joomla.it Forum

Joomla! 2.5 (versione con supporto terminato) => Joomla! 1.6/1.7/2.5 => : willy_bis 13 Mar 2012, 22:22:55

: "Errori di scansione" (report da strumenti per webmasters di Google)
: willy_bis 13 Mar 2012, 22:22:55

Buona sera a tutt@, da una settimana ho dato in pasto il sito agli strumenti in oggetto, sitemap.xml inclusa, e oggi mi trovo con alcuni report che vorrei capire per quali motivi succedono. Il Googlebot mi ha trovato 500 errori di scansione nel mio sito joomla :o e me li elenca a mo di url tipo
"index.php?lang=en&Itemid=162&format=feed&type=atom&option=com_content" e così via. Ma cosa vuol dire ? Che cosa può dare errori di scansione delle pagine quando io le provo tutte e tutte funzionano? Perché mi dice che su alcune pagine non riesce ad accedere e se io clicco sull'URL dichiarato "erroneo" infatti non funziona? Da dove tira fuori degli URL che non funzionano?   I codici di errore di queste pagine è 500. Negli articoli dico di non visualizzare links NON autorizzati. Sarà per questo ? Devo dire di permettere la visualizzazione? (non ho gestione di utenti registrati)


In soldoni la mia domanda: alcuno ha avuto a che fare con questi reports ? Qualcuno ha avuto errori di scansione del sito ?  qualcuno ha capito i motivi e potrebbe darmi delle dritte?


*ultimo momento*  mi è sfuggita una domandina: è meglio abilitare tutte le cartelle nel file robots.txt ? oppure, quali cartelle sarebbe meglio bloccare ?  Grazie ancora

: Re:"Errori di scansione" (report da strumenti per webmasters di Google)
: Fabrizio Fiorita 13 Mar 2012, 23:22:17
Ciao.
Secondo la fisica il calabrone non potrebbe volare.
Ma siccome il calabrone non ha studiato fisica, continua a volare lo stesso.
Lascia perdere i reports degli strumenti di scansione: spesso non funzionano proprio come dovrebbero.
Al mio sito sono stati trovati circa 2000 errori su una pagina: peccato che poi, andando a vedere bene, il programma di scansione non si è accorto che utilizzo HTML5 e CSS3 e mi considerava "utente" di HTML4.1 e CSS2.1

Circa robots.txt ti consiglio:

Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /logs/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
: Re:"Errori di scansione" (report da strumenti per webmasters di Google)
: willy_bis 14 Mar 2012, 18:54:42
Ciao.
Secondo la fisica il calabrone non potrebbe volare.
Ma siccome il calabrone non ha studiato fisica, continua a volare lo stesso.
Lascia perdere i reports degli strumenti di scansione: spesso non funzionano proprio come dovrebbero.
Al mio sito sono stati trovati circa 2000 errori su una pagina: peccato che poi, andando a vedere bene, il programma di scansione non si è accorto che utilizzo HTML5 e CSS3 e mi considerava "utente" di HTML4.1 e CSS2.1

Circa robots.txt ti consiglio:

Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /logs/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/


ha ha ha Fabrizio, eppure ce una spiegazione al volo del calabrone solo che i fisici non hanno voglia di indagare  ;D   Cmq. non mi preoccupo affatto. Volevo solo capire come funzionava. Grazie mille per il robots.txt