Joomla.it Forum
Joomla! 2.5 (versione con supporto terminato) => Joomla! 1.6/1.7/2.5 => : willy_bis 13 Mar 2012, 22:22:55
-
Buona sera a tutt@, da una settimana ho dato in pasto il sito agli strumenti in oggetto, sitemap.xml inclusa, e oggi mi trovo con alcuni report che vorrei capire per quali motivi succedono. Il Googlebot mi ha trovato 500 errori di scansione nel mio sito joomla :o e me li elenca a mo di url tipo
"index.php?lang=en&Itemid=162&format=feed&type=atom&option=com_content" e così via. Ma cosa vuol dire ? Che cosa può dare errori di scansione delle pagine quando io le provo tutte e tutte funzionano? Perché mi dice che su alcune pagine non riesce ad accedere e se io clicco sull'URL dichiarato "erroneo" infatti non funziona? Da dove tira fuori degli URL che non funzionano? I codici di errore di queste pagine è 500. Negli articoli dico di non visualizzare links NON autorizzati. Sarà per questo ? Devo dire di permettere la visualizzazione? (non ho gestione di utenti registrati)
In soldoni la mia domanda: alcuno ha avuto a che fare con questi reports ? Qualcuno ha avuto errori di scansione del sito ? qualcuno ha capito i motivi e potrebbe darmi delle dritte?
*ultimo momento* mi è sfuggita una domandina: è meglio abilitare tutte le cartelle nel file robots.txt ? oppure, quali cartelle sarebbe meglio bloccare ? Grazie ancora
-
Ciao.
Secondo la fisica il calabrone non potrebbe volare.
Ma siccome il calabrone non ha studiato fisica, continua a volare lo stesso.
Lascia perdere i reports degli strumenti di scansione: spesso non funzionano proprio come dovrebbero.
Al mio sito sono stati trovati circa 2000 errori su una pagina: peccato che poi, andando a vedere bene, il programma di scansione non si è accorto che utilizzo HTML5 e CSS3 e mi considerava "utente" di HTML4.1 e CSS2.1
Circa robots.txt ti consiglio:
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /logs/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
-
Ciao.
Secondo la fisica il calabrone non potrebbe volare.
Ma siccome il calabrone non ha studiato fisica, continua a volare lo stesso.
Lascia perdere i reports degli strumenti di scansione: spesso non funzionano proprio come dovrebbero.
Al mio sito sono stati trovati circa 2000 errori su una pagina: peccato che poi, andando a vedere bene, il programma di scansione non si è accorto che utilizzo HTML5 e CSS3 e mi considerava "utente" di HTML4.1 e CSS2.1
Circa robots.txt ti consiglio:
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /logs/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
ha ha ha Fabrizio, eppure ce una spiegazione al volo del calabrone solo che i fisici non hanno voglia di indagare ;D Cmq. non mi preoccupo affatto. Volevo solo capire come funzionava. Grazie mille per il robots.txt