mi piacerebbe saper cosa hai letto e dove...
Il file robots.txt permette ai webmaster e agli amministratori di sistema di indicare agli spider dei motori di ricerca quali pagine HTML non debbano essere esaminate.
Lo standard per l'esclusione dei robot/spider si avvale dell'utilizzo di un normale file di testo, da creare attraverso un qualunque text editor (es. Notepad / Blocco Note di Windows). Tale file va chiamato "robots.txt" e contiene, in un particolare formato, delle istruzioni che possono impedire a tutti o alcuni spider il prelievo di alcune o tutte le pagine del sito.
Il file robots.txt va creato e pubblicato on-line nella directory principale del sito web. Ad esempio, se il sito ha indirizzo http://www.nomesito.xxx , il file dovrà essere accessibile all'indirizzo http://www.nomesito.xxx/robots.txt .
Tutti gli spider di quei motori di ricerca che hanno deciso di aderire a questo standard e di seguire le indicazioni del file robots.txt, ogni volta che accederanno al sito web, per prima cosa andranno a cercare nella directory principale il suddetto file e, se lo troveranno, seguiranno le direttive contenute al suo interno.
quindi averlo o meno non farà ne aumentare ne diminuire la velocità
Il file è un vigile urbano che indirizza gli spider verso delle cartelle anziche verso altre, oppure blocca questi verso determinate cartelle con la direttiva "disallow" (respingere) o la direttiva "allow" (consentire)
quindi avremo:
Disallow: /administrator/ = Tu Spider qui nella directory /administrator non puoi entrare
Allow:/pippottinodigomma = Tu Spider qui nella directory /pippottinodigomma puoi entrare
Se desideri approfondire qui il link della pagina al wiki dove si parla di questo protocollo
it.wikipedia.org/wiki/Protocollo_di_esclusione_robot
Il file sitemap è altra cosa, quindi per non violare il regolamento, ti consiglio di aprire una nuova discussione che lo abbia per oggetto