Back to top

Autore Topic: Consiglio su modifica Robots.txt  (Letto 555 volte)

Offline maupap

  • Esploratore
  • **
  • Post: 57
    • Mostra profilo
Consiglio su modifica Robots.txt
« il: 30 Mar 2021, 11:42:52 »
Salve ragazzi,Ieri il mio dominio è andato in sovraccarico con impiego della CPU al 400% e della memoria disponibile ( 3Gb).Normalmente impegno il 10-30% di queste risorse.Spulciando negli accessi e chiedendo poi conferma all'Hosting ho notato di aver ricevuto nell'arco di poche ore ( dalle 22 di ieri sera alle 2 di stamattina) circa 13.000 mila richieste da bot crawler soprattutto da semrushSoluzioni a tal proposito?Ho bloccato questi crawler che mi sembrano poco utili ( correggetemi se sbaglio)
User-agent: SemrushBot
User-agent: AhrefsBot
User-agent: MJ12bot
User-agent: dotbot
User-agent: PetalBot


Offline sgiobbio

  • Appassionato
  • ***
  • Post: 366
    • Mostra profilo
Re:Consiglio su modifica Robots.txt
« Risposta #1 il: 31 Mar 2021, 07:43:06 »
Mi è capitata recentemente una cosa simile, e al ticket che ho aperto presso il mio Hosting hanno risposto che robots.txt non sempre funziona correttamente, e in certi casi è meglio bloccare l'indirizzo IP di provenienza.
Se poi utilizzi CloudFlare, mettilo in modalità "under attack" per 24 ore.
Spero che possa esserti utile.
« Ultima modifica: 31 Mar 2021, 07:46:01 da sgiobbio »

 



Web Design Bolzano Kreatif