Ciao Frascan,
l'articolo che hai scritto è davvero molto utile e credo servirà ai molti che hanno ricevuto l'ammonimento di Google.
Pur non essendo fra questi, ho però dovuto affrontare la questione delle pagine mal visualizzate dal bot di Google già qualche mese fa.
Infatti facendo un pò di manutenzioni e verifiche sul sito del mio studio attraverso la Search Console, mi ero accorto che le pagine venivano visualizzate in modo anomalo. E ciò dipendeva effettivamente dal fatto che parecchi css e js non potevano essere scansionati da Googlebot a causa del blocco da parte del robots.txt.
Navigando un pò per cercare una soluzione, ho tentato diversi dei metodi che vari SEO suggerivano, fra cui quello dell'aggiunta delle due stringhe che hai indicato anche tu.
In realtà, però, esse risolvono il problema solo parzialmente.
Poi, leggendo su G+ un post sull'argomento di Danilo Petrozzi, è arrivata la soluzione definitiva.
Infatti, praticamente tutti i più diffusi CMS (compreso Joomla!), appendono dei parametri GET alle versioni minificate di .css e .js.
Per cui, usando solo le stringhe che hai suggerito tu, Googlebot continuerebbe a non vedere quelle risorse.
Quelle ccorrette sono le seguenti:
Allow: *.js$
Allow: *.css$
Allow: *.js?*$
Allow: *.css?*$
Questo permette a Googlebot di scansionare anche file del tipo: miosito.it/default.css?qualcosa=qualcosa
Ti assicuro che funzionano perchè, una volta inseritele nel mio robots.txt, tutto è tornato alla normalità.