|
skippy 420
| |
killing 1140
| Posté : 24-12-2007 14:52
Bonjour,
ma remarque ne vas pas faire avancer les choses mais... 4Go de fichiers logs ca fait beaucoup non ?
Il doit y avoir 200ans d'archives dedans |  Profil Citation
|
|
skippy 420
| Posté : 24-12-2007 15:04
Oui c'est impressionnant en effet ^^
il s'agit de 3 fichiers (bandwith, sylog et kernel) qui arrivent à eux 3 à 3-4 gigas. Eh non , il n'y a pas 200ans d'archive dedans, mais seulement à peine 1 semaine et ces fichiers se remplissent d'un jour à l'autre (pas progressivement)
Je pourrais désactiver ces 3 logs, mais ça ne résoudra pas mon problème |  Profil www Citation
|
|
developpeur 24581
| Posté : 27-12-2007 17:29
80 connexions ca fait beaucoup pour un robot google / tu peut limiter son boulot via l'admin des meta-tags et/ou un fichier robots.txt à la racine de ton site |  Profil E-mail www Citation
|
|
skippy 420
| Posté : 27-12-2007 17:52
heu..oui
Peux-tu m'expliquer un peu comment m'y prendre, car j'utilise le robot.txt d'origine.
J'ai remarqué que c'était la même Ip lors des 80 connexions. Me suffirait de limiter à une 10 aines de connexion une IP. non ?
Mais comment faire ? |  Profil www Citation
|
|
developpeur 24581
| Posté : 29-12-2007 23:25
YA PAS DES INdications sur google pour limiter le nb de robot simultanés ? |  Profil E-mail www Citation
|
|