logo

NPDS : Gestion de contenu et de communauté


Content & Community Management System (CCMS) robuste, sécurisé, complet, performant, parlant vraiment français, libre (Open-Source) et gratuit.
38 visiteur(s) et 0 membre(s) en ligne.
Activité du Site

Pages vues depuis 25/05/2001 : 108 398 065

  • Nb. de membres 8 693
  • Nb. d'articles 1 695
  • Nb. de forums 26
  • Nb. de sujets 8
  • Nb. de critiques 92

Top 10  Statistiques

Index du forum »»  Sécurité »» Too many connexion

Modérateur(s)developpeurjpbJireck

Poster une réponse dans le sujet

A propos des messages publiés :
Les utilisateurs anonymes peuvent poster de nouveaux sujets et des réponses dans ce forum.

 

Aperçu des sujets :

developpeur developpeur
Posté : 29 déc. 2007 à 23:25
YA PAS DES INdications sur google pour limiter le nb de robot simultanés ?
skippy skippy
Posté : 27 déc. 2007 à 17:52
heu..oui

Peux-tu m'expliquer un peu comment m'y prendre, car j'utilise le robot.txt d'origine.

J'ai remarqué que c'était la même Ip lors des 80 connexions. Me suffirait de limiter à une 10 aines de connexion une IP. non ?

Mais comment faire ? :-D
developpeur developpeur
Posté : 27 déc. 2007 à 17:29
80 connexions ca fait beaucoup pour un robot google / tu peut limiter son boulot via l'admin des meta-tags et/ou un fichier robots.txt à la racine de ton site
skippy skippy
Posté : 24 déc. 2007 à 15:04
Oui c'est impressionnant en effet ^^

il s'agit de 3 fichiers (bandwith, sylog et kernel) qui arrivent à eux 3 à 3-4 gigas. Eh non , il n'y a pas 200ans d'archive dedans, mais seulement à peine 1 semaine :-P et ces fichiers se remplissent d'un jour à l'autre (pas progressivement)

Je pourrais désactiver ces 3 logs, mais ça ne résoudra pas mon problème
killing killing
Posté : 24 déc. 2007 à 14:52

Bonjour,

ma remarque ne vas pas faire avancer les choses mais... 4Go de fichiers logs ca fait beaucoup non ?

Il doit y avoir 200ans d'archives dedans :-o
skippy skippy
Posté : 24 déc. 2007 à 10:50
tout d'abord joyeux noel...

Je sais que la question a déjà été posée, mais rien ne m'a aidé ^^

J'ai un "petit" soucis. De temps en temps mon site affiche plus de 100 connexions simultanée. Ce qui a pour effet de rendre inaccessible mon serveur, car de ce fait j'ai 3 fichiers logs qui se remplissent comme des dingues (plus de 4 gigas). D'ailleurs ils sont tellement volumineux que je ne peux pas les ouvrir (plantages).
Je suis obligé de vider ces fichiers en attendant de trouver la cause.

Dans les logs de NPDS j'ai un googlebot, mais avec tjrs la même IP alors je doute que ce soit lui, de plus les logs de NPDS ne nous donnent pas de date de connexion de ces IP

Y a-t-il moyen d'éviter cela où ça va nuire à l'indexation de mes pages (robot.txt)

Merci de votre aide car ça commence à devenir relou ^^

Salutations.

EDIT : Bon à voir les logs de NPDS que je venais d'effacer, il s'agit bien d'un googlebot ---> 80 connexions :paf

Message édité par : skippy / 24-12-2007 10:52