Configurez un script de blocage de bot sur votre blog WordPress.
Après avoir lu divers articles sur l’excellent blog dsfc.net, notamment concernant la sécurité et l’optimisation des sites WordPress, j’ai eu l’idée d’arrêter tous les bots qui polluent et attaquent mon blog.
D’abord, je suis allé à mes statistiques Bureau des statistiques Vérifier le compte Cpanel de mon hébergement trafic invisible Je suis sur mon blog depuis un mois.
- 1: succès Correspondant au nombre d’opérations effectuées par le serveur d’hébergement du blog, l’affichage d’une page génère généralement quelques clics car elle contient des images, des accès à la base de données, des feuilles de style, etc.
- 2 : bande passante consommée par le robot.
Après un petit calcul astucieux :
- cette succès Représentant robotique environ 12% du total Tous mes tubes.
- cette bande passante frapper le représentant environ 7% Trafic total sur mon blog.
Au fil du temps, le trafic des sites suivants a augmenté darodar, semalt, bouton de partage gratuit, … dans Google Analytics. Je n’ai qu’une chose à dire : Analysez, stoppez le spam des référents Cela entache nos statistiques bien-aimées.
Partant de ce constat, j’ai donc décidé de mettre en place un script bloqueur de bots (ne vous inquiétez pas les bots de Google, Bing, Yahoo, etc. ne seront pas bloqués, on pourra aussi gérer une whitelist, dans mon cas j’ai ajouté Alexa ).
Je vais utiliser le script de De Jeff Starr du blog Perishable Press : Télécharger
Après décompression, vous devriez avoir 4 fichiers :
- blackole.dat : Un fichier journal qui enregistre l’IP du robot frauduleux.
- trou noir.php : Un script php qui vérifie si le bot est sur liste noire et bloque le bot si nécessaire.
- index.php : Un script qui affiche différents messages d’alerte et envoie un e-mail lorsque le bot est bloqué.
- .htaccess : Protège les fichiers du répertoire du trou noir.
L’installation du script sur votre blog se fera en 6 étapes.
Si vous configurez votre profil de manière incorrecte, votre blog peut être bloqué. Par conséquent, il est prudent de suivre attentivement les étapes ci-dessous et de vérifier que tout va bien à la fin.
Si vous utilisez un plugin de cache, n’oubliez pas de vider le cache avant de tester, sous peine de mauvaises surprises.
- Étape 1 : Installez les fichiers.
copier le répertoire trou noir Dans le répertoire racine de votre site Web (généralement dans le répertoire public_html). Vous n’êtes pas obligé de le mettre dans le répertoire racine, mais vous devez ajuster le chemin dans le fichier config.
- Étape 2 : Modifier les autorisations.
Modifier les autorisations de fichiers trou noir.dat, permettant au serveur d’écrire dans le fichier. La gestion des autorisations est différente pour chaque hébergeur, veuillez contacter votre hébergeur si vous avez des questions.
Dans mon cas, j’ai dû mettre Licence 760 sur le dossier trou noir.dat.
Pour que le script fonctionne, vous devez ajouter Permis 755 Au niveau du répertoire du trou noir.
Si vous avez des erreurs comme : Avertissement : fopen(blackhole.dat) : Échec de l’ouverture du flux : aucun fichier ou répertoire de ce type dans /home/quicktut/blackhole/blackhole.php à la ligne 28 Erreur lors de l’ouverture du fichier.
Vous devrez peut-être demander à votre hébergeur de modifier l’outil d’exécution de script PHP.habituellement Su PHP Utilisé pour partitionner l’exécution des scripts PHP, certaines permissions ne sont pas supportées
- Étape 3 : Insérez le script sur le blog.
Le script doit être placé dans un fichier fichier d’en-tête.php votre sujet, juste en dessous de l’onglet <头部>. Les lignes à ajouter sont les suivantes :
Le script vérifie la présence d’une adresse IP dans le fichier et bloque le bot en affichant un message si nécessaire.
- Étape 4 : Ajoutez un lien piège dans le pied de page du thème.
Pour attraper les crawlers (bots) qui ne respectent pas les informations des fichiers robot.txt Et consommer inutilement des clics et de la bande passante sur votre hébergement, il faut ajouter un lien piège dans le footer de votre thème.
Ne cliquez pas sur ce lien ou vous serez banni du site !
Remplacez le lien example.com par votre nom de domaine.
- Étape 5 : Ajoutez la directive Disallow au fichier robots.txt de votre blog.
Si ce fichier n’existe pas, créez-le (à la racine de votre blog) et copiez-y le code suivant :
User-Agent : * Interdit : /blackhole/
Cette directive doit être ajoutée, sinon tous les robots seront interdits. Si un bot veut explorer votre site, il doit respecter les règles.
Vous êtes maintenant prêt à affronter le vilain crawler de votre blog.
- Étape 6 : Personnalisez.
Pour que le script fonctionne parfaitement, vous devez modifier quelques éléments dans le fichier de configuration :
- index.php, ligne 27/28vous devez ajouter votre adresse e-mail pour recevoir des alertes lorsque des robots ne respectant pas le fichier robots.txt sont bannis.
- index.php, ligne 30dans certains cas, vous devez spécifier un chemin absolu pour accéder à votre fichier blackhole.dat
- index.php, ligne 149/161, modifiez le chemin et contactez l’administrateur si vous avez des questions.Habituellement, nous indiquerons la page de contact de votre blog
- trou noir.php, ligne 25dans certains cas, vous devez spécifier un chemin absolu pour accéder à votre fichier blackhole.dat
- trou noir.php, ligne 30, ajoutez les bots qui appartiennent à la liste blanche (donc pas de restrictions) sur cette ligne. Comme indiqué ci-dessous, j’ai ajouté le bot alexa. D’autres sont ajoutés par défaut.
- trou noir.php, ligne 39, modifiez le chemin et contactez l’administrateur si vous avez des questions.Habituellement, nous marquerons la page de contact de son blog
Faites ensuite un test, rendez-vous sur votre blog et ajoutez après votre nom de domaine, /trou noir/ (par défaut). Si tout va bien, vous devriez avoir une page comme celle-ci :
Si vous actualisez, vous serez banni de votre blog.
Maintenant, pour retrouver un accès normal à votre blog, vous devez supprimer la ligne avec votre adresse IP publique dans le fichier blackole.dat.
Ensuite, une fois le bot banni, vous recevez un e-mail contenant de nombreuses informations sur le bot.
Exemple avec robot index géant :
En plus de bloquer les robots « malveillants », vous avez maintenant une meilleure compréhension de ce qui se passe et de qui explore votre blog.
Si cela s’avère insuffisant, vous pouvez toujours contacter un consultant en web analytics pour vous aider à développer une stratégie de sécurité de blog.
c’est tout.
Stay connected