English
protection
CrawlTrack, tableau de bord du webmaster.
Web analytique, référencement et protection

CrawlProtect, la sécurité de votre site internet.
Protection renforçée

Deux scripts php/MySQL gratuits et faciles à installer
Les outils nécessaires pour piloter et garder le contrôle de votre site et de son référencement.




diable

Recherche personnalisée










CrawlTrack notes de versions

Version 3.3.2   26 Novembre 2011

-Aol et Yandex sont ajoutés à la liste des moteurs de recherche faisant l'objet d'un suivi particulier.

-Possibilité de limiter l'affichage au(x) moteur(s) de recherche sélectionné(s) sur les pages mots clefs et pages d'entrées.

-Ajout de la courbe de tendance des 7 derniers jours sur le graphe hit/heure

-Modification de la liste des robots principaux (regroupé par moteur de recherche)

-Le temps de validité du cookie de connection est porté à 30mn.

-Affichage d'un message si le PC de l'utilisateur bloque les cookies et donc empêche le login.

-Limitation aux 100 premières pages de l'affichage pour les pages vues par les robots pour éviter le time-out.

-Affichage d'un message d'erreur si l'API Google est inaccessible (page keywordposition)

-Correction de bug: Caractères spéciaux dans login et mot de passe.

-Correction de bug: htmlspecialchars sur referer (sécurité)

Version 3.3.1   6 Novembre 2011

-Google Images est ajouté à la liste des moteurs de recherche faisant l'objet d'un suivi particulier.

-Adaptation du script à la nouvelle politique de Google concernant les mots clefs (not provided).

-Importantes mise à jour de la liste des hosts utilisés par Google, Bing, Yahoo, Ask et Baidu.

-Ajout de Jersey et de l'ile de Man dans la liste des pays

-Mise à jour de la base de données GeoIP.

-Utilisation de l'API Google sur la page keywordposition (l'affichage en iFrame de Google n'est plus possible).

-Le suivi de l'indexation ne concerne plus que Google (nombre de liens et nombre de pages indéxées); Bing, Yahoo et Delicious ne permettent plus d'obtenir les informations.

Version 3.3.0   8 Mai 2011

-Prise en compte des visiteurs utilisant Internet Explorer 9.

-Les pages en erreur 404 ne sont plus listées dans le tableau des page vues.

-Modification pour éviter le blocage du Widget Alexa par CrawlProtect quand l'url du site a été saisie avec http://

-Evolution du filtre lié au nombre de pages vues (200 au lieu de 50).

Version 3.2.9   10 Mars 2011

-Retour de la compatibilité avec php 4.

-Ajout du nom du jour devant la date (période étudiée).

-Quelques optimisations MySQL pour accélérer les calculs.

-Remplacement de split() qui devient obsolète par preg_split().

-Correction de bug: Choix du site sur la page création du tag.

Version 3.2.8   19 Février 2011

-Traduction en Italien

-Utilisation d'un token CSRF pour renforcer la sécurité du script.

-Utilisation d'un iframe pour le widget Alexa pour accélérer le chargement de la page.

-Mise en évidence (en rouge) des téléchargements de la période.

-Possibilité de supprimer les données vieilles de plus de 2 ans.

-Vidage automatique du dossier cachecloseperiod si il y a plus de 200 fichiers dedans.

-De nouvelles optimisations de code par Philippe Villiers.

-Correction de bug: Tri des colonnes pour les périodes terminées.

Version 3.2.7   09 Novembre 2010

-Correctif de sécurité: risque de remote code execution en php si les stats sont publiques, mise à jour indispensable

-Correction de bug: Problème d'encodage sur le footer si choix iso.

-Changement niveau chmod pour éviter cas de blocage lors de l'installation.

-Correction de bug: Nombre de visites Bingbot sur tableau de bord.

-Evolution filtre IE6.

Version 3.2.6   13 Septembre 2010

-Mise en place d'un message d'alerte sur la page de login si une nouvelle version de CrawlTrack est disponible.

-Correction de bug: les graphs ne s'affichaient pas si l'antiliasing n'était pas disponible sur le serveur.

-De nouvelles optimisations de code par Philippe Villiers.

-Mise à jour de la librairie geoip de Maxmind.

Version 3.2.5   07 Septembre 2010

-Préparation pour l'arrivée de Bingbot (si vous mettez à jour depuis une version précédente, n'oubliez pas aussi de mettre à jour votre liste de robots).

-Correction de bug: la page de paramétrage du décalage horaire ne fonctionnait pas avec certain navigateur.

-Correction de bug: les Ipad était détecté comme Safari.

-Grâce à Philippe Villiers (Kissifrot sur le forum), énorme nettoyage et allègement du code et mise à jour des versions de NuSoap, Artichow et Maxmind.

-Mise à jour de la traduction en Turc par Korhan Mulcar.

Version 3.2.4   19 Juin 2010

-Correction de bug: des visites avec un referer Google Image n'étaient pas prises en compte.

-Correction de bug: incompatibilité avec le module GeoIP de php.

-Correction de bug: problème d'arrondi sur le graphique de tendance.

Version 3.2.3   02 Juin 2010

-Traduction en bulgare.

-Mise à jour de la base de données de géolocalisation.

-Mise à jour de la liste de domaines Google.

Version 3.2.2   28 Avril 2010

-Le menu déroulant des sites est maintenant classé par ordre alphabétique.

-Prise en compte des visiteurs utilisant Internet Explorer 8 avec Windows XP.

-Prise en compte des visiteurs utilisant un Ipad.

-Optimisation des filtres pour une meilleur détection des aspirateurs pouvant polluer les statistiques de visites.

Version 3.2.1   04 Février 2010

-Intégration d'un Widget Alexa pour avoir son Alexa rank.

-Correction de bug: il y avait une erreur sur la page un robot lors d'un accès par un utilisateur n'ayant accès qu'à un site.

-Correction de bug: certains utilisateurs de Internet Explorer 8 n'étaient pas pris en compte.

-Correction de bug: ajout d'un user-agent dans la requète du tag long pour éviter blocage par certain outils de protection site.

-Correction de bug: erreur 500 sur certain hébergements.

Version 3.2.0   08 Janvier 2010

-Le nombre de pages indexées par Google est maintenant disponible.

-Le nombre de backlinks vu par Google (commande link:) est maintenant disponible.

-Indication pour les mots clefs de la position dans l'index de Google (par pays).

-Changement d'API pour les interrogations sur Yahoo(SiteExplorerService).

-Choix possible du nombre de jours de données conservés lors de l'utilisation de CrawlTrack-Lite.

-Simplification du graphe charge serveur.

-Baidu remplace Exalead dans la liste des moteurs de recherche faisant l'objet d'un suivi particulier.

-Correction de bug: la mise à jour de la liste de robots par fichier local ne fonctionnait pas.

Version 3.1.3   22 Décembre 2009

-Correctif sécurité faille phpMailer

Version 3.1.2   12 Septembre 2009

-Correction de bug: les données d'indexation Exalead n'étaient plus récupérées.

-Correction de bug: erreur dans certaines requètes de filtre qui pouvaient rendre les filtres inactif ou même provoquer un blocage de l'affichage.

-Correction de bug: le choix du nombre de lignes a afficher était inactif sur certaines pages.

-Correction de bug: changement du niveau de chmod forcé par le script lors de l'installation pour éviter des problèmes de compatibilité avec certain hébergement.

Version 3.1.1   01 Juin 2009

Prise en compte du nouveau moteur Microsoft: Bing

Version 3.1.0   10 Mai 2009

Première évolution de la version 3 de CrawlTrack:

-Possibilité de transformer votre CrawlTrack en CrawlTrack-Lite si vous ne voulez pas garder l'ensemble des données dans la base. La base est purgée après l'envoi de l'Email quotidien (voir fichier crawltrack-lite.txt pour le mode d'emploi).

-CrawlTrack indique maintenant, en plus du taux de rebond du site, le taux de rebond par page.

-CrawlTrack donne maintenant des statistiques sur les navigateurs utilisés par vos visiteurs.

-Sur la page visiteur, un graphe donne le nombre de hits par heure.

-La page de résumé tous site s'est enrichie de nouveaux graphes.

-CrawlTrack est maintenant disponible en russe.

Version 3.0.0   02 Avril 2009

CrawlTrack deviens un vrai tableau de bord pour les webmasters avec les fonctions suivantes:

-Le suivi des visites des robots d'indexation.

-Les statistiques complètes concernant le nombre et l'origine des visiteurs de votre site.

-Le suivi au quotidien de l'indexation de votre site par les moteurs de recherche.

-Le blocage et l'enregistrement des tentative de piratage de votre site.

-La détection et l'enregistrement des erreurs 404

-Le comptage du nombre de téléchargements des fichiers que vous proposez sur votre site.

Version 2.3.0   27 Septembre 2007

-CrawlTrack est maintenant capable de détecter et bloquer des tentatives de piratage.
Il faudra changer le tag CrawlTrack sur vos pages pour profiter de cette nouvelle fonction.

-Durant l'archivage des anciennes données, la table des pages est aussi purgée, cela aidera à réduire la taille de la base de données.

-Vous pouvez maintenant changer votre mot de passe.

-Vous pouvez choisir de ne pas enregistrer les identifiants de session dans les url, cela évitera les enregistrements multiples de la même page dans la base de données et donc aidera à réduire la taille de celle-ci.

-Sur la page Indexation, lors de la consultation sur une période longue (semaine, mois, année); ce n'est plus la moyenne des valeurs sur la période qui est affichée mais l'évolution sur la période, sous la forme: valeur début --> valeur fin.

Version 2.2.1   01 Juillet 2007

-Vous pouvez modifier l'encodage utilisé depuis la page outil.

-Vous pouvez choisir le format de l'Email journalier (html ou texte) depuis la page outil.

-Correction de bug: le calcul de variation par rapport au 3 derniers mois (dans l'Email) était faux.

Version 2.2.0   24 Juin 2007

-Depuis la page outil vous avez accès à une nouvelle page donnant la liste des tables de CrawlTrack, le nombre d'enregistrements dans chacune d'elles et la taille de la base de données.

-L'email journalier a été complétement revu (nouvelles données, nouvelle présentation (html)).

-Vous pouvez entrer autant d'adresse Email que désiré pour envoyer l'Email journalier à différents utilisateurs.

-Utilisation de l'encodage en utf-8.

-Nouveau formatage des nombres pour faciliter la lecture.

-Optimisation du script d'archivage.

-Sur la page indexation, vous avez maintenant la possibilité de rafraichir les données d'indexation (liens, pages indéxées, bookmarks), cela permettra de récupérer les données lorsque la requète automatique a échouée.

-Nouvelle langue: le hollandais.

-De nombreuses optimisation de code pour avoir un affichage plus rapide des pages de statistiques.

-Vous pouvez maintenant choisir le nombre de lignes à afficher et l'ordre par défaut des tableaux.

Version 2.1.0   18 Février 2007

-Un nouveau choix dans les menus déroulant permet de voir le cumul des données depuis l'installation de CrawlTrack.

-Des nouveaux graphes sur la page indexation.

-Application de l'ensemble des correctifs et améliorations faits au fûr et à mesure depuis la sortie de la version 2.0.0 .

Version 2.0.0   21 Janvier 2007

-Une nouvelle page donnant des informations à propos de l'indexation du site (nombre de liens et de pages indexées dans les moteurs de recherche, nombre de bookmarks Del.icio.us) et nombre de visiteurs envoyés par les principaux moteurs de recherches.

-Une nouvelle page donnant la liste des mots clefs utilisés pour arriver sur le site, et pour chacun d'eux la page par laquelle le visiteur est entré sur le site.

-Une nouvelle page donnant la liste des pages par lesquelles sont entré les visiteurs et pour chacune d'elles les mots clefs utilisés.

-Les informations sur l'indexation du site et les visites venant des moteurs de recherches sont inclues dans l'Email quotidien.

-Sur chacun des graphes (hors camembert), la valeur du point est indiquée lors du passage de la souris.

-Sur chacun des graphes (hors camembert), en cliquant sur la valeur d'un jour (ou d'un mois pour le graphe annuel) , vous arrivez directement à la page du jour (ou du mois) concernée.

-En cliquant sur le graphe camenbert, vous changer sa position dans la page.

-Vous pouvez maintenant modifier le nom et l'url de votre site.

-Lors de l'affichage des tags, vous choississez maintenant le site concerné, ce qui évite d'avoir une page trop lourde si il y a beaucoup de sites dans la base.

-Nouveau menu.

-Le choix "Depuis 8 jours" est de retour.

-De nombreuses améliorations du code.

-Le cache est vidé au démarrage d'une nouvelle session pour éviter qu'il ne devienne trop gros.

-Nouvelle disposition de page adapté à une largeur de 1024px.

-Nombreuse amélioration de mise en page.

-Traduction en turc.

Version 1.7.1   19 Novembre 2006

-Correction de bug: le premier jour de la semaine n'était pas visible sur le graphique de la semaine (ni pris en compte dans les tableaux) en cas de décalage horaire avec le serveur.

-Correction de bug: l'ensemble des fichiers du répertoire cache est maintenant effacé lorsque l'on vide le cache. Ceci évitera que le cache grossisse démesurément.

Version 1.7.0   03 Novembre 2006

-De nouvelles périodes calendaires pour visualiser les statistiques (la semaine en cours, le mois en cours et l'année en cours).

-Pour chacune des périodes, possibilité de remonter en arrière pour voir les statistiques des périodes précédentes.

-La semaine peut au choix démarrer le lundi ou le dimanche.

-Possibilité de rafraichir l'affichage (vider le cache) si nécessaire.

-Lorsqu'il y a plus de 100 lignes dans un tableau, une option permet maintenant de les visualiser toutes.

-A l'installation, si le remplissage de la table des IP se passe mal, il est proposé de continuer sans cette table. Ceci permettra à ceux pour qui c'était bloquant, d'utiliser CrawlTrack sans géolocalisation.

-Lors de la mise à jour de la table des robots, la liste des robots ajoutés est affichée.

-Passage à la version 1.0.8 de Artichow.

-Amélioration des graphiques: utilisation des polices TTF si elles sont installées, positionnement des étiquettes de données revu pour éviter les chevauchements.

-Affichage d'un pavé d'information Crawltrack sur la page outil, pour être au courant des dernières évolutions.

-Correction de bug: problème sur les graphiques 8jours et 1 an suite au passage à l'heure d'hivers.

Version 1.6.0   24 Août 2006

-Possibilité de remonter en arrière pour voir les statistiques des jours précédents.

-Optimisation du code et mise en cache des pages (voir 'questions diverses' de la documentation) pour pouvoir traiter un plus grand nombre de visites tout en économisant la charge du serveur lors des consultations.

-Correction de bug: erreur lors du tri des colonnes du tableau des pages vues.

-Correction de bug: problème lors de l'ajout d'un robot détecté par l'IP.

Version 1.5.1   30 Juillet 2006

-Optimisation du code (affichage et graphes) pour pouvoir traiter un plus grand nombre de visites.

-Limitation à 100 du nombre de pages à afficher sur les pages de détails de visites par robots.

-Correction de bug: erreur php sur la page ajouter un robot.

Version 1.5.0   14 Juillet 2006

-Nouvel algorythme de détection des robots, plus rapide.

-Une nouvelle page qui vous donne les informations sur l'origine des robots, leur adresse IP ainsi que leur pays d'origine. Cette nouvelle page utilise la base de données GeoLite crée par Maxmind disponible à l'adresse suivante: (la base est fournie avec le script).

-Sur la page de recherche vous pouvez maintenant localiser une adresse IP, toujours en utilisant la base de données GeoLite crée par Maxmind disponible à l'adresse suivante:.

-Simplification de la procédure d'installation.

-Les graphiques n'ont plus besoin du support TTF, ce qui permet l'utilisation de CrawlTrack sur la quasi totalité des hébergements .

-Les données de configuration sont maintenant stockées dans la base de donnée, ce qui là aussi améliore grandement la compatibilité de CrawlTrack avec de nombreux hébergements (moins de problèmes de CHMOD) .

-Possiblité pour ceux qui le souhaite de rendre l'accès aux statistiques libre (plus de mot de passe).

-Possibilité de programmer l'envoi quotidien d'un résumé des statistiques par Email.

-Nombreux graphiques supplémentaires, pour une meilleurs lisibilité des informations.

-Nouvelles informations disponibles: nombre de pages du site, portion du site qui a été visitée.

-Vous avez maintenant dans les tableaux à coté du nom de chaque page visité, un lien direct vers celle-ci.

-La suppression des anciennes données est remplacée par l'archivage de celles-ci, ce qui permet tout en libérant de la place dans la base de données de garder une partie des informations.

-Il y a maintenant un bouton imprimer dans le menu, ce qui permet l'impression avec une mise en page adaptée.

-Le tag à mettre sur vos pages est maintenant valide XHTML 1.0.

-Il y a maintenant 922 robots dans la base de données fournie. Cette liste continuera à être mise à jour toutes les semaines.


Version 1.4.1   30 Avril 2006

-Correction de bug: cette version comporte l'ensemble des correctifs fait sur la version 1.4.0 durant la journée du 30 (voir forum).

-Diverses améliorations d'affichage (alignement à gauche des noms de pages et modification des graphes pour que les étiquettes de l'axe y soient toujours visibles).


Version 1.4.0   29 Avril 2006

-Vous pouvez maintenant choisir l'heure utilisée si il y a un décalage horaire entre l'heure du serveur qui héberge Crawltrack et votre heure locale.

-Si vos pages ont des url très longues, la présentation des tableaux est maintenant améliorée.

-De nombreuses optimisations du script et des requètes sql permettent de réduire de façon importante les temps de traitement.


Version 1.3.1   01 Avril 2006

-Correction de bug: si vous utilisez des url de page avec plus d'une variable GET, vous aviez un message Hacking Attempt lorsque vous vouliez voir le détail des visites de ce type de page.

-Correction de bug: dans certain cas, vous ne pouviez pas voir les graphes "depuis 8 jours" et "depuis un an".


Version 1.3.0   12 Mars 2006

-La détection d'un robot par son IP est maintenant possible; le choix vous est proposé lors de la création d'un nouveau robot ( si vous utilisiez une version précédente de Crawltrack il faudra changer le tag qui est sur vos pages).

-Vous pouvez choisir le logo de CrawlTrack à afficher sur vos pages, ou décider de ne pas afficher de logo; le tag sera modifié en conséquence .

-Vous pouvez maintenant facilement supprimer de la table des visites les données les plus anciennes.

-Un nouveau menu de navigation réalisé selon un modèle de .


Version 1.2.0   28 Janvier 2006

-Vous pouvez maintenant mettre à jour votre liste de robots en ligne, vous avez juste à cliquer sur un lien sur la page configuration. Des mises à jour seront disponibles environ une fois par semaine.

-Dix huits nouveaux robots ajoutés à la base de données, il y a maintenant 725 robots listés. Mais la première mise à jour est déjà disponible.

-Une nouvelle langue : l'allemand.


Version 1.1.1   30 Décembre 2005

-Correction de bug: les graphes mensuels et annuels n'étaient pas affichés sur les sites utilisant une version 4 de php.

-Six nouveaux robots ajoutés à la base de données, il y a maintenant 707 robots listés.


Version 1.1.0   17 Décembre 2005

-Il y a maintenant un bouton de logout.

-Vous pouvez maintenant supprimer un compte, un site ou un robot.

-Vous pouvez créer automatiquement un robot de test pour valider votre installation.

-Correction de bug: vous ne pouvez plus créer plusieurs fois le même compte ou site.

-Correction de bug: dans certain cas l'url dans le tag était fausse.

-Quinze nouveaux robots ajoutés à la base de données, il y a maintenant 701 robots listés.


Version 1.0.2   3 Décembre 2005

-Une nouvelle langue : l'espagnol.

-Neuf nouveaux robots ajoutés à la base de données, il y a maintenant 686 robots listés.


Version 1.0.1   27 Novembre 2005

-Le nom du site peu faire maintenant jusqu'à 45 caractères.

-Correction du bug qui existait quand on avait plusieurs sites et que l'on voulait changer l'ordre des données dans les tableaux de résultats, on retombait toujours sur les données du site n°1.

-Correction du bug qui existait quand le site n°1 avait été supprimé (les comptes administrateur ou utilisateur ne voyaient aucune données).

-Trois nouveaux robots ajoutés à la base de données, il y a maintenant 677 robots listés.


Version 1.0.0   5 Novembre 2005

La première version de CrawlTrack, avec une base de données de 674 robots.


Comment changer d'une version précédente à la nouvelle?

1)Uploadez les nouveaux fichiers dans votre répertoire CrawlTrack, en prenant garde à préserver le fichier crawltrack.php (à la racine de votre répertoire crawltrack) et le fichier configconnect.php (dans le répertoire include).

2)Visiter votre page Crawltrack, la mise à jour va se faire automatiquement.

Votre CrawlTrack est maintenant à jour.


Nota: Si vous utilisiez la version 1.0.0 et que vous voulez pouvoir utiliser un nom de site plus long, avec phpmyadmin, changez dans la table crawlt_site le type pour le champs name de VARCHAR(20) en VARCHAR(45).