Interview CrawlTrack

Voici l’interview du créateur de l’outil CrawlTrack qui est Jean-Denis Brun. C’est un outil très populaire auprès des webmasters pour pouvoir analyser les visites des robots et les positions d’un site avec les moteurs de recherche permettant d’avoir des statistiques simples et compréhensibles concernant le crawl des robots et le positionnement de votre site. C’est un très bon outil marketing pour les entreprises et le e-commerce.

CrawlTrack

Pouvez-vous définir en quelques mots ce qu’est CrawlTrack ?
– CrawlTrack est un script PHP qui a pour but de donner aux webmasters un nombre important d’informations sur leur site pour les aider à optimiser leur référencement. Il ne s’agit pas seulement d’un outil de stats comme Google analytics, mais de par l’utilisation de PHP à la place du JavaScript il peut donner d’autres types d’info et notamment tout ce qui concerne les visites de robots et certaines tentatives de hack.

Comment vous est venue l’idée de la création de CrawlTrack ?
– À l’origine, CrawlTrack a été développé comme outil de suivi des robots, le but premier était de l’intégrer à PHPMyVisites. L’intégration ne s’est pas faite finalement et Crawltrack a été lancé indépendamment, il y a déjà presque 5 ans. Ensuite l’évolution a été progressive, en combinant mes propres besoins en tant que webmaster et ceux exprimés par les utilisateurs pour arriver progressivement à la version actuelle. Par exemple, je me suis rapidement aperçu que nombre de « visite » de robot était en fait des tentatives d’injection de code ou SQL. CrawlTrack a commencé par les enregistrer en tant que tel, puis je me suis dit que plutôt que seulement les identifier, pourquoi ne pas les bloquer.

Combien de personnes travaillent (ou ont travaillé) à ce projet ?
– CrawlTrack: Même si Crawltrack est un projet perso, depuis le début, une quinzaine de personnes ont contribué que ce soit pour des traductions (il y a 8 langues dispo aujourd’hui) ou pour du code avec depuis peu la participation de Philippe Villiers qui fait un gros boulot d’optimisation et de simplification du code.

Le logiciel est disponible depuis 2005, on remarque que vous avez eu plus de 41 000 téléchargements, quel est selon vous le facteur de succès de cet engouement pour le logiciel ?
– Ce qui fait le succès de Crawltrack est qu’il est un des rares outils actuellement maintenus qui permettent un suivi de l’activité des robots. J’ai été aussi surpris par l’engouement sur le parti protection anti-hacking, même si il faut bien que tout le monde soit conscient qu’aucun outil n’est une assurance anti-hacking à 100%. Mais de ce coté là il y a une vraie demande, qui m’a amené à lancé un autre script, CrawlProtect qui lui ne s’occupe que de protection à l’aide d’un .htaccess. Enfin ce qui revient souvent, c’est la simplicité de l’interface qui regroupe en une page les infos les plus importantes.

En combien de langues est disponible l’outil ?
– L’outil est disponible en 8 langues: français, anglais, espagnol, allemand, hollandais, turc, russe et bulgare. Je suis toujours preneur de nouvelle traduction ou de mise à jour des existantes, certaines n’étant plus complètes, car les mises à jour du script n’ont pas toujours été traduites.

Avez-vous des conseils concernant l’outil pour les lecteurs ? Des astuces pour l’analyse statistique ?
– Un premier conseil, une fois l’outil en place, n’hésitez pas à naviguer sur les différentes pages et à promener votre souris. Souvent des utilisateurs découvrent des fonctionnalités à l’occasion d’une réponse sur le forum. Il y a un certain nombre d’easter eggs à trouver, la documentation ne donnant pas forcément le détail de toutes les options (difficile de tenir à jour une doc sans en faire un monstre illisible). Pour ce qui est de l’analyse des stats, commencez par voir ce que font les robots. Il est clair qu’une page que les robots ne trouvent pas ne sera jamais indexée. Ce premier pas permet d’éventuellement corriger la structure du site pour améliorer l’indexation. Indexation d’ailleurs que vous pourrez aussi suivre au jour le jour. Ensuite la partie suivie des visites humaines vous permettra de voir quelles sont les pages par lesquelles les visiteurs entrent et quels mots clefs sont utilisés. À partir de là à vous de jouer pour améliorer votre référencement, et vous pourrez au fil du temps mesurer votre progression.

Pour ceux qui souhaitent plus d’informations, voici le compte Twitter officiel des actualités de CrawlTrack : Twitter Webmaster SEO script .

Et voici le lien du site Internet de l’outil de statistiques proposé par Jean-Denis Brun pour pouvoir avoir plus d’informations : Webmaster SEO script .

CrawlTrack est un outil utile pour les entreprises et e-commerce qui se présente ainsi :
Toutes les informations nécessaires pour piloter votre site et son référencement.

Publié dans Interviews.