Consultant web analytics, Analyste d'audience, Analyste de trafic, Analyste web, Webanalyste, Digital analyst

Le consultant web analytique (analyste de trafic) est chargé de fournir des données sur la fréquentation d'un site web. Pour ce faire, il commence par mettre en place des outils afin de collecter des données pertinentes (durée et nombre de visites, liens visités...). Il interprète ensuite les informations récoltées afin d'analyser le comportement des internautes sur un site web. Ces analyses lui permettent d'élaborer des prévisions ou des préconisations, facilitant ainsi les prises de décisions concernant le site web. L'analyste de trafic peut exercer dans une agence Web ou en indépendant.

référencement wordpress - referenceur - référenceur - agence référencement naturel - référencement site web - référencer un site sur google - référenceur web - améliorer référencement google - blog référencement

Présentation

Le consultant web analytique (ou analyste de trafic) sélectionne des données quantitatives et qualitatives concernant la fréquentation et la performance d’un ou de plusieurs sites internet. Il met en place des outils et des indicateurs statistiques afin d’interpréter et d’analyser des situations et d’effectuer des diagnostics. A partir de ces analyses, il synthétise, dégage des tendances de fréquentation du site, et élabore des prévisions ou des préconisations permettant de fournir des outils d’aide à la décision. Ainsi, à travers l’analyse statistique des consultations et des performances du site, il contribue à :

  • L’évaluation des contributions de chaque direction ou service
  • L’évolution du site sur le plan de la forme et du fond
  • L’aide à la mise en œuvre de la stratégie de communication web
  • L’évaluation de l’utilisation du site par les internautes

comment référencer son site sur google - referencement maroc - referencement wordpress - référencer site google - responsable seo - seo referencement

DÉFINITION

Déceler les comportements des internautes sur un site à partir de données statistiques de fréquentation, qu’elles soient globales ou page par page : telle est la mission du consultant web analytique. Ce faisant, il pourra émettre des préconisations et faire évoluer le contenu et l’ergonomie du site pour en optimiser la fréquentation, en nombre de visiteurs mais aussi en temps passé à visiter ses différentes pages. Un métier qui fait appel autant à des connaissances en marketing appliquées au web ( référencement notamment).

Référencement local

Le référencement local est le fait d'optimiser un site internet pour que ses pages soient positionnées lors d'une recherche incluant une localité, un code postal, ou faite par un internaute autorisant sa géo-localisation. Cette partie du référencement prend de plus en plus d'importance ces dernières années et est de plus en plus prises en compte par Google, notamment pour la navigation mobile.

referencement google - référencement naturel - référencement google - agence seo - agence de référencement - referencement gratuit - referencement naturel - référencement site internet

Anciennement il suffisait d'inscrire un site dans des annuaires locaux comme les Pages jaunes ou Google Maps.

Référencement sur les annuaires

Un annuaire Web est un site classant de façon thématique les sites qu’il sélectionne lui-même ou qui lui sont soumis. Des éditeurs analysent alors le contenu des pages et créent des résumés de leurs contenus dans le but d’orienter les visiteurs. Les annuaires proposent une recherche par catégories et sous-catégories. Il existe des milliers d’annuaires dits spécialisés ou généralistes (exemple : Dmoz ou Yahoo! Directory). Les critères d’acceptation d’un site sur un annuaire dépendent de chaque annuaire. Cette pratique a été massivement utilisé par les référenceurs pour augmenter artificiellement leur PageRank. Cela dit, Google ayant commencé à pénaliser les annuaires web dès 2008, cette technique est de moins en moins utilisée.

Principes d'indexation

Pour indexer de nouvelles ressources, un robot procède en suivant récursivement les hyperliens trouvés à partir d'une page pivot. Par la suite, il est avantageux de mémoriser l'URL de chaque ressource récupérée et d'adapter la fréquence des visites à la fréquence observée de mise à jour de la ressource. Toutefois, si le robot respecte les règles du fichier robots.txt, alors de nombreuses ressources échappent à cette exploration récursive. Cet ensemble de ressources inexploré est appelé Web profond ou Web invisible.

google referencement - referencement site web - referencement site - agence referencement - consultant referencement - référencement naturel google - référencement seo - referencement site internet

Un fichier d'exclusion (robots.txt) placé dans la racine d'un site Web permet de donner aux robots une liste de ressources à ignorer. Cette convention permet de réduire la charge du serveur Web et d'éviter des ressources sans intérêt. Toutefois, certains robots ne se préoccupent pas de ce fichier.

Deux caractéristiques du Web compliquent le travail du robot d'indexation : le volume de données et la bande passante. Les capacités de traitement et de stockage des ordinateurs ainsi que le nombre d'internautes ayant fortement progressé, cela lié au développement d'outils de maintenance de pages de type Web 2.0 permettant à n'importe qui de mettre facilement en ligne des contenus, le nombre et la complexité des pages et objets multimédia disponibles, et leur modification, s'est considérablement accru dans la première décennie du XXIe siècle. Le débit autorisé par la bande passante n'ayant pas connu une progression équivalente, le problème est de traiter un volume toujours croissant d'information avec un débit relativement limité. Les robots ont donc besoin de donner des priorités à leurs téléchargements.

referencement web - agence de referencement - agence de référencement naturel - consultant référencement - google référencement - referencement internet - referencement seo

Le comportement d'un robot d'indexation résulte de la combinaison des principes suivants :

  • Un principe de sélection qui définit quelles pages télécharger ;
  • Un principe de re-visite qui définit quand vérifier s'il y a des changements dans les pages ;
  • Un principe de politesse qui définit comment éviter les surcharges de pages Web (délais en général) ;
  • Un principe de parallélisation qui définit comment coordonner les robots d'indexations distribués.
Retour à l'accueil