Contactez-moi au 06 XX XX XX XX

Analyse

Analyse de logs

100% Sur-Mesure

Nos prestations sont personnalisées et élaborées sur-mesure en fonction de vos besoins, de votre budget et de votre environnement.

Gestion du projet de A Ă  Z

Nous pilotons votre projet web de A Ă  Z afin de pouvoir maĂźtriser tous les tenants et les aboutissants. Ainsi, pas de mauvaise surprise !

Accompagnement

Nous vous accompagnons et vous conseillons dans vos projets web. Durant toute la durée de notre partenariat, nous serons en relation avec vous.

8 ans d'expérience

Avec plusieurs années d'expérience, nous mettons à votre disposition nos connaissances pour vous rendre le plus visible possible sur Internet.

L’analyse des logs est un sujet primordial pour rĂ©aliser l’audit SEO d’un site Internet et ainsi pouvoir amĂ©liorer son rĂ©fĂ©rencement les SERP (Search Engine Ranking Pages) et sa visibilitĂ© sur le Web en gĂ©nĂ©ral.

Cependant, l’analyse des logs n’est pas encore trĂšs utilisĂ©e et mĂ©rite d’ĂȘtre plus connue. Elle permet effectivement de suivre efficacement le travail d’analyse des pages d’un site web effectuĂ© par Google pour dĂ©terminer son rĂ©fĂ©rencement.

Nous vous prĂ©senterons dans cet article une synthĂšse de ce qu’il faut savoir sur l’analyse des logs pour rĂ©aliser un bon audit d’un site Internet. AprĂšs vous avez prĂ©sentĂ© les principales notions clĂ©s de ce sujet, nous vous prĂ©senterons diffĂ©rents outils d’analyse de logs et de crawling. Ces outils sont Seolyzer, Oncrawl, Botify et Screaming Frog.

Avec plus de 8 ans d’expĂ©rience en tant que consultant SEO, NOM PRENOM est aujourd’hui capable de vous prĂ©senter de maniĂšre pĂ©dagogique et complĂšte ces questions extrĂȘmement techniques d’analyses de logs, de crawl, de pagination et de segmentation entre autres qui demandent une expertise aiguĂ« et une expĂ©rience pour pouvoir ĂȘtre expliquĂ©es facilement.

Avant de commencer Ă  parler de l’analyse des logs en elle-mĂȘme, il convient de prĂ©ciser le fonctionnement du rĂ©fĂ©rencement sur Google et de l’analyse des sites web par les algorithmes de rĂ©fĂ©rencement.

Quelques notions intéressantes à connaßtre

Le SEO et plus particuliĂšrement les techniques d’analyse de logs et de crawl utilisent un jargon bien identifiĂ© et propre Ă  leur mĂ©tier. Ce jargon est issu de termes anglophones utilisĂ©s par les entreprises du numĂ©rique et notamment Google dans la crĂ©ation de son moteur de recherche du mĂȘme nom.

La premiĂšre notion clĂ© Ă  comprendre est le crawl. Le crawl est le passage d’un robot d’un moteur de recherche sur une page d’un site Internet. On dit qu’il parcourt ce site pour ensuite le rĂ©fĂ©rencer. Plus Google ou un autre moteur de recherche parcourt les pages de votre site Internet, le « crawl », plus ce site Internet aura des chances d’ĂȘtre plus visible et mieux rĂ©fĂ©rencĂ©.

Le passage du robot explorateur laisse des traces contenues dans les fichiers logs d’un site Internet. Ainsi, analyser les « logs » revient Ă  analyser l’historique de frĂ©quentation d’un site et plus particuliĂšrement le passage des robots d’exploration des moteurs de recherche. C’est effectivement leur prĂ©sence qui nous intĂ©resse pour amĂ©liorer le rĂ©fĂ©rencement d’une page web.

L’exploration des pages d’un site Internet par un robot « crawleur » est limitĂ©e. Cette exploration demande une puissance de calcul et un dĂ©bit Internet. En parallĂšle, les robots des moteurs de recherche doivent analyser les millions de pages publiĂ©es sur Internet. Ainsi, les robots d’exploration limitent leur temps passĂ© sur une seule page et un seul site Internet. C’est le budget de crawl qui correspond plus prĂ©cisĂ©ment au nombre de pages maximum qu’un robot de crawl explore sur un site Internet.

L’objectif d’une stratĂ©gie de crawl est d’optimiser ce budget. Plus il sera Ă©levĂ©, plus les moteurs de recherche Ă  commencer par Google mettront en valeur le contenu publiĂ© et apporteront donc plus de visibilitĂ© au site. De nombreux critĂšres dĂ©terminent le budget de crawl comme la qualitĂ© du contenu prĂ©sent sur les pages du site, la frĂ©quence des mises-Ă -jour, la vitesse de chargement de la page et tant d’autres critĂšres. Un travail sera donc d’optimiser les pages du site Internet Ă  promouvoir en fonction de ces premiers critĂšres.

Le nombre de pages d’un site Internet est Ă©videmment un critĂšre dĂ©terminant dans l’optimisation du budget de crawl de ce site. Plus un site compte de pages, plus le budget de crawl devra ĂȘtre important en admettant que toutes les pages soient toutes autant rĂ©fĂ©rencĂ©es. Il est cependant trĂšs difficile d’optimiser les critĂšres que nous venons de dĂ©crire Ă  partir d’un certain point. Par exemple, la vitesse de chargement d’un site Internet ou d’une de ses pages ne peut plus ĂȘtre amĂ©liorĂ©e Ă  partir d’un certain stade oĂč le temps de chargement devient nĂ©gligeable pour le robot d’exploration. De cette maniĂšre, la seule stratĂ©gie permettant d’optimiser le budget de crawl pour les sites recensant un grand nombre de pages est de segmenter ces pages.

Segmentation des pages d’un site Internet

Comme nous venons de le prĂ©ciser, les robots de crawling des moteurs de recherche comme Googlebot pour Google, essayent de rationaliser le temps passĂ© sur un site Internet. Ils privilĂ©gient les sites de bonne qualitĂ©, il faut donc donner bonne impression dĂšs le premier passage d’un robot.

Or, certains sites ont forcĂ©ment besoin de beaucoup de pages pour fonctionner. Imaginez par exemple Amazon.com. Ce site a sans doute des centaines de milliers voire des millions de pages. Effectivement, chaque produit possĂšde sa propre page et le catalogue d’Amazon est immense. Comment cela se fait-il qu’Amazon soit si bien rĂ©fĂ©rencĂ© naturellement ? La premiĂšre rĂ©ponse Ă  cette question est tout d’abord le trafic. Amazon a beaucoup de trafic par sa notoriĂ©tĂ© public. Cependant, cette rĂ©ponse n’est pas suffisante, la meilleure stratĂ©gie de rĂ©fĂ©rencement pour les sites ayant beaucoup de pages est d’orienter le crawling de Google.

L’orientation du robot d’exploration demande tout d’abord de dĂ©terminer quelles sont les pages les plus importantes du site, c’est-Ă -dire quelles sont les pages Ă  privilĂ©gier. En seront ainsi dĂ©duites les pages Ă  nĂ©gliger et donc Ă  ne pas ou Ă  ne plus crawler. Les pages majeures sont par exemple des chapeaux depuis lesquels l’utilisateur sera dirigĂ© vers d’autres produits. Au contraire, les pages avec uniquement un formulaire de contact ou les mentions lĂ©gales sont Ă  bannir du crawling. Effectivement celle-ci n’ont pas besoin de rĂ©fĂ©rencement naturel. Si elles bĂ©nĂ©ficient du crawl, ce sera au dĂ©triment des autres pages qui elles ont besoin du crawl pour amĂ©liorer leur rĂ©fĂ©rencement.

Vous devez donc ĂȘtre capable de segmenter votre site Internet par prioritĂ©. Les pages Ă  rĂ©fĂ©rencer sont les plus importantes et doivent tout faire pour accueillir la visite des robots de crawl le plus souvent possible. Vous pouvez constater l’efficacitĂ© de votre segmentation Ă  partir d’une analyse de logs.

Pour prioriser les pages importantes, plusieurs options s’offrent Ă  vous. Il est soit possible de mieux construire dĂšs le dĂ©part vos pages Ă  rĂ©fĂ©rencer. Cependant, si votre site est dĂ©jĂ  publiĂ© depuis quelques temps et reçoit des visites, cette mĂ©thode sera peu efficace. Une seconde option est d’intĂ©grer des fichiers robot.txt dans vos pages. Ces fichiers donnent des indications aux robots de crawl quand ces-derniers visitent votre site. Ainsi, si le robot.txt d’une page demande au crawleur de ne pas visiter cette page, celui-ci, voulant s’épargner du travail ne visitera pas cette page.

L’analyse de logs en soit

AprĂšs tout ce travail introductif, nous arrivons donc Ă  l’analyse de logs en elle-mĂȘme. Comme nous l’avions prĂ©cisĂ© dans l’introduction, l’analyse de logs est l’analyse de l’historique de passage des crawleurs.

Cette analyse est intĂ©ressante tout d’abord pendant le premier audit d’un site Internet. Elle permet alors de se rendre compte de la pertinence du crawl et des actions Ă  mettre en place pour remĂ©dier aux potentielles erreurs de crawl.

Ensuite, l’analyse de logs vous permettra de suivre l’efficacitĂ© de vos actions de redressement Ă  la suite de votre premier audit.

Mettons par exemple qu’aprĂšs un premier audit vous dĂ©cidez d’amĂ©liorer la construction des cinq plus importantes pages de votre site pour amĂ©liorer leur crawl. La seule maniĂšre de vĂ©rifier l’efficacitĂ© de vos actions d’amĂ©lioration est de consulter les logs du site et plus particuliĂšrement des pages en question. Une action efficace apporte des crawls aux pages amĂ©liorĂ©es.

Les outils d’analyse des logs sur Internet

L’analyse des logs est de l’analyse de donnĂ©es massives, il faut donc ĂȘtre Ă  l’aise avec les chiffres pour la mettre en place. Le premier outil pour tirer des enseignements sur les logs extraits des sites Internet est Excel, l’outil de base du traitement de donnĂ©es de Microsoft. Il vous permettra de rĂ©aliser la trĂšs grande majoritĂ© de toutes les opĂ©rations, Ă  commencer par l’analyse croisĂ©e, que vous souhaitez faire pour analyser vos donnĂ©es issues des logs.

DiffĂ©rents outils sont aujourd’hui disponibles pour analyser efficacement les logs sans avoir Ă  mettre soit mĂȘme les mains dans le code et l’hĂ©bergement du site Internet. Les outils que nous vous recommandons sont Seolyzer, Oncrawl, Botify et Screaming Frog.

Ces outils sont extrĂȘmement puissants mais aussi complexes. Ils demandent donc un certain temps pour ĂȘtre pris en main. Il est donc prĂ©fĂ©rable de faire appel Ă  un consultant SEO spĂ©cialisĂ© pour ne pas perdre ce temps.

Discutons ensemble de vos projets d'Analyse de logs

VidĂ©o : đŸ€– ANALYSE DE LOGS : 5 usages pour BOOSTER VOTRE SEO ! ⭐ 1, 2, 3 moteur ! #13

Sommaire