100% Sur-Mesure
Nos prestations sont personnalisées et élaborées sur-mesure en fonction de vos besoins, de votre budget et de votre environnement.
Gestion du projet de A Ă Z
Nous pilotons votre projet web de A Ă Z afin de pouvoir maĂźtriser tous les tenants et les aboutissants. Ainsi, pas de mauvaise surprise !
Accompagnement
Nous vous accompagnons et vous conseillons dans vos projets web. Durant toute la durée de notre partenariat, nous serons en relation avec vous.
8 ans d'expérience
Avec plusieurs années d'expérience, nous mettons à votre disposition nos connaissances pour vous rendre le plus visible possible sur Internet.
Lâanalyse des logs est un sujet primordial pour rĂ©aliser lâaudit SEO dâun site Internet et ainsi pouvoir amĂ©liorer son rĂ©fĂ©rencement les SERP (Search Engine Ranking Pages) et sa visibilitĂ© sur le Web en gĂ©nĂ©ral.
Cependant, lâanalyse des logs nâest pas encore trĂšs utilisĂ©e et mĂ©rite dâĂȘtre plus connue. Elle permet effectivement de suivre efficacement le travail dâanalyse des pages dâun site web effectuĂ© par Google pour dĂ©terminer son rĂ©fĂ©rencement.
Nous vous prĂ©senterons dans cet article une synthĂšse de ce quâil faut savoir sur lâanalyse des logs pour rĂ©aliser un bon audit dâun site Internet. AprĂšs vous avez prĂ©sentĂ© les principales notions clĂ©s de ce sujet, nous vous prĂ©senterons diffĂ©rents outils dâanalyse de logs et de crawling. Ces outils sont Seolyzer, Oncrawl, Botify et Screaming Frog.
Avec plus de 8 ans dâexpĂ©rience en tant que consultant SEO, NOM PRENOM est aujourdâhui capable de vous prĂ©senter de maniĂšre pĂ©dagogique et complĂšte ces questions extrĂȘmement techniques dâanalyses de logs, de crawl, de pagination et de segmentation entre autres qui demandent une expertise aiguĂ« et une expĂ©rience pour pouvoir ĂȘtre expliquĂ©es facilement.
Avant de commencer Ă parler de lâanalyse des logs en elle-mĂȘme, il convient de prĂ©ciser le fonctionnement du rĂ©fĂ©rencement sur Google et de lâanalyse des sites web par les algorithmes de rĂ©fĂ©rencement.
Quelques notions intéressantes à connaßtre
Le SEO et plus particuliĂšrement les techniques dâanalyse de logs et de crawl utilisent un jargon bien identifiĂ© et propre Ă leur mĂ©tier. Ce jargon est issu de termes anglophones utilisĂ©s par les entreprises du numĂ©rique et notamment Google dans la crĂ©ation de son moteur de recherche du mĂȘme nom.
La premiĂšre notion clĂ© Ă comprendre est le crawl. Le crawl est le passage dâun robot dâun moteur de recherche sur une page dâun site Internet. On dit quâil parcourt ce site pour ensuite le rĂ©fĂ©rencer. Plus Google ou un autre moteur de recherche parcourt les pages de votre site Internet, le « crawl », plus ce site Internet aura des chances dâĂȘtre plus visible et mieux rĂ©fĂ©rencĂ©.
Le passage du robot explorateur laisse des traces contenues dans les fichiers logs dâun site Internet. Ainsi, analyser les « logs » revient Ă analyser lâhistorique de frĂ©quentation dâun site et plus particuliĂšrement le passage des robots dâexploration des moteurs de recherche. Câest effectivement leur prĂ©sence qui nous intĂ©resse pour amĂ©liorer le rĂ©fĂ©rencement dâune page web.
Lâexploration des pages dâun site Internet par un robot « crawleur » est limitĂ©e. Cette exploration demande une puissance de calcul et un dĂ©bit Internet. En parallĂšle, les robots des moteurs de recherche doivent analyser les millions de pages publiĂ©es sur Internet. Ainsi, les robots dâexploration limitent leur temps passĂ© sur une seule page et un seul site Internet. Câest le budget de crawl qui correspond plus prĂ©cisĂ©ment au nombre de pages maximum quâun robot de crawl explore sur un site Internet.
Lâobjectif dâune stratĂ©gie de crawl est dâoptimiser ce budget. Plus il sera Ă©levĂ©, plus les moteurs de recherche Ă commencer par Google mettront en valeur le contenu publiĂ© et apporteront donc plus de visibilitĂ© au site. De nombreux critĂšres dĂ©terminent le budget de crawl comme la qualitĂ© du contenu prĂ©sent sur les pages du site, la frĂ©quence des mises-Ă -jour, la vitesse de chargement de la page et tant dâautres critĂšres. Un travail sera donc dâoptimiser les pages du site Internet Ă promouvoir en fonction de ces premiers critĂšres.
Le nombre de pages dâun site Internet est Ă©videmment un critĂšre dĂ©terminant dans lâoptimisation du budget de crawl de ce site. Plus un site compte de pages, plus le budget de crawl devra ĂȘtre important en admettant que toutes les pages soient toutes autant rĂ©fĂ©rencĂ©es. Il est cependant trĂšs difficile dâoptimiser les critĂšres que nous venons de dĂ©crire Ă partir dâun certain point. Par exemple, la vitesse de chargement dâun site Internet ou dâune de ses pages ne peut plus ĂȘtre amĂ©liorĂ©e Ă partir dâun certain stade oĂč le temps de chargement devient nĂ©gligeable pour le robot dâexploration. De cette maniĂšre, la seule stratĂ©gie permettant dâoptimiser le budget de crawl pour les sites recensant un grand nombre de pages est de segmenter ces pages.
Segmentation des pages dâun site Internet
Comme nous venons de le prĂ©ciser, les robots de crawling des moteurs de recherche comme Googlebot pour Google, essayent de rationaliser le temps passĂ© sur un site Internet. Ils privilĂ©gient les sites de bonne qualitĂ©, il faut donc donner bonne impression dĂšs le premier passage dâun robot.
Or, certains sites ont forcĂ©ment besoin de beaucoup de pages pour fonctionner. Imaginez par exemple Amazon.com. Ce site a sans doute des centaines de milliers voire des millions de pages. Effectivement, chaque produit possĂšde sa propre page et le catalogue dâAmazon est immense. Comment cela se fait-il quâAmazon soit si bien rĂ©fĂ©rencĂ© naturellement ? La premiĂšre rĂ©ponse Ă cette question est tout dâabord le trafic. Amazon a beaucoup de trafic par sa notoriĂ©tĂ© public. Cependant, cette rĂ©ponse nâest pas suffisante, la meilleure stratĂ©gie de rĂ©fĂ©rencement pour les sites ayant beaucoup de pages est dâorienter le crawling de Google.
Lâorientation du robot dâexploration demande tout dâabord de dĂ©terminer quelles sont les pages les plus importantes du site, câest-Ă -dire quelles sont les pages Ă privilĂ©gier. En seront ainsi dĂ©duites les pages Ă nĂ©gliger et donc Ă ne pas ou Ă ne plus crawler. Les pages majeures sont par exemple des chapeaux depuis lesquels lâutilisateur sera dirigĂ© vers dâautres produits. Au contraire, les pages avec uniquement un formulaire de contact ou les mentions lĂ©gales sont Ă bannir du crawling. Effectivement celle-ci nâont pas besoin de rĂ©fĂ©rencement naturel. Si elles bĂ©nĂ©ficient du crawl, ce sera au dĂ©triment des autres pages qui elles ont besoin du crawl pour amĂ©liorer leur rĂ©fĂ©rencement.
Vous devez donc ĂȘtre capable de segmenter votre site Internet par prioritĂ©. Les pages Ă rĂ©fĂ©rencer sont les plus importantes et doivent tout faire pour accueillir la visite des robots de crawl le plus souvent possible. Vous pouvez constater lâefficacitĂ© de votre segmentation Ă partir dâune analyse de logs.
Pour prioriser les pages importantes, plusieurs options sâoffrent Ă vous. Il est soit possible de mieux construire dĂšs le dĂ©part vos pages Ă rĂ©fĂ©rencer. Cependant, si votre site est dĂ©jĂ publiĂ© depuis quelques temps et reçoit des visites, cette mĂ©thode sera peu efficace. Une seconde option est dâintĂ©grer des fichiers robot.txt dans vos pages. Ces fichiers donnent des indications aux robots de crawl quand ces-derniers visitent votre site. Ainsi, si le robot.txt dâune page demande au crawleur de ne pas visiter cette page, celui-ci, voulant sâĂ©pargner du travail ne visitera pas cette page.
Lâanalyse de logs en soit
AprĂšs tout ce travail introductif, nous arrivons donc Ă lâanalyse de logs en elle-mĂȘme. Comme nous lâavions prĂ©cisĂ© dans lâintroduction, lâanalyse de logs est lâanalyse de lâhistorique de passage des crawleurs.
Cette analyse est intĂ©ressante tout dâabord pendant le premier audit dâun site Internet. Elle permet alors de se rendre compte de la pertinence du crawl et des actions Ă mettre en place pour remĂ©dier aux potentielles erreurs de crawl.
Ensuite, lâanalyse de logs vous permettra de suivre lâefficacitĂ© de vos actions de redressement Ă la suite de votre premier audit.
Mettons par exemple quâaprĂšs un premier audit vous dĂ©cidez dâamĂ©liorer la construction des cinq plus importantes pages de votre site pour amĂ©liorer leur crawl. La seule maniĂšre de vĂ©rifier lâefficacitĂ© de vos actions dâamĂ©lioration est de consulter les logs du site et plus particuliĂšrement des pages en question. Une action efficace apporte des crawls aux pages amĂ©liorĂ©es.
Les outils dâanalyse des logs sur Internet
Lâanalyse des logs est de lâanalyse de donnĂ©es massives, il faut donc ĂȘtre Ă lâaise avec les chiffres pour la mettre en place. Le premier outil pour tirer des enseignements sur les logs extraits des sites Internet est Excel, lâoutil de base du traitement de donnĂ©es de Microsoft. Il vous permettra de rĂ©aliser la trĂšs grande majoritĂ© de toutes les opĂ©rations, Ă commencer par lâanalyse croisĂ©e, que vous souhaitez faire pour analyser vos donnĂ©es issues des logs.
DiffĂ©rents outils sont aujourdâhui disponibles pour analyser efficacement les logs sans avoir Ă mettre soit mĂȘme les mains dans le code et lâhĂ©bergement du site Internet. Les outils que nous vous recommandons sont Seolyzer, Oncrawl, Botify et Screaming Frog.
Ces outils sont extrĂȘmement puissants mais aussi complexes. Ils demandent donc un certain temps pour ĂȘtre pris en main. Il est donc prĂ©fĂ©rable de faire appel Ă un consultant SEO spĂ©cialisĂ© pour ne pas perdre ce temps.
Discutons ensemble de vos projets d'Analyse de logs
VidĂ©o : đ€ ANALYSE DE LOGS : 5 usages pour BOOSTER VOTRE SEO ! âïž 1, 2, 3 moteur ! #13