Expertises
Paid
SEO
Data & measurement
Solutions
Modèle
Secteur
Tech
Insights
Spark
Contact
Pour garantir la qualité de votre contenu, vous devez le rendre simple et facile à lire.
⚠️ N'essayez pas de sur-optimiser votre contenu en répétant votre mot-clé cible trop souvent et en remplissant le contenu de synonymes (keyword stuffing).
Google n'indique pas clairement que les signaux de l'expérience utilisateur (taux de rebond, temps passé sur le site, CTR organique) sont utilisés dans le calcul de la position.
Cependant, il existe une corrélation directe entre le temps passé sur le site et la position sur la SERP.
Le temps passé sur la première page de résultats est en moyenne de 2,5 minutes.
Votre contenu n'est pas seulement du texte : graphiques, photos, vidéos, podcasts...
Vous devez également créer des types de contenu pertinents en fonction du contenu de votre site :
Le nombre moyen de mots du contenu des 10 premiers résultats est uniformément réparti (environ 1447 mots). Cependant, il n'y a pas de relation directe entre le nombre de mots et la position dans la page de résultats.
La mise à jour régulière du contenu permet un meilleur référencement dans les SERP :
Vous devez également indiquer à Google que votre contenu est à jour, en affichant une date de publication ou une date de dernière modification.
Plus la demande est spécifiée et précise, plus l'internaute est avancé dans son processus de décision et susceptible d'effectuer un achat. Environ 80 % du trafic est assuré par la longue traîne.
Les mots-clés de longue traîne sont en général moins concurrentiels que les mots-clés génériques très larges.
Vous pouvez avoir le meilleur contenu, mais si votre site n'est pas correctement structuré, vous n'avez aucune chance d'apparaître dans les premiers résultats. Chaque site dispose d'un budget crawl limité pour scanner son contenu et assurer son référencement.
Optimisez techniquement = optimisez votre budget de crawl
Cette optimisation intervient lorsque vous avez identifié tous les mots-clés pertinents pour votre client car la structure de votre site a un impact sur de nombreux éléments du référencement : le sitemap, robots.txt, la structure des URLs, etc.
Faciliter la tâche de Google lors du crawl pour comprendre quelles sont les pages stratégiques et celles qui sont inutiles pour le référencement. En fait, ce qu'il faut, c'est une architecture horizontale et structurée.
Vous n’aurez pas de mal à référencer votre Home Page en revanche, dans le cas d’un site avec plusieurs milliers d’URLs, il sera plus difficile d’assurer le bon crawl des pages profondes du site.
L’indexation des pages plus profondes est donc fortement impactée par le maillage interne et l’arborescence globale du site.
Faciliter le travail de Google lors du crawl pour comprendre quelles pages sont stratégiques et lesquelles sont inutiles dans le référencement.
Pour faciliter l'indexation, on utilise un fichier sitemap. C'est un fichier XML présent dans le fichier source du site, qui permet de lister les pages de votre site (sitemap) afin de faciliter l'analyse de votre contenu aux robots d'indexation de Google.
💡 Vous pouvez demander l'analyse de votre fichier sitemap directement depuis la Search Console de Google.
C'est un concept d'architecture de site visant à optimiser le référencement d'un site web. Structurer son site en silo est essentiel et présente 2 intérêts majeurs :
Les données structurées aident les moteurs de recherche à comprendre le contenu de votre page. Google optimise ces informations sur les pages de résultats et améliore le résultat de vos liens sur les pages de résultats, ce qui augmente le CTR.
Les données structurées généralistes :
Exemple avec la donnée structurée “avis” :
Le contenu dupliqué peut être présent sur de nombreuses pages d'un site :
Google pénalise les sites qui ont trop de pages dupliquées. Pour éviter cela, nous utilisons des balises noindex ou des balises canoniques.
La balise canonique (canonical) est utilisée pour traiter le contenu dupliqué et permet d’indiquer aux moteurs de recherche quelle est la page que l’on préfère indexer. Par défaut, chaque page du site doit posséder une canonique pointant vers elle-même sans paramètres.
Les balises Meta noindex sont des éléments de code HTML directement intégrés dans l'en-tête de la page.
Elles permettent aux robots d'indexation de comprendre si la page doit être exclue des résultats de recherche de Google.
L'outil d'inspection d'URL de la Google Search Console vous permet d'analyser l'indexation d'une page sur les moteurs de recherche et de vérifier que votre meta noindex fonctionne.
Certaines URL de liens vers des pages peuvent ne plus être à jour et renvoyer à une page 404. Cela réduit la possibilité pour les robots d'analyser la page en question puisqu'ils devront trouver un autre lien. Il est donc crucial d'effectuer une analyse régulière des liens du site et de mettre à jour les URL.
C'est un point essentiel pour l'internaute : un temps de chargement trop long impactera fortement votre taux de conversion. D'autre part, son poids est faible pour l'algorithme de pertinence de Google et donc dans le classement des résultats de recherche.
L'outil PageSpeed Insights de Google vous permet d'effectuer une analyse rapide des performances de chargement du site (bureau et mobile).
Les outils Mobile-Friendly Test (MFT) ou Mobile-Friendly Usability Inspection (MUI) vous permettent de vous assurer que l'expérience utilisateur du site mobile est correcte.
Il donne accès aux détails de tous les problèmes/erreurs présents sur les pages du site.
Pour garantir la qualité de votre contenu, vous devez le rendre simple et facile à lire.
⚠️ N'essayez pas de sur-optimiser votre contenu en répétant votre mot-clé cible trop souvent et en remplissant le contenu de synonymes (keyword stuffing).
Google n'indique pas clairement que les signaux de l'expérience utilisateur (taux de rebond, temps passé sur le site, CTR organique) sont utilisés dans le calcul de la position.
Cependant, il existe une corrélation directe entre le temps passé sur le site et la position sur la SERP.
Le temps passé sur la première page de résultats est en moyenne de 2,5 minutes.
Votre contenu n'est pas seulement du texte : graphiques, photos, vidéos, podcasts...
Vous devez également créer des types de contenu pertinents en fonction du contenu de votre site :
Le nombre moyen de mots du contenu des 10 premiers résultats est uniformément réparti (environ 1447 mots). Cependant, il n'y a pas de relation directe entre le nombre de mots et la position dans la page de résultats.
La mise à jour régulière du contenu permet un meilleur référencement dans les SERP :
Vous devez également indiquer à Google que votre contenu est à jour, en affichant une date de publication ou une date de dernière modification.
Plus la demande est spécifiée et précise, plus l'internaute est avancé dans son processus de décision et susceptible d'effectuer un achat. Environ 80 % du trafic est assuré par la longue traîne.
Les mots-clés de longue traîne sont en général moins concurrentiels que les mots-clés génériques très larges.
Vous pouvez avoir le meilleur contenu, mais si votre site n'est pas correctement structuré, vous n'avez aucune chance d'apparaître dans les premiers résultats. Chaque site dispose d'un budget crawl limité pour scanner son contenu et assurer son référencement.
Optimisez techniquement = optimisez votre budget de crawl
Cette optimisation intervient lorsque vous avez identifié tous les mots-clés pertinents pour votre client car la structure de votre site a un impact sur de nombreux éléments du référencement : le sitemap, robots.txt, la structure des URLs, etc.
Faciliter la tâche de Google lors du crawl pour comprendre quelles sont les pages stratégiques et celles qui sont inutiles pour le référencement. En fait, ce qu'il faut, c'est une architecture horizontale et structurée.
Vous n’aurez pas de mal à référencer votre Home Page en revanche, dans le cas d’un site avec plusieurs milliers d’URLs, il sera plus difficile d’assurer le bon crawl des pages profondes du site.
L’indexation des pages plus profondes est donc fortement impactée par le maillage interne et l’arborescence globale du site.
Faciliter le travail de Google lors du crawl pour comprendre quelles pages sont stratégiques et lesquelles sont inutiles dans le référencement.
Pour faciliter l'indexation, on utilise un fichier sitemap. C'est un fichier XML présent dans le fichier source du site, qui permet de lister les pages de votre site (sitemap) afin de faciliter l'analyse de votre contenu aux robots d'indexation de Google.
💡 Vous pouvez demander l'analyse de votre fichier sitemap directement depuis la Search Console de Google.
C'est un concept d'architecture de site visant à optimiser le référencement d'un site web. Structurer son site en silo est essentiel et présente 2 intérêts majeurs :
Les données structurées aident les moteurs de recherche à comprendre le contenu de votre page. Google optimise ces informations sur les pages de résultats et améliore le résultat de vos liens sur les pages de résultats, ce qui augmente le CTR.
Les données structurées généralistes :
Exemple avec la donnée structurée “avis” :
Le contenu dupliqué peut être présent sur de nombreuses pages d'un site :
Google pénalise les sites qui ont trop de pages dupliquées. Pour éviter cela, nous utilisons des balises noindex ou des balises canoniques.
La balise canonique (canonical) est utilisée pour traiter le contenu dupliqué et permet d’indiquer aux moteurs de recherche quelle est la page que l’on préfère indexer. Par défaut, chaque page du site doit posséder une canonique pointant vers elle-même sans paramètres.
Les balises Meta noindex sont des éléments de code HTML directement intégrés dans l'en-tête de la page.
Elles permettent aux robots d'indexation de comprendre si la page doit être exclue des résultats de recherche de Google.
L'outil d'inspection d'URL de la Google Search Console vous permet d'analyser l'indexation d'une page sur les moteurs de recherche et de vérifier que votre meta noindex fonctionne.
Certaines URL de liens vers des pages peuvent ne plus être à jour et renvoyer à une page 404. Cela réduit la possibilité pour les robots d'analyser la page en question puisqu'ils devront trouver un autre lien. Il est donc crucial d'effectuer une analyse régulière des liens du site et de mettre à jour les URL.
C'est un point essentiel pour l'internaute : un temps de chargement trop long impactera fortement votre taux de conversion. D'autre part, son poids est faible pour l'algorithme de pertinence de Google et donc dans le classement des résultats de recherche.
L'outil PageSpeed Insights de Google vous permet d'effectuer une analyse rapide des performances de chargement du site (bureau et mobile).
Les outils Mobile-Friendly Test (MFT) ou Mobile-Friendly Usability Inspection (MUI) vous permettent de vous assurer que l'expérience utilisateur du site mobile est correcte.
Il donne accès aux détails de tous les problèmes/erreurs présents sur les pages du site.
Bénéficiez d'audits gratuits de vos campagnes ainsi que d'une proposition de stratégie d'acquisition sur vos leviers payants.
Audit gratuit · Accompagnement sur mesure · Performances
Spark, Droits réservés, 2024.