La liste de contrôle technique essentielle du référencement en 2021
Publié: 2021-07-20Suivre une liste de contrôle technique pour le référencement est le meilleur moyen de vous assurer que vous ne négligez aucun effort lors de l'audit des performances de référencement de votre site Web.
Chaque spécialiste du marketing numérique doit comprendre comment effectuer un audit technique de site SEO, mais il ne suffit pas de simplement brancher l'outil d'audit de site SEO que vous avez choisi. Les meilleurs spécialistes du marketing numérique comprennent comment différentes erreurs techniques peuvent avoir un impact sur les classements de recherche, et ils sont plus efficaces pour hiérarchiser les changements à fort impact qui obtiennent des résultats pour leurs clients.
Avec notre liste de contrôle SEO technique essentielle pour 2021, nous espérons aider les spécialistes du marketing numérique de deux manières :
- En fournissant une liste complète des problèmes techniques de référencement que vous pouvez rechercher lors de l'audit des sites Web de vos clients.
- En vous éduquant sur l'impact des problèmes techniques de référencement sur vos classements SERP, afin que vous sachiez sur lesquels vous concentrer et comment ils sont liés à vos objectifs globaux de campagne.
Pour décomposer les informations, nous avons divisé notre liste de contrôle en 8 domaines distincts d'audit SEO technique :
- Vérification de l'exploration
- Optimisation de la vitesse et des performances
- Optimiser les données structurées
- Optimiser les URL
- Optimisation des balises HTML et méta
- Optimiser l'intégration des médias sociaux
- Optimiser le contenu et la structure
- Audit des liens internes/sortants
Checklist technique essentielle pour le référencement en 2021
Vérification de l'exploration
S'assurer que les moteurs de recherche sont capables d'explorer efficacement votre site Web devrait être l'élément numéro un de votre liste de contrôle technique pour le référencement.
Les moteurs de recherche découvrent et indexent les sites Web à l'aide de robots Internet appelés robots d'exploration. Les robots d'exploration parcourent des milliards de pages de contenu chaque jour, recherchant de nouveaux sites Web et des mises à jour ou de nouveaux contenus sur des sites Web connus.
Si vous souhaitez que votre site Web soit classé sur les moteurs de recherche, il est important de vous assurer que les robots d'indexation déployés par les moteurs de recherche peuvent facilement trouver et explorer votre site Web. Si votre site Web n'est pas compatible avec les robots d'exploration, Google et Bing ne pourront pas collecter les informations nécessaires pour classer vos pages dans les résultats de leurs moteurs de recherche. Ces techniques d'optimisation vous aideront à indexer vos pages plus rapidement et de manière plus fiable en garantissant que les moteurs de recherche peuvent explorer efficacement votre site Web.
Optimisation du fichier Robots.txt - Lorsqu'un robot d'exploration essaie de lire votre site Web, la première chose qu'il recherche est votre fichier Robots.txt qui doit résider à la racine de votre site, par exemple à l'adresse www.yourwebsite.com/robots.txt . Un fichier robots.txt peut indiquer à un robot quelles pages de votre site Web il peut ou ne peut pas demander. Il peut également connecter des robots d'exploration à votre plan de site XML.
Optimisation du sitemap XML – Lorsque Google explore votre site Web, l'une de ses directives consiste à identifier le contenu le plus important qui mérite d'être indexé dans les résultats de recherche. Avec un plan de site XML, vous indiquez à Google exactement quelles pages sont les plus importantes et où trouver le contenu le plus précieux sur votre site Web.
Résultats de recherche internes Noindex – Si votre site Web dispose d'un moteur de recherche interne, vous devez empêcher vos résultats de recherche internes d'apparaître sur Google et Bing. Vous pouvez le faire en utilisant une règle d'interdiction dans votre fichier Robots.txt ou en mettant à jour la section head de chaque page avec une directive noindex.
Vérifiez les ressources interdites - Les robots d'exploration ne se contentent pas de lire le code HTML de vos pages Web ; ils rendent la page entière exactement comme un utilisateur la verrait. Si des ressources présentes sur la page sont bloquées par votre fichier robots.txt, les robots d'exploration peuvent avoir des difficultés à afficher le contenu de la page. Le rendu des pages semble être un facteur important pour déterminer dans quelle mesure votre site Web est adapté aux mobiles, alors assurez-vous que toutes les pages que vous souhaitez explorer peuvent être entièrement rendues par les robots.
Optimisation de la vitesse, des performances et de la sécurité
La vitesse de la page et les performances sont deux des facteurs les plus importants qui ont un impact sur votre classement SERP. Lorsque votre site Web prend beaucoup de temps à charger, l'expérience utilisateur globale s'effondre rapidement, les conversions se tarissent et les utilisateurs rebondissent plus fréquemment sans s'engager. Google peut mesurer tout cela en collectant des données de terrain auprès d'utilisateurs réels via le navigateur Chrome sur ordinateur de bureau et mobile.
Nous savons également que Google privilégie les sites Web dotés de fonctionnalités de sécurité solides qui inspirent la confiance des clients, il est donc important de les traiter également.
Réactivité mobile – Un site Web réactif pour mobile utilise un contenu dynamique pour offrir la meilleure expérience de visualisation possible à tous les utilisateurs, quel que soit l'appareil qu'ils utilisent pour accéder au contenu. Google favorise absolument les sites Web réactifs mobiles, en particulier dans les résultats des recherches sur les appareils mobiles.
Temps de chargement des pages – Le meilleur moyen d'auditer la vitesse de votre site est d'utiliser l'outil gratuit PageSpeed Insights de Google. Vous serez en mesure d'identifier les pages qui prennent le plus de temps à charger et pourquoi, ainsi que des astuces et des conseils pour améliorer les performances du site Web et réduire les temps de chargement de vos pages.
HTTPS – HTTPS signifie Hypertext Transport Protocol Security. Votre serveur Web doit avoir un certificat SSL installé qui active le protocole HTTPS et assure une connexion sécurisée entre votre serveur Web et tout navigateur client accédant à votre site Web. Le navigateur Chrome qualifie également tout site Web sans HTTPS de « non sécurisé », il est donc essentiel de s'assurer que vous disposez d'un certificat SSL configuré pour votre serveur Web.
Optimiser les données structurées
Les données structurées sont du code sur votre site Web qui est écrit d'une manière spécifique afin que les moteurs de recherche puissent les comprendre et les utiliser pour afficher des résultats de recherche plus complexes en utilisant votre contenu. Lorsque vous optimisez les données structurées, Google peut transformer vos résultats SERP en « extraits enrichis » qui génèrent généralement un CTR plus élevé et créent une augmentation du trafic.
AMP - Accelerated Mobile Pages (AMP) est un framework open source qui permet aux webmasters d'offrir des expériences rationalisées aux utilisateurs mobiles avec des règles HTML et CSS simplifiées. Les pages qui utilisent AMP peuvent se charger beaucoup plus rapidement que le HTML ordinaire et bénéficient généralement d'emplacements plus élevés dans les résultats Google SERP sur les appareils mobiles. WordPress dispose d'un plug-in AMP qui peut vous aider à générer des versions AMP de votre contenu pour les appareils mobiles.
Fil d'Ariane – Le fil d'Ariane est un type de données structurées qui aide les vrais utilisateurs humains et les robots Google à naviguer efficacement dans la hiérarchie du contenu de votre site Web. Le moteur de recherche de Google utilise le fil d'Ariane de votre page Web pour présenter plus d'informations aux utilisateurs dans vos résultats de recherche, ce qui vous donne plus d'espace sur la page et contribue à augmenter le CTR. En savoir plus sur l'utilisation du fil d'Ariane sur votre site Web.
Optimiser les URL
Chaque URL de votre site Web est l'adresse d'un élément de contenu auquel un robot d'exploration ou un utilisateur humain peut souhaiter accéder. Créer des URL adaptées aux moteurs de recherche et à votre public est à la fois un art et une science. Voici quelques points à surveiller lors de l'optimisation des URL de votre site Web dans le cadre de votre liste de contrôle technique pour le référencement.
Lisibilité des URL – L'un des facteurs de classement Google les plus importants est le nombre de visites directes que vos URL reçoivent. Google mesure cela en collectant des données utilisateur via son navigateur Chrome. Si votre URL n'est pas facile à saisir pour une personne, vous ne recevrez aucune visite directe et votre classement dans les recherches peut en souffrir.

Longueur/Structure de l' URL – Les URL trop longues ne généreront pas beaucoup de trafic direct et ne disent pas grand-chose aux moteurs de recherche sur ce qu'il faut trouver sur cette page. Gardez vos URL courtes et descriptives.
Soulignements dans l'URL - Utilisez toujours des tirets pour séparer les mots dans la même URL - Les robots d'exploration de Google ne lisent pas les traits de soulignement et ne seront pas en mesure d'indexer correctement les URL qui les incluent.
Descriptivité de l'URL – Une URL descriptive est le meilleur moyen de permettre aux utilisateurs et aux moteurs de recherche de savoir à quel type de contenu s'attendre sur une page.
Erreurs canoniques – Si vous avez une page Web spécifique accessible à l'aide de plusieurs URL, les URL canoniques peuvent être utilisées pour indiquer aux moteurs de recherche laquelle de ces URL doit être utilisée pour indexer cette page. Les erreurs canoniques peuvent créer la perception d'un contenu en double sur votre site Web, entraînant des pénalités de classement.
Optimisation des balises HTML et méta
Les robots d'exploration de Google examinent les balises HTML et méta sur chaque page de votre site Web pour déterminer le sujet de cette page et les mots-clés pour lesquels elle pourrait être classée. L'optimisation du HTML sur chaque page de votre site Web autour d'un mot clé spécifique aide les robots d'exploration à déterminer pour quels mots clés les pages individuelles doivent être classées dans les SERP.
Balises de titre – Les balises de titre doivent comporter de 50 à 60 caractères et inclure votre mot-clé cible pour la page quelque part près du début. Chaque page doit avoir une balise de titre différente qui est pertinente et descriptive par rapport à son contenu. Évitez le bourrage de mots clés et écrivez des balises de titre simples et descriptives.
Méta descriptions – Chaque page de votre site Web que vous espérez classer dans les SERP a besoin d'une méta description unique d'environ 140 à 160 caractères. Les méta-descriptions n'ont pas besoin d'inclure le mot-clé cible, mais elles doivent être optimisées pour générer un CTR car elles seront généralement affichées dans le cadre de vos résultats de recherche Google.
Balises d'en-tête – Google utilise des balises d'en-tête pour déterminer comment le contenu de chaque page de votre site Web est organisé. Les en-têtes doivent apparaître dans le bon ordre sur chaque page, avec les en-têtes H1 en haut, les en-têtes H2 apparaissant plus bas et les en-têtes H3 ou H4 imbriqués sous le reste. Chaque page doit avoir exactement un en-tête H1 qui inclut le mot-clé cible.
Optimisation pour les médias sociaux
Bien que vous ne puissiez pas effectuer un audit technique pour augmenter votre nombre de mentions ou d'abonnés, vous devez apporter des ajustements techniques à votre site Web afin de permettre à vos visiteurs de partager plus facilement et plus efficacement votre contenu sur les réseaux sociaux.
Cartes Twitter – Les cartes Twitter permettent à votre public de générer facilement des tweets utilisant des images, des vidéos et d'autres médias à partir de votre site Web. Vous devrez ajouter des balises Open Graph à votre site Web pour le faire fonctionner, mais heureusement, il existe un guide complet expliquant comment optimiser les tweets à l'aide des cartes Twitter.
Open Graph Markup – Votre plan marketing repose-t-il sur la génération de partages sociaux sur Facebook ? Pour tirer le meilleur parti de ces partages, le marquage du code HTML de votre page avec des balises Open Graph garantira que le contenu partagé apparaît sur la plate-forme Facebook avec la vignette, le titre et la description corrects.
Optimiser le contenu et la structure
L'optimisation de la structure du contenu de votre site Web est un élément essentiel de cette liste de contrôle technique SEO. Les moteurs de recherche se soucient beaucoup de la façon dont le contenu est structuré et optimisé sur votre site Web. Un contenu bien organisé n'est pas seulement plus facile à naviguer pour les utilisateurs humains, il est également plus convivial pour les robots des moteurs de recherche qui veulent comprendre comment le contenu est organisé sur votre site Web. Voici comment vous pouvez structurer votre contenu pour offrir une meilleure expérience à la fois aux utilisateurs humains et aux robots d'exploration.
Construire une hiérarchie de contenu – Le contenu de votre site Web doit être hiérarchisé. Avec la page d'accueil en haut, le contenu doit ensuite être organisé en catégories et sous-catégories par type. De nombreux sites Web ont des catégories distinctes pour les solutions, les produits, les services, les études de cas, les blogs, les guides, etc. La mise en œuvre d'une structure d'URL qui reflète votre hiérarchie de contenu permet aux utilisateurs humains et aux robots d'exploration de naviguer plus facilement sur votre site.
Limitation de la profondeur d'exploration - Lors de la construction de votre hiérarchie de contenu, la largeur est meilleure que la profondeur. Les robots commencent à explorer votre site Web au niveau du domaine racine, vous voulez donc que la plupart de votre contenu soit relativement proche du premier niveau de votre site - votre page d'accueil. Les utilisateurs doivent pouvoir naviguer de votre page d'accueil vers n'importe quelle page de votre site Web avec un maximum de 3 ou 4 clics.
Optimisation des mots clés – Chaque page de votre site Web que vous souhaitez classer dans les SERP doit être optimisée autour d'un mot clé spécifique et d'une intention de recherche correspondante.
Longueur du contenu – La longueur du contenu est un facteur de classement important, car les articles de forme plus longue sont généralement corrélés à une plus grande profondeur et se sont avérés plus susceptibles d'être classés que les articles plus courts. Envisagez de regrouper plusieurs articles connexes et plus petits en un seul article plus grand et faisant plus autorité pour augmenter le classement.
Texte alternatif – Le texte alternatif est un attribut d'image qui affiche du texte au lieu d'une image dans les cas où l'image ne peut pas être chargée. Les utilisateurs malvoyants peuvent également utiliser du texte alternatif pour comprendre le contenu d'une image. Écrire un texte alternatif descriptif pour chaque image est excellent pour l'accessibilité globale de votre site Web. Il fournit également une source de données que Google peut utiliser pour afficher vos images dans ses résultats de recherche d'images, ce qui peut générer d'énormes volumes de trafic vers votre site Web.
Audit des liens internes/sortants
Chaque audit technique de référencement doit inclure un examen de tous les liens internes ou sortants qui apparaissent sur votre site Web. Voici quelques optimisations que vous devriez considérer lorsqu'il s'agit d'auditer vos liens internes :
Texte d'ancrage – Lorsque vous créez un lien hypertexte sur votre site Web, le texte d'ancrage doit être descriptif de la page vers laquelle vous créez un lien. Cela s'applique aux liens de navigation internes et aux liens qui conduisent les utilisateurs hors de votre site Web. Les liens internes renforcent davantage vos signaux de recherche lorsque vous utilisez un texte d'ancrage pertinent.
Liens brisés – Les liens brisés entraînent des erreurs de navigateur 404. Ils perturbent les robots d'exploration sur votre site Web, signalant une mauvaise qualité aux moteurs de recherche et ayant un impact négatif sur l'expérience utilisateur. Assurez-vous que tous les liens internes et permanents sur vos pages sont fonctionnels et pointent vers les bonnes pages.
Lien Spam – Avoir trop de liens internes sur votre site Web peut indiquer à Google que vous spammez des liens pour augmenter artificiellement votre classement de recherche. Cela pourrait entraîner des pénalités de classement contre votre site Web et pourrait même se produire si vos visiteurs publient des liens de spam dans la section des commentaires sur certaines de vos pages. Vous devez veiller à continuellement auditer et supprimer les liens de spam de toutes les pages où vous autorisez les commentaires et supprimez ou modifiez les pages avec une quantité excessive de liens internes.
Erreurs de redirection 301s – Bien que ce ne soit pas une mauvaise chose d'utiliser des redirections sur votre site Web, vous devez vérifier les erreurs de redirection pour vous assurer que les chaînes de redirection fonctionnent correctement et amener les visiteurs et les robots là où ils sont censés aller.
Résumé
Merci d'avoir lu notre liste de contrôle technique pour le référencement !
L'audit technique du référencement peut être un processus intimidant pour les débutants, mais il existe un moyen de le rendre moins accablant.
Au lieu de vous concentrer sur les milliers de façons dont vous pourriez vous tromper, concentrez-vous sur la compréhension de chaque aspect de votre référencement technique et amenez lentement de plus en plus de votre contenu en conformité avec cette norme.
Au fil du temps, vous optimiserez efficacement votre site Web pour les moteurs de recherche et deviendrez un assistant de l'audit technique du référencement.
Bonne chance!