Testez notre nouvel outil: Site Crawl!
Chez WooRank, nous sommes toujours à la recherche de nouvelles fonctionnalités pour vous aider à améliorer le référencement de votre site Web et l'expérience utilisateur afin que vous puissiez tirer le meilleur parti de vos efforts en marketing digital. Aujourd'hui, nous sommes fiers de vous annoncer la sortie de notre nouvel outil: Site Crawl!
Qu'est-ce que c'est Site Crawl?
Comme vous le savez probablement, le marketing digital n'est pas facile, surtout lorsque vous vous concentrez sur le référencement naturel (ou trafic organique) . En fait, si votre site a des problèmes qui sont apparemment mineurs et cachés sur les pages individuelles, ceci pourrait entraîner de véritables problèmes pour votre référencement. C'est là que Site Crawl entre en jeu.
Site Crawl parcourt vos pages pour trouver les problèmes suivants qui pourraient affecter votre site:
- Problèmes on-page
- Contenu dupliqué
- Problèmes d'indexation
- Erreurs de tag de retour
- Problèmes de canonisation
Ces problèmes peuvent représenter de sérieux obstacles pour les moteurs de recherche. La vérification de votre site et la résolution de ces problèmes aideront les moteurs de recherche à indexer vos pages de manière plus efficace et à améliorer la performance de votre site dans les classements de recherche.
Comment marche Site Crawl ?
Vous pouvez ouvrir Site Crawl en cliquant sur l'icà´ne située à cà´té de l'URL de votre Rapport Avancé, sur votre page d'accueil WooRank ou sur le lien Site Crawl en haut de votre Rapport Avancé. Pour commencer à utiliser l'outil, il suffit de cliquer sur "Exécuter le premier crawl" et de donner à nos araignées le temps de faire leur tà¢che (cela ne prendra pas plus de 10 minutes). Notez que vous pouvez analyser votre site une fois par jour pour vérifier vos modifications.
Nous avons codé par couleur les informations dans le site Crawl pour vous aider à mieux classer et prioriser votre travail:
- Rouge: Questions prioritaires qui posent un grave problème au référencement de votre site. Vous devez corriger ces problèmes en priorité.
- Orange: Priorité moyenne, moins critiques que les questions en rouge mais toutefois importantes.
- Bleu: Notes d'information. Elles n'ont pas nécessairement d'impact sur le référencement de votre web, mais vous devez toujours être au courant de ce qui est sur votre site.
Les résultats de votre analyse de site sont répartis en quatre sections:
- On-page
- Etat HTTP
- Indexation
- Canonique
Chacune de ces sections examine les aspects suivants:
1. On-Page
La section On-page répertorie les problèmes et les erreurs liés au contenu HTML et au contenu de votre site. Cela comprend les balises de titre, les méta-descriptions, les balises H1 et le contenu de la page, pauvre ou dupliqué. Ces erreurs peuvent rendre plus difficile pour les moteurs de recherche d'interpréter votre contenu et peut même vous amener à être classé de mauvaise qualité.
- La balise "€˜Title': Site Crawl trouve des pages avec des tags de titres manquants, trop longs, trop courts et dupliqués. Les titres sont coupés dans les résultats de recherche après environ 65 caractères (ou 600 pixels), de sorte que les utilisateurs ne verront pas les mots-clés qui apparaissent à la fin des titres plus longs, tandis que les titres courts ne tirent pas le meilleur parti de ce facteur de classement important. Les pages avec des balises de titre en double sont interprétées par les moteurs de recherche comme des signes de contenu en double.
- Méta description: Cette section identifie les méta descriptions manquantes, trop longues, trop courtes et dupliquées sur votre site. Les moteurs de recherche créent leurs propres descriptions lorsque les pages ont des descriptions manquantes, courtes ou inexactes. Ceci signifie que l'extrait de recherche de votre page pourrait être moins attirant pour inciter l'utilisateur à cliquer. Comme les balises de titre, chaque page doit avoir une méta description unique pour éviter d'éventuels problèmes de contenu en double.
- Tags H1: Cette section identifie les pages avec des étiquettes H1 manquantes ou multiples. Les moteurs de recherche voient les tags H1 comme des titres de contenu et auront du mal à interpréter les pages sans en avoir un. L'utilisation de plusieurs balises H1 sur une page est une veille technique black hat SEO pour classer plusieurs mots clés non liés, donc s'il y plus d'un tag H1 par page, votre site peut être considéré comme du spam.
- Contenu 'body' de la page Cette section contient des pages ayant du contenu pauvre ou dupliqué dans la balise <body>. Les sites web qui hébergent beaucoup de contenu pauvre, des pages vierges, ou qui ont beaucoup de texte copié, prennent le risque d'être considérés comme des sites de mauvaise qualité. Cela entraînera un site à lutter pour classer tous les mots clés.
2. Etat HTTP
Cette section répertorie les pages qui renvoient des codes d'état HTTP indiquant des problèmes qui pourraient nuire à l'accessibilité, à l'utilisabilité et à la capacité de distribuer link juice de votre site entre les pages. Les codes d'erreur HTTP empêchent les utilisateurs d'accéder aux pages qu'ils souhaitent visiter et empêchent les moteurs de recherche d'indexer des pages. Si un moteur de recherche rencontre un grand nombre de codes d'erreurs HTTP, cela pourrait entraîner la désindexation de votre page.
- 5xx Erreurs: Un serveur renvoie un code d'erreur de type 5xx lorsqu'il est incapable de répondre à une requête d'un navigateur en raison de son délai, la page étant inaccessible ou le site étant occupé.
- Erreurs 4xx: Un serveur renvoie un code 4xx lorsqu'il reà§oit une demande non valide du client (navigateur). Les demandes peuvent ne pas être valides en raison d'un manque d'autorité pour accéder à une page, en utilisant une requête.
- Redirections 3xx: les codes de redirection 3xx ne sont techniquement pas des erreurs; Ils demandent au navigateur de compléter une étape supplémentaire pour charger la page. Cependant, les erreurs de redirection telles que les boucles de redirection, les chaînes de redirection et les redirections interrompues ont toutes une incidence négative sur l'expérience utilisateur et le référencement de votre site.
- HTTP dans HTTPS: Cette section identifie les pages hébergées sur des URL sécurisées qui contiennent des éléments (images, JavaScript, CSS, etc.) qui n'utilisent pas de HTTPS. La sécurité est un facteur de classement pour Google et c'est également important pour les utilisateurs. Ces actifs non HTTPS rendent votre page moins sécurisée.
3. Indexation
La section Indexation identifie les pages qui ne sont pas entièrement indexables par les moteurs de recherche et ne peuvent donc pas être affichées dans les résultats de recherche. Cela est souvent fait intentionnellement, comme pendant une migration de site, mais peut parfois se produire par inadvertance, en gardant vos pages hors des résultats de recherche, peu importe la qualité ou la pertinence de la requête de recherche.
- Pages non indexables: Ces pages ne sont pas analysées et / ou indexées en raison de leur utilisation de noindex X-Robot-Tags, de balises meta robots, de fichiers robots.txt ou de balises canoniques. Cette section indique également si la page non indexable est incluse dans votre sitemap XML.
- Pages non autorisées: Ces pages sont interdites via le fichier robots.txt de votre site. Cette section indique également si la page est répertoriée dans votre sitemap.
- Nofollowed pages: Cette section répertorie les liens internes - les liens sur vos pages pointant vers d'autres pages de votre site - qui ont l'attribut nofollow. L'attribut nofollow empêche vos pages de passer le link juice vers le reste de votre site, ce qui signifie qu'il pourrait être moins bien optimisé.
4. Canonique
Les balises canoniques indiquent aux moteurs de recherche que la page héberge un contenu copié ou suffisamment similaire pour être considéré comme dupliqué à partir d'une autre URL. L'URL dans la balise canonique indique aux moteurs de recherche o๠ils peuvent trouver la version originale de la page, et o๠ils doivent consolider le jus de lien. Ces balises sont un outil important pour traiter le contenu en double qui provient naturellement de sites web importants et / ou complexes.
La section canonique identifie les problèmes découlant des balises canoniques et des liens sur votre site Web:
- Canoniques conflictuelles: L'URL répertoriée dans la balise canonique ne peut pas être consultée.
- Incompatibilité du sitemap: l'URL de la balise canonique de la page ne correspond pas à l'URL répertoriée dans votre plan du site.
- Incompatibilité Open Graph: l'URL du tag canonique ne correspond pas à l'URL du graphique ouvert du site.
- Problèmes liés à Hreflang: Le tag Hreflang d'une page contient une URL qui permet de lier une page brisée.
Comment pouvez-vous l'activer?
L'utilisation de Crawl de site est hyper simple. Il n'y a pas de configuration, pas d'informations à entrer ou de comptes à synchroniser. Il s'agit simplement d'un processus en deux étapes:
- Cliquez sur le lien "€œSite Crawl"€ sur votre page d'accueil ou depuis un Rapport Avancé
- Cliquez sur "€œCommencer l'exploration"€ (ou "€œExplorer site"€ si vous l'avez déjà exploré avant)
Cet outil simple et facile peut se révéler une aide puissante pour le référencement de votre site. Grà¢ce à Site Crawl, vous pouvez désormais trouver rapidement et facilement les problèmes liés aux méta étiquettes de vos pages, le contenu, l'état du serveur, les URL canoniques et la sécurité afin que vous puissiez les corriger et récupérer votre page dans les résultats de recherche.
Suivez notre blog pour découvrir encore plus d'infos et conseils pour optimiser votre site! Si vous souhaitez partager votre expérience avec l'outil Site Crawl ou poser des questions sur notre produit n'hésitez pas à laisser vos commentaires ci-dessous!