Hextrakt est un crawler créé par des professionnels du SEO pour vos audits techniques. Le logiciel passe en revue l'ensemble des critères techniques les plus importants pour une analyse fine des optimisations SEO, pour tout type de site web, y compris les plus volumineux.
Nous alimentons ce guide au fur et à mesure des évolutions du logiciel. N'hésitez pas à nous contacter si vous ne trouvez pas de réponses à vos questions ici ou dans la FAQ. Vous pouvez suivre les évolutions de notre crawler et nos actualités sur twitter.
Technologie de crawl asynchrone et adaptive
La plupart du temps, nous ne connaissons pas le nombre de connexions parallèles qu'un serveur est capable de supporter, sans parler du trafic à un instant T. Crawler un site à une vitesse trop rapide demandant beaucoup de ressources peut ralentir le serveur, ou dans le pire des cas provoquer un arrêt. C'est pour cette raison que nous avons développé une technologie asynchrone et adaptive : Hextrakt analyse les réponses serveur ainsi que la capacité du poste client à analyser les URLs crawlées, et règle automatiquement la vitesse de crawl optimale. Si besoin vous pouvez paramétrer vous-même le nombre de connexions en parallèle dans la configuration du crawl.
Rapports de crawl
Le menu principal d'Hextrakt donne accès à ces rapports de crawl :
- Directives : indexabilité, erreur de balises canonical, hreflang, URL alternatives pour mobile et pages AMP
- On page :contenu dupliqué, balises titles et meta descriptions, contenu et balisage HTML (titres Hn, nombre de mots, données structurées et tags sociaux, sections HTML5), images
- Liens internes et externes, liens brisés ou redirigés
- Performance : statut des pages, temps de chargement, poids...
- Données d'usage en provenance de Google Analytics et Search console :pages actives, pages orphelines, pages avec impressions dans les SERP
- Historique et comparaison de crawls : nouvelles pages, erreurs et alertes, différences entre deux crawls.
Pour analyser les données collectées, nous vous recommandons de commencer par catégoriser les URLs grâce aux tags (étiquettes), par exemple par template ou thématique. Vous pourrez ainsi trouver des leviers d'optimisations et identifier facilement les fichiers sur lesquels intervenir.