5 choses que vous devez savoir sur le référencement à la pointe avec Chris Green
Publié: 2022-08-10Aujourd'hui, nous allons voir comment vous pouvez améliorer la qualité de votre vie SEO en menant plus de vos affaires sur le bord avec un saut à la corde, qui aime se gratter la barbe pensivement tout en sirotant du café et du whisky, ou peut-être idéalement, un Irish Coffee. Il est le formateur, le conférencier et le solutionneur de problèmes de recherche. Bienvenue dans le podcast In Search SEO, consultant SEO senior, Chris Green.
Les cinq tâches sont :
- Tests fractionnés
- Gestion des redirections
- Journalisation des accès au bot
- Création/gestion du plan du site
- Injecter du contenu
Chris : Merci de m'avoir invité, David.
D : Vous pouvez trouver Chris sur chris-green.net. Alors, Chris, tu n'en as pas l'air, mais es-tu toujours à la limite ?
C : Je ne sais pas. Je pense que quiconque fait du référencement depuis des décennies serait un peu nerveux. La reponse courte est oui. La réponse longue, ça dépend. Attendez, c'est une autre réponse courte. Je me suis lancé dans le référencement à l'époque où les pingouins et les pandas ont commencé à démarrer, alors oui, je pense que je suis suffisamment sur le fil du rasoir. Je ne pense pas m'être jamais remis de ça si je suis tout à fait honnête.
D : Je me souviens que vous parliez du bord il y a un moment. Vous êtes certainement l'un des penseurs éminents sur le sujet. C'est donc formidable de vous avoir pour en discuter. Et aujourd'hui, vous allez partager cinq tâches SEO qui sont mieux gérées à la périphérie. En commençant par le numéro un, les tests fractionnés SEO.
1. Tests fractionnés SEO
C : Donc, les tests au sein du SEO ont finalement pris un peu plus d'ampleur. Et il existe plusieurs façons de tester le référencement, du simple fait de le déployer, de vérifier avec Analytics, a-t-il fonctionné, n'a-t-il pas fonctionné. C'est le moyen le plus simple qu'en théorie, nous tous dans le référencement devrions faire. Mais la façon dont "le bord" fonctionne consiste à déployer efficacement un changement sur 50 % des pages d'un groupe et à laisser Google visiter les pages de test, puis les pages de contrôle/inchangées. Cela vous aide à apporter des modifications aux groupes de pages sur votre site Web sans en fait, changer la base de code ou ajouter des exigences supplémentaires sur le serveur ou le CMS. C'est comme ajouter une couche supplémentaire qui dit que sur ces pages, nous allons montrer aux gens différentes versions, ce que vous pouvez faire à différents moments du processus.
Ainsi, le bord donne l'impression qu'il provient du serveur, ce qui est idéal pour l'indexation car Google le récupère comme s'il s'agissait simplement de code. Vous pouvez également effectuer ce test dans le client. Donc, en utilisant JavaScript, qui est fondamentalement moins fiable, cela peut fonctionner, mais cela met beaucoup plus l'accent sur Google. Ainsi, le bord le rend plus rapide et les résultats que vous obtenez, vous pouvez faire plus confiance. Ce n'est pas parfait, mais c'est beaucoup mieux et beaucoup plus robuste.
D : Alors, la plupart des référenceurs proposent-ils leurs propres scripts ou utilisent-ils des scripts simples pour exécuter ces tests fractionnés ? Ou existe-t-il un logiciel de test fractionné spécialisé que vous recommanderiez d'utiliser en conjonction avec le bord ?
C : Vous pouvez passer du sublime au ridicule. Si vous ne parlez que du bord, je dirais qu'il y a probablement une poignée de joueurs dans l'espace qui est établi. Ainsi, Search Pilot, anciennement ODN, est littéralement construit sur une infrastructure de périphérie. Ils ont construit un méta CMS qui vous permet de contrôler tout cela. Et puis ils ont ajouté toute la méthodologie d'analyse et d'analyse vraiment intelligente en plus de cela. Je ne peux absolument pas prétendre posséder ou commencer cela ; loin de là. Ils font partie des plus grands pionniers. Mais ce que vous pouvez faire avec la périphérie sur tous les différents types d'infrastructures de périphérie, Akamai, Cloudflare et Fastly, c'est que vous pouvez écrire les scripts pour le faire vous-même. Et quand vous parlez de la périphérie, ce dont vous avez besoin pour exécuter ces tests, ce sont les pages qui vont être les pages de contrôle, qui vont être le test. Et puis le script qui apporte effectivement les modifications à la version de test. Et les complexités autour de cela dépendent de la complexité du test. Si vous ne faites que réécrire des titres de page, par exemple, cela devient vraiment une chose assez simple à faire. Je ne suis pas ingénieur. Je suis un SEO qui est parfois trop curieux pour mon propre bien, mais ces choses, en particulier sur Cloudflare, sont probablement l'un des éléments les plus accessibles là-bas. Moi-même et Simon Thompson il y a des années, à l'époque où nous étions tous les deux dans un outil intégré à une agence appelé Tool Spark, qui s'est avéré être davantage une version bêta et une preuve de concept. Mais c'était en plus de l'infrastructure de Cloudflare. Et cela, encore une fois, vous permet de déployer des tests fractionnés sur un bord, essentiellement, gratuitement à ce stade, mais cela a fini par être davantage un bac à sable. Vous pouvez donc parcourir le logiciel de niveau entreprise pour créer le vôtre. Et puis il y a des plates-formes plus émergentes sur lesquelles vous pouvez exécuter cela. Mais je pense qu'en tant que référenceur, vous devez réfléchir à la pile dans laquelle vous construisez. Qui d'autre avez-vous besoin d'embarquer ? Si vous avez besoin d'atténuer les risques et que vous devez publier des droits et modifier des historiques, vous optez pour l'option Entreprise. Si vous venez d'avoir quelqu'un qui a démarré, mais qui veut vraiment le tester, construisez directement sur le bord. Trouvez quelqu'un qui peut écrire du code pour les travailleurs et vous pourrez tester des choses.
D : J'ai l'impression que nous pourrions parler de tests fractionnés à la périphérie pendant environ trois heures. Mais passons au deuxième domaine que vous recommanderiez comme étant meilleur et plus efficace en périphérie, la gestion des redirections.
2. Gestion des redirections
C : Oui, la gestion des redirections est généralement pénible, car si vous avez de grands sites Web ou de nombreuses infrastructures différentes, savoir où les différentes redirections sont contrôlées et gérées, dans quel ordre elles se déclenchent, si elles sont complexes, etc. c'est un cauchemar. . Et pratiquement toutes les grandes organisations ont ce problème. Et l'un des gros problèmes que vous rencontrez est que vous finissez par faire passer des personnes entre différents serveurs ou différentes couches CDN en une seule action de redirection, ce qui est inefficace. Donc, si vous passez par le CDN, allez sur le serveur, le serveur dit ensuite que vous devez aller ailleurs, puis vous allez ailleurs, puis vous êtes redirigé ailleurs, c'est vraiment inefficace, plutôt coûteux, et un cauchemar à gérer.
Maintenant, en raison de l'emplacement du CDN ou de la périphérie, c'est la première chose que l'utilisateur rencontrera. Si vous gérez toutes vos redirections par là et assurez-vous d'avoir aplati toutes les modifications à ce stade, ce qui est relativement simple à faire... Premièrement, vous pouvez réduire le nombre de redirections. Deuxièmement, vous n'atteignez pas le serveur d'origine avant qu'il ne vous redirige. Ainsi, vous réduisez en fait le niveau de trafic vers l'origine et la redirection se produit beaucoup plus rapidement, directement à partir de ce serveur. Et enfin, si vous avez de la discipline et que vous l'avez correctement mise en œuvre, vous n'avez qu'un seul endroit où vous devez examiner toutes les redirections, quelles que soient les différentes plates-formes. Et cette simplicité, lorsque vous insufflez de la discipline dans l'équipe, en fait un peu une évidence pour être honnête.
D : Et numéro trois, la journalisation des accès aux bots.
3. Journalisation des accès aux bots
C : La journalisation des accès aux bots est intéressante. Si vous avez déjà essayé de faire un audit de fichier journal et que vous avez dit que j'avais besoin de mes journaux d'accès pour faire l'analyse, vous allez chez DevOps ou qui que ce soit, ils vous donneront un regard perplexe ou ils diront non, c'est trop gros, nous ne le stockons pas, ou nous stockons la valeur d'une journée, ou vous pouvez l'avoir mais s'il vous plaît, rejoignez une longue file d'attente. C'est vraiment difficile. De plus, si vous exécutez CDN en cache, vos journaux d'accès au serveur peuvent ne pas recevoir tout le trafic du bot de toute façon. Ainsi, vos journaux ne seront pas complets. Tout ce qui passe par le CDN est capté par tout le trafic, qu'il soit mis en cache ou non. Et si vous utilisez la périphérie pour stocker efficacement ces données de journal et les diffuser vers un service comme la logique Sumo ou un autre type de stockage, vous avez la possibilité de siphonner toutes ces données à la périphérie plutôt que d'essayer de trouver depuis vos serveurs. Mais aussi si vous écrivez les travailleurs dans le bon type de justification ou de logique à ce stade, vous pouvez le configurer pour ne capturer que le trafic de bot que vous souhaitez. Donc, généralement, Googlebot ou les robots des moteurs de recherche, mais vous pouvez faire des choses comme valider les adresses IP pour vous assurer qu'il ne s'agit pas d'usurpation d'identité, et ne collecter que les données d'accès dont vous avez besoin, ce qui réduit considérablement l'espace de stockage. Et certains outils comme Content King, par exemple, peuvent s'interfacer directement avec certains CDN pour collecter des données directement à partir de ce niveau. Donc, en supposant que vous ayez le bon niveau d'accès, et que DevOps ait dit oui, vous pouvez commencer à collecter ces journaux directement, ce qui signifie que vous pouvez effectuer une analyse SEO technique avec relativement peu de levage.
D : Existe-t-il un site Web d'une certaine taille en termes de pages où il ne devient intéressant que de consulter les fichiers journaux ou chaque SEO devrait-il consulter les fichiers journaux ?
C : En règle générale, si votre site Web compte moins de 10 000 pages, j'ai tendance à ne pas me fier aux journaux ou à les utiliser immédiatement. Principalement parce qu'y accéder est un cauchemar. Si je peux accéder facilement à ces données et que je peux les analyser facilement… alors tous les grands robots d'exploration SaaS comme Deep Crawl ont tous une analyse des fichiers journaux. Si je peux obtenir ces données et les analyser, alors faisons-le. Mais si j'ai moins de 10 000 pages et que l'obtention de ces données est pénible, je ne serai pas trop contrarié. Maintenant, ce nombre de pages est un peu arbitraire, mais si vous avez plus d'un million de pages, alors le fichier journal contiendra beaucoup d'informations et d'informations qui vous donneront de belles victoires supplémentaires. Sous cela, probablement pas la peine. D : Et numéro quatre, les tâches qu'il est plus efficace d'effectuer à la périphérie, la création/gestion du sitemap.
4. Construction/Gestion du plan du site
C : Celui-ci est unique. J'ai eu quelques projets récemment où la génération de plan de site doit extraire des pages de différents services, différents systèmes, c'est obsolète, ça ne fonctionne pas, l'ingénierie pour reconstruire tout cela est incroyablement difficile, etc. Donc, ce que nous avons fait est a créé un service qui extrait les données de l'API d'un robot d'exploration SaaS. Il extrait des pages indexables, puis crée un sitemap XML sur le bord et l'héberge à ce point de bord. Nous utilisons efficacement le robot d'exploration pour explorer les sites tous les jours, il construit et régénère le nouveau plan du site tous les jours et le publie à la périphérie. Certains diront peut-être qu'il s'agit d'une solution sur-conçue qui impose une exigence supplémentaire à un tiers. Et je serais d'accord, mais dans certaines situations, il était tellement logique de créer votre point de vérité unique, les plans de site en un seul endroit, sans demander d'autres API de contenu et d'autres services où souvent ces données ne sont pas propres, elles doivent être filtrées. Et écrire efficacement des microservices qui les hébergent ensuite en périphérie était simplement beaucoup moins cher, beaucoup plus rapide et plus robuste. De toute évidence, la bonne réponse à cela est de bien le construire du premier coup, mais ce n'était tout simplement pas une option.
D : Parler de la construction correcte du premier coup. Y a-t-il un danger à automatiser la construction de sitemaps XML ? Pour qu'il inclue trop de déchets ?
C : Oui. En fait, j'ai trouvé que cela arrive n'importe où. Si vous avez déjà travaillé dans un CMS, vous avez peut-être exploré un sitemap et vu des pages de test, où quelqu'un a créé des pages, ne les a pas mises dans la structure du site, et les a simplement laissées là. Et si la logique qui construit le sitemap ne vérifie pas s'il est indexable et tous ces autres éléments et filtres, il pourrait toujours être publié d'une autre manière. Donc je sais que si vous êtes sur WordPress, Yoast fait une grande partie de ce gros travail pour vous. Je pense que WordPress fait beaucoup plus dans son cœur qu'auparavant. Mais évidemment, un CMS comme Drupal ne s'en occupe pas. Et très souvent, les gens voudront des pages que vous ne voulez pas intégrer au plan du site pour diverses autres raisons. Encore une fois, il s'agit simplement de s'assurer que vous maîtrisez cela et que vous construisez ces filtres dans lesquels je pense que c'est important, que ce soit à la limite ou non. Dans la fantaisie, vous pouvez toujours fournir à Google des données que vous ne voulez tout simplement pas qu'il voie. Mais encore une fois, le faire sur le bord, une solution très rapide et légère pour cela.
D : Et le numéro 5 consiste à injecter du contenu. De quel type de contenu parles-tu là ?
5. Injection de contenu
C : Tout ce qui est orienté Web et numérique. Ce type de chevauchement un peu avec le test fractionné dans le sens où vous utilisez le bord pour ajouter plus de contenu et que le contenu semble provenir du serveur plutôt que du client. Si vous avez déjà été impliqué dans une dispute de sous-domaine ou de sous-répertoire sur les blogs, par exemple, et que vous ne pouvez pas faire passer le blog par la bonne infrastructure, eh bien, vous pouvez utiliser les CDN pour intégrer efficacement le contenu. Vous pouvez dire que vous voulez pour extraire l'en-tête de ce système mais extraire le contenu du blog de ce système. Et dans le bord qui peut être fait très rapidement et efficacement. Une grande partie est mise en cache et cousue ensemble sur le bord. Et au moment où il est affiché à l'utilisateur, vous avez effectivement obtenu ce contenu hybride à partir de deux systèmes différents. Et pour être juste, c'est quelque chose que vous pouvez faire à l'origine, avec la bonne inclinaison et la bonne capacité de construction. Mais le faire à la périphérie, les différents systèmes dont vous tirez, cela n'a presque pas d'importance. Tant que vous pouvez clairement identifier ce dont vous avez besoin. Et vous pouvez écrire le code pour le faire efficacement. Il se déroule de manière très performante, très rapidement, et vous donne ce dont vous avez besoin.
D : Je me souviens qu'il y a longtemps, j'incorporais du contenu à l'aide de cadres et d'includes PHP. Et ces deux méthodes sont très démodées. Y a-t-il des inconvénients à injecter du contenu provenant d'autres sources ou d'autres serveurs Web ? Y aura-t-il des inconvénients SEO potentiels à faire cela ?
C : Les principaux sont que si ces actifs sont disponibles sur d'autres URL et peuvent y être indexés, il existe un risque inhérent. C'est aussi facile à empêcher si vous savez que vous essayez de le faire. Dans certains cas, vous pouvez utiliser des flux de données d'autres services et les assembler, plutôt que l'ancienne méthode de jeu de cadres consistant à placer l'en-tête sur une page, le corps sur une autre page et à les afficher sur la même page. Vous pouvez l'intégrer assez facilement pour empêcher que cela ne se produise. Je pense que la clé est que vous devez recevoir le contenu de ces deux sources de manière fiable et qu'il doit être mis en cache de manière fiable. Je pense beaucoup à la périphérie et aux tâches d'ingénierie les plus compliquées, c'est ce qui se passe si le CDN tombe. Quelle est la solution de repli ? Et cela peut varier en complexité. Je pense que si vous êtes une grande organisation et que vous voulez une disponibilité importante, comme 99,99, vous pouvez créer d'autres CDN pour vous replier. Mais si, par exemple, vous comptez sur votre CDN pour faire l'assemblage, il y a des problèmes de CDN, et vous pouvez constater que certaines de ces pages ne fonctionnent tout simplement pas. Mais si Cloudflare tombe en panne, alors la moitié d'Internet tombe en panne. Dans ces cas, la question est de savoir si nous fournissons la réponse appropriée à Google pour les inciter à revenir plus tard une fois la perturbation passée ?
Je pense qu'avec tout ce qui concerne les bords, c'est là que la plus grande anxiété vient de ce qui se passe si ce service tiers tombe en panne. Mais c'est le cauchemar de toute infrastructure Web. Vous ne pouvez jamais garantir cela même si vous avez le serveur dans votre propre bureau, et vous en êtes heureux. C'est une version assez démodée de toute façon. Mais il n'y a pas de méthode d'hébergement à risque zéro. Vous pouvez tomber sur les autres. Vous pouvez donc avoir une stratégie CDN double. Vous pourriez avoir Akamai sur une couche et Fastly sur une autre. Si Akamai échoue, il passe à Fastly, ou vice versa. C'est incroyablement sophistiqué. Et c'est un cas limite d'un cas limite. Mais il est possible de se protéger contre la plupart de ces problèmes si vous savez ce que vous faites et si vous le spécifiez correctement.
D : Je m'attends à un panel de discussion sur le webinaire sur la manière de garantir une disponibilité à 100 %. Ce serait intéressant.
C : C'est possible, plus possible que jamais, je pense que si vous combinez Cloudflare et Akamai ou Cloudflare et Fastly ou Similarweb, vous pourriez vous en rapprocher, ce qui serait très intéressant.
D : Eh bien, finissons avec Pareto Pickle. Pareto dit que vous pouvez obtenir 80 % de vos résultats à partir de 20 % de vos efforts. Quelle est une activité de référencement que vous recommanderiez qui fournit des résultats incroyables pour des niveaux d'effort modestes ?
Le cornichon de Pareto – Publier les modifications
C : Cela a presque fait partie de ma liste d'avantages, mais ce n'est pas tout à fait et c'est un peu hacky. Donc, certaines personnes n'aimeront pas cela par nature, mais utiliseront l'avantage pour faire quelque chose. Nous avons donc parlé brièvement de Meta CMS. Et c'est quelque chose que l'équipe Search Pilot et John Avildsen ont aidé à montrer au monde, mais vous pouvez utiliser la périphérie pour publier des modifications qui, autrement, seraient bloquées dans les files d'attente de développement. Et l'idée de le faire, de le mettre en ligne, de prouver le concept, d'ignorer le risque de dette technologique et d'ignorer les DevOps ennuyeux pendant une minute, car ce sont les deux facteurs. Mais toute la valeur du référencement est qu'il est en direct, que le contenu est actionné et que le bord peut raccourcir cela. Et ce n'est pas joli, et ce n'est pas la bonne façon. Mais pousser certains changements de contenu en direct et contourner les files d'attente a d'excellents résultats si l'alternative attend six mois et que cela ne se produit pas.
D : J'ai été votre hôte David Bain. Chris, merci beaucoup d'être sur le podcast In Search SEO.
C : Merci de m'avoir invité, David.
D : Et merci pour votre écoute. Découvrez tous les épisodes précédents et inscrivez-vous pour un essai gratuit de la plateforme Rank Ranger sur rankranger.com.
