5 rzeczy, które musisz wiedzieć o SEO On the Edge z Chrisem Greenem

Opublikowany: 2022-08-10



Dzisiaj przyjrzymy się, jak możesz poprawić jakość swojego życia SEO, prowadząc więcej swojej działalności na krawędzi za pomocą skoku, który lubi w zamyśleniu drapać się po brodzie, popijając kawę i whisky, lub może najlepiej, kawa po irlandzku. Jest trenerem, mówcą i rozwiązywaczem problemów wyszukiwania. Serdecznie witam w podkaście In Search SEO, starszy konsultant SEO, Chris Green.

Pięć zadań to:
  • Testy dzielone
  • Zarządzanie przekierowaniami
  • Logowanie dostępu do botów
  • Tworzenie/zarządzanie mapą witryny
  • Wstrzykiwanie treści

Chris: Dziękuję, że mnie masz, David.

D: Chrisa znajdziesz na chris-green.net. Więc Chris, nie brzmisz tak, ale czy zawsze jesteś na krawędzi?

C: Nie wiem. Myślę, że każdy, kto zajmuje się SEO od dziesięcioleci, byłby trochę na krawędzi. Krótka odpowiedź brzmi: tak. Długa odpowiedź, to zależy. Czekaj, to kolejna krótka odpowiedź. Zająłem się SEO w czasie, gdy pingwiny i pandy zaczęły się kręcić, więc tak, uważam, że jestem wystarczająco na ostrzu noża. Nie sądzę, żebym kiedykolwiek doszedł do siebie, jeśli mam być całkowicie szczery.

D: Pamiętam, jak jakiś czas temu rozmawiałeś o krawędzi. Z pewnością jesteś jednym z wybitnych myślicieli na ten temat. Wspaniale jest, że rozmawiasz o tym. A dzisiaj będziesz dzielić się pięcioma zadaniami SEO, które są lepiej obsługiwane na krawędzi. Zaczynając od numer jeden, testów podziału SEO.



1. Testy dzielone SEO



C: Tak więc testy w ramach SEO w końcu nabrały większego tempa. Istnieje wiele sposobów testowania SEO, od naprawdę prostego wdrożenia, po sprawdzenie za pomocą Analytics, czy zadziałało, czy nie zadziałało. To najprostszy sposób, który teoretycznie każdy z nas w SEO powinien robić. Ale sposób, w jaki działa „przewaga” polega na skutecznym wdrożeniu zmiany na 50% stron w grupie i umożliwieniu Google odwiedzenia stron testowych, a następnie stron kontrolnych/niezmienionych. Pomaga to wprowadzać zmiany w grupach stron w witrynie bez faktycznie zmieniając bazę kodu lub dodając jakiekolwiek dodatkowe wymagania na serwerze lub CMS.To tak, jakby dodać dodatkową warstwę, która mówi, że na tych stronach pokażemy ludziom różne wersje, co można zrobić w różnych momentach procesu.

Krawędź sprawia, że ​​wygląda, jakby pochodziła z serwera, co jest świetne do indeksowania, ponieważ Google odbiera to, jakby to był tylko kod. Możesz również wykonać to testowanie w kliencie. Używając JavaScript, który jest zasadniczo mniej niezawodny, może działać, ale kładzie dużo większy nacisk na Google. Przewaga sprawia, że ​​jest to szybsze, a wyniki, które otrzymujesz, możesz ufać bardziej. Nie jest idealny, ale jest dużo lepszy i dużo bardziej wytrzymały.

D: Czy większość SEO wymyśla własne skrypty lub używa prostych skryptów do przeprowadzania testów dzielonych? A może istnieje specjalistyczne oprogramowanie do testów dzielonych, które poleciłbyś używać w połączeniu z urządzeniem Edge?

C: Możesz przejść od wzniosłości do śmieszności. Jeśli mówisz tylko o przewadze, powiedziałbym, że prawdopodobnie jest garstka graczy w ustalonej przestrzeni. Tak więc Search Pilot, formalnie ODN, jest dosłownie zbudowany na infrastrukturze brzegowej. Zbudowali meta CMS, który pozwala Ci to wszystko kontrolować. A potem wciągnęli do tego całą naprawdę inteligentną metodologię analityczną i analityczną. Nie mogę mieć absolutnie żadnych roszczeń do posiadania lub rozpoczęcia tego; daleko stąd. To jedni z największych pionierów. Ale to, co możesz zrobić z krawędzią we wszystkich rodzajach infrastruktury krawędziowej, Akamai, Cloudflare i Fastly, to to, że możesz napisać skrypty, które to zrobią samemu. A kiedy mówisz o krawędzi, to, czego potrzebujesz do przeprowadzenia tych testów, to strony, które będą stronami kontrolnymi, które będą testem. A potem skrypt, który skutecznie wprowadza zmiany w wersji testowej. A złożoność wokół tego zależy od tego, jak złożony jest test. Jeśli na przykład przepisujesz tylko tytuły stron, staje się to naprawdę całkiem proste. Nie jestem inżynierem. Jestem SEO, który czasami jest zbyt wścibski dla własnego dobra, ale te rzeczy, szczególnie w Cloudflare, są prawdopodobnie jednym z najbardziej dostępnych elementów. Ja i Simon Thompson lata temu, kiedy oboje pracowaliśmy w narzędziu stworzonym przez agencję o nazwie Tool Spark, okazało się, że jest to bardziej wersja beta i weryfikacja koncepcji. Ale to było na szczycie infrastruktury Cloudflare. I to znowu pozwala wdrożyć podzielone testy na krawędzi, w zasadzie za darmo w tym momencie, ale ostatecznie okazało się to bardziej piaskownicą. Możesz więc przejść przez oprogramowanie na poziomie korporacyjnym, aby zbudować własne. Jest też kilka nowych platform, na których można to uruchomić. Ale myślę, że jako SEO musisz pomyśleć o tym, jaki stos budujesz. Kogo jeszcze potrzebujesz, aby się zaangażować? Jeśli potrzebujesz zminimalizować ryzyko i musisz publikować prawa i zmieniać historie, możesz skorzystać z opcji Enterprise. Jeśli właśnie masz kogoś, kto jest naładowany, ale naprawdę chce to przetestować, buduj prosto na krawędzi. Znajdź kogoś, kto potrafi pisać kod dla pracowników, i możesz testować różne rzeczy.

D: Wyczuwam, że moglibyśmy rozmawiać o podzielonych testach na krawędzi przez około trzy godziny. Przejdźmy jednak do drugiego obszaru, który poleciłbyś jako lepszy i skuteczniejszy na krawędzi — zarządzanie przekierowaniami.



2. Zarządzanie przekierowaniami



C: Tak, zarządzanie przekierowaniami jest zwykle uciążliwe, ponieważ jeśli masz duże witryny lub wiele różnych infrastruktur, wiedza o tym, gdzie kontrolowane i zarządzane są różne przekierowania, w jakiej kolejności są uruchamiane, czy są złożone itp., to koszmar . I praktycznie każda duża organizacja ma ten problem. A jednym z największych problemów, jakie napotykasz, jest przekazywanie ludzi między różnymi serwerami lub różnymi warstwami CDN w jednej akcji przekierowania, co jest nieefektywne. Więc jeśli przejdziesz przez CDN, pójdziesz na serwer, serwer mówi, że musisz iść gdzie indziej, a potem idziesz gdzie indziej, a potem zostajesz przekierowany gdzie indziej, to jest naprawdę nieefektywne, trochę kosztowne i a koszmar do opanowania.

Teraz, ze względu na to, gdzie znajduje się CDN lub krawędź, jest to pierwsza rzecz, jaką napotka użytkownik. Jeśli zarządzasz tam wszystkimi swoimi przekierowaniami i upewnisz się, że w tym momencie spłaszczyłeś wszystkie zmiany, co jest stosunkowo proste do zrobienia... Po pierwsze, możesz zmniejszyć liczbę przekierowań. Po drugie, nie docierasz do serwera pochodzenia, zanim cię przekieruje. Więc faktycznie zmniejszasz poziom ruchu do źródła, a przekierowanie odbywa się znacznie szybciej, bezpośrednio z tego serwera. I wreszcie, jeśli masz dyscyplinę i prawidłowo ją zaimplementowałeś, masz tylko jedno miejsce, w którym musisz przejrzeć wszystkie przekierowania, niezależnie od wszystkich różnych platform. A ta prostota, kiedy zaszczepiasz dyscyplinę w zespole, sprawia, że ​​szczerze mówiąc, jest to trochę oczywiste.

D: I numer trzy, logowanie dostępu do bota.



3. Rejestrowanie dostępu do botów



C: Interesujące jest logowanie dostępu do botów. Jeśli kiedykolwiek próbowałeś przeprowadzić audyt pliku dziennika i powiedziałeś, że potrzebuję moich dzienników dostępu do analizy, udaj się do DevOps lub kogokolwiek innego, albo spojrzą na ciebie zdziwione, albo powiedzą nie, to jest za duże, nie przechowujemy go lub przechowujemy wartość dnia, lub możesz go mieć, ale dołącz do długiej kolejki. To naprawdę trudne. Co więcej, jeśli korzystasz z CDN w pamięci podręcznej, logi dostępu do serwera mogą i tak nie odbierać całego ruchu botów. Więc twoje logi nie będą kompletne. Wszystko, co przechodzi przez CDN, jest odbierane przez cały ruch, niezależnie od tego, czy jest buforowany, czy nie. A jeśli używasz urządzenia brzegowego do efektywnego przechowywania tych danych dziennika i przesyłania ich strumieniowo do usługi takiej jak logika Sumo lub innego rodzaju pamięci masowej, masz możliwość odprowadzenia wszystkich tych danych z brzegu, zamiast próbować znaleźć go z twoich serwerów. Ale także, jeśli piszesz pracowników we właściwym uzasadnieniu lub logice w tym momencie, możesz ustawić go tak, aby przechwytywał tylko ruch botów, który chcesz. Zwykle więc Googlebot lub boty wyszukiwarek, ale możesz robić takie rzeczy, jak walidacja adresów IP, aby upewnić się, że nie podszywają się pod ludzi, i zbierać tylko potrzebne dane dostępu, co znacznie zmniejsza przestrzeń dyskową. Niektóre narzędzia, takie jak Content King, na przykład, mogą łączyć się bezpośrednio z niektórymi sieciami CDN, aby zbierać dane bezpośrednio z tego poziomu. Zakładając, że masz odpowiedni poziom dostępu, a DevOps powiedział, że tak, możesz zacząć zbierać te logi bezpośrednio, co oznacza, że ​​możesz przeprowadzić analizę technologiczną SEO przy stosunkowo niewielkim podnoszeniu.

D: Czy istnieje witryna o określonym rozmiarze pod względem stron, na których warto zaglądać tylko do plików dziennika, czy też każdy SEO powinien patrzeć na pliki dziennika?

C: Z reguły, jeśli Twoja witryna ma mniej niż 10 000 stron, zwykle nie polegam na logach ani nie korzystam z nich od razu. Głównie dlatego, że uzyskanie do nich dostępu to koszmar. Jeśli mam łatwy dostęp do tych danych i mogę je łatwo analizować… więc każdy z dużych robotów SaaS, takich jak Deep Crawl, ma analizę plików dziennika. Jeśli uda mi się zdobyć te dane i je przeanalizować, zróbmy to. Ale jeśli mam mniej niż 10 000 stron i uzyskanie tych danych jest uciążliwe, nie będę się zbytnio denerwował. Teraz ta liczba stron jest trochę arbitralna, ale jeśli masz ponad milion stron, plik dziennika będzie zawierał wiele informacji i wglądu, które dadzą ci kilka fajnych, przyrostowych wygranych. Pod tym prawdopodobnie nie warto. D: Po czwarte, zadania, które są bardziej efektywne na krawędzi, tworzenie/zarządzanie mapą witryny.



4. Budowanie/zarządzanie mapą witryny



C: To jest wyjątkowe. Miałem ostatnio kilka projektów, w których generowanie mapy witryny musi pobierać strony z różnych usług, różnych systemów, jest nieaktualne, nie działa, inżynieria, aby przebudować wszystko, co jest niewiarygodnie trudne, itp. Więc to, co zrobiliśmy, to zbudował usługę, która pobiera dane API z robota SaaS. Pobiera strony do indeksowania, a następnie buduje mapę witryny XML na krawędzi i hostuje ją w tym punkcie krawędzi. Skutecznie używamy robota indeksującego do codziennego indeksowania witryn, codziennie tworzy on i odnawia świeżą mapę witryny oraz publikuje ją na krawędzi. Niektórzy mogą powiedzieć, że jest to przeprojektowane rozwiązanie, które nakłada dodatkowe wymagania na stronę trzecią. Zgadzam się, ale w niektórych sytuacjach bardzo sensowne było utworzenie jednego punktu prawdy, map witryn w jednym miejscu, bez żądania innych interfejsów API treści i innych usług, w których często te dane nie są czyste i wymagają filtrowania. A efektywne pisanie mikroserwisów, które następnie hostują je na urządzeniach brzegowych, było po prostu znacznie tańsze, znacznie szybsze i bardziej niezawodne. Oczywiście właściwą odpowiedzią na to jest zbudowanie go dobrze za pierwszym razem, ale po prostu nie było to możliwe.

D: Mówiąc o budowaniu tego za pierwszym razem. Czy istnieje niebezpieczeństwo związane z automatyzacją budowania map witryn XML? Żeby zawierało za dużo śmieci?

C: Tak. Właściwie odkryłem, że dzieje się to wszędzie. Jeśli kiedykolwiek pracowałeś w systemie CMS, być może zindeksowałeś mapę witryny i zobaczyłeś strony testowe, na których ktoś utworzył niektóre strony, nie umieszczając ich w strukturze witryny i po prostu je tam zostawił. A jeśli logika, która buduje mapę witryny, nie sprawdza, czy jest ona indeksowana i wszystkie inne elementy i filtry, nadal może zostać opublikowana w inny sposób. Więc wiem, że jeśli korzystasz z WordPressa, Yoast wykonuje dla ciebie wiele ciężkich prac. Myślę, że WordPress robi o wiele więcej niż kiedyś. Ale oczywiście CMS taki jak Drupal nie zajmuje się tym. I bardzo często ludzie będą chcieli stron, których nie chcesz umieszczać w mapie witryny z różnych innych powodów. Znowu, to tylko upewnienie się, że jesteś na szczycie i budujesz te filtry, w których uważam, że są ważne, niezależnie od tego, czy są na krawędzi, czy nie. W fantazji nadal możesz przesyłać do Google dane, których po prostu nie chcesz, aby były widoczne. Ale znowu, robienie tego na krawędzi, bardzo szybkie i lekkie rozwiązanie.

D: A numer pięć to wstrzykiwanie treści. O jakich treściach tam mówisz?



5. Wstrzykiwanie treści



C: Wszystko, co jest zorientowane na Internet i cyfrowo. Ten jeden rodzaj pokrywa się trochę z testami dzielonymi w tym sensie, że używasz krawędzi, aby dodać więcej zawartości i ta zawartość wygląda tak, jakby pochodziła z serwera, a nie z klienta. Jeśli kiedykolwiek brałeś udział w kłótni o subdomeny lub podkatalogi, na przykład o blogi i nie możesz przeciągnąć bloga przez odpowiednią infrastrukturę, cóż, możesz użyć sieci CDN, aby skutecznie połączyć treści. Możesz powiedzieć, że chcesz pobrać nagłówek z tego systemu, ale pobrać zawartość bloga z tego systemu. I na krawędzi, co można zrobić bardzo szybko i sprawnie. Wiele z nich jest przechowywanych w pamięci podręcznej i zszywanych razem na krawędzi. A zanim zostanie wyświetlony użytkownikowi, skutecznie uzyskałeś tę hybrydową zawartość z dwóch różnych systemów. I szczerze mówiąc, to jest coś, co możesz zrobić na początku, z odpowiednim nachyleniem i możliwościami budowania. Ale robienie tego na krawędzi, z różnych systemów, z których korzystasz, to prawie nie ma znaczenia. Dopóki możesz jasno określić, co to jest, musisz się wciągać. I możesz napisać kod, aby skutecznie to zrobić. Odbywa się bardzo wydajnie, bardzo szybko i zapewnia to, czego potrzebujesz.

D: Dawno temu pamiętam, jak włączanie treści za pomocą ramek i dołączeń PHP. I oba te sposoby są bardzo staromodne. Czy są jakieś wady wstrzykiwania treści z innych źródeł lub innych serwerów internetowych? Czy będzie to miało jakieś wady SEO?

C: Kluczowe są to, że jeśli te zasoby są dostępne pod innymi adresami URL i mogą być na nich indeksowane, istnieje nieodłączne ryzyko. Równie łatwo jest temu zapobiec, jeśli masz świadomość, że próbujesz to zrobić. W niektórych przypadkach możesz używać kanałów danych z innych usług i łączyć je ze sobą, zamiast starej metody zestawu ramek polegającej na umieszczaniu nagłówka na jednej stronie, treści na innej stronie i wyświetlaniu ich na tej samej stronie. Możesz to dość łatwo wbudować, aby temu zapobiec. Myślę, że najważniejsze jest to, że musisz niezawodnie otrzymywać zawartość z tych dwóch źródeł i musi być ona niezawodnie buforowana. Dużo myślę o krawędzi i bardziej skomplikowanych zadaniach inżynierskich, co się stanie, jeśli CDN się przewróci. Jaka jest rezerwa? A to może mieć różną złożoność. Myślę, że jeśli jesteś dużą organizacją i chcesz mieć znaczny czas pracy, na przykład 99,99, możesz zbudować inne sieci CDN, aby się wycofać. Ale jeśli, na przykład, polegasz na swoim CDN, aby wykonać łączenie razem, istnieją pewne problemy z CDN i może się okazać, że niektóre z tych stron po prostu nie działają. Ale jeśli Cloudflare ulegnie awarii, zepsuje się połowa Internetu. W takich przypadkach pojawia się pytanie, czy wysyłamy odpowiednią odpowiedź do Google, aby skłonić ich do przyjścia i ponownego sprawdzenia później, gdy zakłócenia znikną?

Myślę, że jeśli chodzi o wszystko, co jest związane z krawędzią, to właśnie stąd największy niepokój bierze się z tego, co się stanie, jeśli ta usługa strony trzeciej upadnie. Ale to koszmar każdej infrastruktury internetowej. Nigdy nie możesz tego zabezpieczyć, nawet jeśli masz serwer we własnym biurze i czujesz się z tego zadowolony. To i tak dość staroświeckie podejście. Ale nie ma metody hostingu o zerowym ryzyku. Możesz przewrócić się na innych. Możesz więc mieć podwójną strategię CDN. Możesz mieć Akamai na jednej warstwie, a Fastly na drugiej. Jeśli Akamai zawiedzie, przechodzi na Fastly lub odwrotnie. To niesamowicie wyrafinowane. I to jest skrajny przypadek skrajnego przypadku. Ale można się przed większością tego uchronić, jeśli wiesz, co robisz i dobrze to określisz.

D: Oczekuję na webinarowy panel dyskusyjny na temat tego, jak faktycznie zagwarantować 100% dyspozycyjności. To byłoby interesujące.

C: To możliwe, bardziej możliwe niż kiedykolwiek. Myślę, że jeśli połączysz Cloudflare i Akamai lub Cloudflare i Fastly lub Similarweb, możesz się zbliżyć, co byłoby bardzo interesujące.

D: Cóż, skończmy z Pareto Pickle. Pareto mówi, że możesz uzyskać 80% swoich wyników z 20% swoich wysiłków. Jakie działanie SEO, które poleciłbyś, zapewnia niesamowite wyniki przy skromnym nakładzie pracy?





Marynata Pareto - Opublikuj zmiany



C: To prawie znalazło się na mojej liście przewagi, ale nie jest całkiem i jest trochę dziwaczne. Więc niektórzy ludzie z natury tego nie lubią, ale używają krawędzi, aby coś zrobić. Rozmawialiśmy więc krótko o Meta CMS. Zespół Search Pilot i John Avildsen między nimi pomogli pokazać światu, ale możesz użyć krawędzi, aby opublikować zmiany, które w przeciwnym razie utknęłyby w kolejkach deweloperów. I pomysł, aby to zrobić, wprowadzić w życie, udowodnić koncepcję, zignorować ryzyko związane z długiem technologicznym i zignorować irytujące DevOps na minutę, ponieważ są to oba czynniki. Ale cała wartość w SEO polega na tym, że jest na żywo, że treść jest podejmowana i przewaga może to skrócić. I to nie jest ładne i nie jest to właściwy sposób. Ale wypychanie niektórych treści zmienia się na żywo, a omijanie kolejek daje świetne rezultaty, jeśli alternatywa czeka sześć miesięcy i tak się nie dzieje.

D: Byłem twoim gospodarzem David Bain. Chris, bardzo dziękuję za udział w podkaście In Search SEO.

C: Dzięki, że mnie masz, David.

D: I dziękuję za wysłuchanie. Sprawdź wszystkie poprzednie odcinki i zapisz się na bezpłatną wersję próbną platformy Rank Ranger na stronie rankranger.com.