Das technische SEO-Audit 2017: Ein unverzichtbarer Leitfaden für Vermarkter

Veröffentlicht: 2017-03-08
Kategorien
Digitale Trends
Publikumsbindung

Als digitaler Vermarkter werden Sie wahrscheinlich damit beauftragt, technische Empfehlungen für die Website eines Kunden abzugeben, höchstwahrscheinlich zu Beginn der Kampagne. Der Eckpfeiler dieses Prozesses wird das technische SEO-Audit sein. Das Identifizieren und Gewinnen von Erkenntnissen für die vielen technischen Elemente wird die nächsten Schritte in Bezug darauf aufzeigen, was es ermöglicht, die wertvollen Seiten einer Website in den Suchergebnissen sichtbarer und für Benutzer zugänglicher zu machen. Im Folgenden werden wir die grundlegenden technischen Aspekte, die 2017 wesentlich sind, die Nuancen der einzelnen Elemente und ihren Einfluss auf die Funktionalität einer Website entpacken.

Metadaten

In Bezug auf Titel-Tags und Meta-Beschreibungen sind diese HTML-Code-Schnipsel zwei Attribute, die dazu dienen, Benutzer und Suchmaschinen über das Seitenthema zu informieren. Bei richtiger Optimierung sollten sich die bereitgestellten Informationen auf die Suchanfrage eines Benutzers beziehen, was in der Folge die Klickraten verbessern sollte. Um die richtige Optimierung zu etablieren, gibt es nur ein paar Richtlinien für jedes Element, das bei der Prüfung einer Website berücksichtigt werden sollte:

Titel-Tags

• Führen Sie mit relevanten Schlüsselwörtern vor dem Titel-Tag. • Um die Markenbekanntheit zu steigern, fügen Sie den Markennamen am Ende ein und behalten Sie ein einheitliches Layout auf der gesamten Website bei. • Ein Titel-Tag sollte 50-60 Zeichen (oder 512 Pixel) nicht überschreiten. Suchmaschinen können zusätzliche Zeichen abschneiden, wenn die Länge überschritten wird. • Insgesamt sollten sie einzigartig und überzeugend sein, um die Sichtbarkeit und das Benutzererlebnis zu verbessern

Meta-Beschreibungen

• 1-2 Fokus-Keywords sollten enthalten sein und mit denen übereinstimmen, die in Titel-Tags, Header-Tags und in den meisten Fällen der URL verwendet werden. • Der Text sollte mit dem Seitenthema übereinstimmen. • Die optimale Länge beträgt 150-160 Zeichen. • Meta-Beschreibungen sollten es sein einzigartig • Eine Meta-Beschreibung sollte als überzeugender Werbetext verfasst sein, der Neugier weckt und den Wunsch des Benutzers weckt, sich durchzuklicken

Crawlbarkeit und Indexierung

Suchmaschinen-Bots crawlen Webseiten und speichern dann Kopien dieser Seiten in ihren Indizes. Die Crawlbarkeit einer Seite ist eine der treibenden Kräfte, die bestimmen, welche Seiten nach einer Google-Suche zurückgegeben werden. Wenn ein Suchbot eine Seite nicht crawlen kann, kann er diese Seite mit Sicherheit nicht einem Benutzer anzeigen, der möglicherweise die für seine Anfrage relevanten Informationen findet. Um solche Probleme zu vermeiden, werfen wir einen Blick auf 3 Komponenten, nach denen Sie suchen sollten, um die Crawlbarkeit und Indexierung einer Webseite zu erleichtern:

XML-Sitemap:

Dieses Dokument bietet ein leicht verständliches Menü der wertorientierten Seiten, die Sie nach Ihrem Ermessen ausgewählt haben, um Suchmaschinen darüber zu informieren, wodurch der Crawling- und Indexierungsprozess optimiert wird. Darüber hinaus ist es eine schnelle Möglichkeit, Google rechtzeitig mitzuteilen, wenn neue Inhalte auf einer Website veröffentlicht wurden und welche Inhaltsteile Originale sind, die zur Verbesserung des Rankings beitragen werden.

HTML-Sitemap:

Im Gegensatz zur XML-Sitemap sind die HTML-Sitemaps für den menschlichen Gebrauch und nicht für Suchmaschinen geschrieben. Wenn ein Benutzer bestimmte Inhalte nicht finden kann, hilft diese Sitemap daher, die Benutzererfahrung zu verbessern.

robots.txt:

Diese Datei befindet sich im Stammverzeichnis Ihrer Website und teilt Suchmaschinen-Bots mit, auf welche Seiten sie zugreifen und indizieren sollen und welche Seiten sie vermeiden sollten. Die Funktionalität dieser Datei ist nicht nur für den SEO-Aspekt, sondern auch für die Privatsphäre von Bereichen einer Website unerlässlich. Bei der Inspektion einer robots.txt-Datei sollten Sie sicherstellen, dass die Anweisungen darauf ausgerichtet sind, was und wie Besucher auf die Website zugreifen sollen. Zum Beispiel kann eine „Disallow“-Anweisung für Inhalte auf Seiten-, Kategorie- oder Site-Ebene sowie für Ressourcen- und Bilddateien nach Bedarf verwendet werden. Außerdem sollte die robots.txt-Datei Such-Bots immer auf die XML-Sitemap verweisen.

URL-Struktur

Die Struktur einer URL hilft dabei, eine Seite sowohl Besuchern als auch Suchmaschinen zu beschreiben, ähnlich wie das Titel-Tag einer Seite. Abhängig davon, wo sich eine Seite innerhalb einer Website befindet, sollten die Pfade und die Taxonomie der URL mit der Websitenavigation und dem Seitenthema übereinstimmen. Einige zusätzliche Richtlinien, die eingehalten werden müssen, lauten wie folgt: • URLs sollten so kurz wie möglich gehalten werden, um eine übermäßige Verwendung von Ordnern zu vermeiden • Schlüsselwörter, die eine Seite am besten darstellen, sind immer noch nützlich • Wörter in URLs sollten durch Bindestriche getrennt werden • Unnötige Satzzeichen sollten sein entfernt • Die Verwendung bestimmter Präpositionen oder „Stopp“-Wörter sollte vermieden werden (von; oder; und; a; etc.) • Dynamische Parameter können ausgeschlossen werden, falls dies ratsam ist Wenn bestimmte Bereiche einer Website in ihrer URL-Formatierung falsch dargestellt werden, ist dies wichtig dass Empfehlungen gegeben werden, da die Benutzererfahrung beeinträchtigt werden kann und Such-Bots während der Crawl- und Indexierungsphase verwirrt werden können.

Sicheres Protokoll

Seit Google im Jahr 2014 die HTTPS-Everywhere-Kampagne gestartet hat, hat sich die Befürwortung dieses Vorstoßes nur fortgesetzt. 2016 äußerten Google-Vertreter, dass das Sichern von Websites 2017 auf jeden Fall auf dem Radar für Webmaster stehen sollte. Das bedeutet einfach, Ihre Website von HTTP auf HTTPS umzustellen. HTTP (Hypertext Transfer Protocol) ist die Struktur zum Übertragen und Empfangen von Daten im gesamten Internet. Es ist ein Protokoll der Anwendungsschicht, das einem Benutzer Informationen bereitstellt, unabhängig davon, welchen Kanal es dafür verwendet. Durch HTTPS (Secure Hypertext Transfer Protocol) werden der Austausch von Berechtigungen und Transaktionen durch eine zusätzliche Schicht namens SSL (Secure Sockets Layer) geschützt, um sensible Daten zu übertragen. Da Google versucht, seinen Nutzern ein sichereres Weberlebnis aufzuzwingen, hat es angekündigt, dass HTTPS tatsächlich ein Ranking-Signal ist, wenn auch ein kleines. Dennoch haben Google-Suchbots damit begonnen, sichere Seiten gegenüber unsicheren Seiten zu priorisieren. Die Verschlüsselung einer Website beweist deren Integrität und Authentizität. Stellen Sie bei der Erstellung eines technischen Audits sicher, dass dieses Element behandelt wird und Empfehlungen für die nächsten Schritte zum Erhalt eines Sicherheitszertifikats enthalten sind.

Kanonisierung & Weiterleitungen

Bei der Durchführung eines technischen Audits ist das Crawlen der Website einer der ersten grundlegenden Schritte, um voranzukommen und wertvolle Einschätzungen zu treffen. Ein beliebtes Tool der Wahl unter SEOs ist das Screaming Frog-Tool, das eine umfassende Aufschlüsselung des Dateityps, der Metadaten, des Statuscodes, der kanonischen URL usw. für jede gecrawlte Seite einer Website liefert. Kommen wir also zum Punkt.

Kanonisierung

Wenn eine Suchmaschine in der Lage ist, mehrere Seiten zu crawlen, die praktisch den gleichen Inhalt enthalten, wird es ihr schwer fallen, zu bestimmen, welche Seitenversion ausgewählt werden soll, um in den Suchergebnissen basierend auf einer Abfrage zu erscheinen, und daher möglicherweise nicht wähle einen von ihnen. Um die Sache noch schlimmer zu machen, wenn verschiedene Quellen auf diese Mehrseitenversionen verlinken, wird die Autorität der primären Seitenversion verwässert, das Vertrauen und die Glaubwürdigkeit dieser Seite werden verringert. Stellen Sie sicher, dass, wenn eine Website mehrere Seitenvariationen enthält, alle auf eine gemeinsame URL verweisen, die über das Canonical-Tag zugewiesen wird. Beispiele für doppelte Seitenversionen sind unten aufgeführt: 1. Seiten mit Filterparametern 2. Paginierte Seiten 3. Sichere https-Seiten 4. Nicht sichere HTTP-Seiten 5. www-Seiten 6. Nicht-www-Seiten

Umleitungsketten

Eine Weiterleitungskette ist definiert als eine Reihe von Weiterleitungen, die kontinuierlich von einer URL zur nächsten verweisen, was dazu führt, dass Benutzer und Suchmaschinen warten, bis diese unnötigen Schritte unternommen werden, bevor sie ihre beabsichtigte URL erreichen. Die Implikation hier ist, dass etwa 10 % der Seitenautorität für jede Weiterleitung verloren gehen. Eine in Screaming Frog verfügbare Funktion macht es ganz einfach, Weiterleitungsketten anhand eines einfachen Berichts zu identifizieren. Filtern Sie an dieser Stelle diejenigen heraus, die eine Eliminierung der Umleitungskette erfordern, damit die Website nach der Aktualisierung durch Ihr Entwicklungsteam eine Verbesserung der Benutzererfahrung, Indexierung und Seitenladezeit erzielt.

Website-Geschwindigkeitsoptimierung

Über den ersten Blick hinaus gibt es mehrere Faktoren, die zur Effizienz der Geschwindigkeit und Leistung einer Website beitragen. In einem digitalen Zeitalter ist die Art und Weise, wie unsere Geräte uns dienen, für unsere Produktivität bei der Arbeit, in der Schule und zu Hause von größter Bedeutung. Wir müssen sie so schnell wie möglich reagieren lassen. Da die Seitenladezeit das Benutzerverhalten bestimmt, möchte Google auch, dass die Seiten unserer Websites schnell geladen werden, und hat erklärt, dass die Seitengeschwindigkeit einen kleinen Ranking-Vorteil rechtfertigt. Ein sehr nützliches Tool, das Einblicke in die Website-Performance bietet, ist GTmetrix. Nach einer schnellen Analyse Ihrer Website können Sie erkennen, wie schnell (oder langsam) Ihre Website lädt, Problembereiche wie die Reduzierung der Bilddateigröße, die Nutzung des Browser-Cachings, die Verzögerung des Parsens von JavaScript-Dateien usw. priorisieren. Bewertungen und Empfehlungen können leicht gegeben werden, da der Bericht auch einen detaillierten Überblick über die spezifischen Ressourcen bietet, die Aufmerksamkeit erfordern.

Rich Snippets/schemastrukturierte Daten

Strukturierte Daten sind eine Art von HTML-Markup, das für relevante Inhalte auf einer Website implementiert wird, die, wenn sie von Suchmaschinen gelesen werden, ihnen helfen, die Informationen schnell zu interpretieren. Das Ergebnis, obwohl nicht garantiert, ist die Population von Rich Snippets in den Suchergebnissen, was die Erfahrung der Suchenden verbessert und zu höheren Klickraten führt. Einige der gebräuchlichsten Schematypen sind: • Organisation • Körperschaft • Lokales Unternehmen • Regierungsorganisation • Sportorganisation • Bildungsorganisation Eine vollständige Ressource, die die Bereiche einer Website bereitstellt, die für das Markup aufgenommen werden können, finden Sie hier. Um festzustellen, ob eine Webseite Schema-strukturierte Daten implementiert hat oder ob sie richtig konfiguriert wurde, ist das Testtool für strukturierte Daten von Google eine umfassende Ressource. Jetzt, da Sie mit dem Kernstück der grundlegendsten technischen Komponenten ausgestattet sind, können Sie tief in die Auditing-Phase eintauchen! Denken Sie daran, dass das technische SEO-Audit nur so wertvoll ist wie die engagierte Recherche, die darin steckt. Keine Komponente darf übersehen werden, egal wie mühsam diese Leistung auch sein mag. Sobald Ihre Empfehlungen umgesetzt sind, sollten Sie mit der Zeit die positiven Auswirkungen der oben genannten Änderungen und deren Auswirkungen auf die Benutzererfahrung und Suchmaschinenleistung einer Website erkennen.

Dieser Block ist defekt oder fehlt. Möglicherweise fehlen Ihnen Inhalte oder Sie müssen das Originalmodul aktivieren.