Technische SEO-Audit-Checkliste in 9 Schritten

Diese Checkliste beschreibt alle Grundlagen eines technischen Standortaudits, von der Theorie bis zur Praxis.

Sie erfahren, welche technischen Dateien vorhanden sind, warum SEO-Probleme auftreten und wie Sie diese in Zukunft beheben und verhindern können, damit Sie immer vor plötzlichen Ranking-Einbrüchen geschützt sind.

Unterwegs zeige ich einige sowohl beliebte als auch wenig bekannte SEO-Audit-Tools, mit denen Sie problemlos ein technisches Website-Audit durchführen können.

Die Anzahl der Schritte in Ihrer technischen SEO-Checkliste hängt von den Zielen und der Art der Websites ab, die Sie untersuchen möchten. Unser Ziel war es, diese Checkliste universell zu gestalten und alle wichtigen Schritte technischer SEO-Audits abzudecken.

Vorbereitende Schritte für ein Standortaudit

1. Erhalten Sie Zugriff auf Website-Analysen und Webmaster-Tools

Um eine technische Prüfung Ihrer Website durchzuführen, benötigen Sie Analyse- und Webmaster-Tools, und es ist großartig, wenn Sie diese bereits auf Ihrer Website konfiguriert haben. Mit Google Analytics , der Google Search Console , den Bing Webmaster Tools und dergleichen verfügen Sie bereits über eine große Menge an Daten, die für eine grundlegende Website-Überprüfung benötigt werden.

2. Überprüfen Sie die Domain-Sicherheit

Wenn Sie eine bestehende Website prüfen, die aus dem Ranking zurückgefallen ist, schließen Sie in erster Linie aus, dass die Domain Gegenstand von Suchmaschinensanktionen ist.

Konsultieren Sie dazu die Google Search Console. Wenn Ihre Website wegen Black-Hat-Linkbuilding bestraft oder gehackt wurde, wird auf der Registerkarte „Sicherheit und manuelle Aktionen“ der Konsole ein entsprechender Hinweis angezeigt. Achten Sie darauf, die auf dieser Registerkarte angezeigte Warnung zu beachten, bevor Sie mit einer technischen Prüfung Ihrer Website fortfahren. Wenn Sie Hilfe benötigen, lesen Sie unseren Leitfaden zum Umgang mit manuellen und Algorithmenstrafen .

Wenn Sie eine brandneue Website prüfen, deren Einführung geplant ist, stellen Sie sicher, dass Ihre Domain nicht gefährdet ist. Weitere Informationen finden Sie in unseren Leitfäden zur Auswahl abgelaufener Domains und dazu, wie Sie beim Start einer Website nicht in die Google-Sandbox geraten.

Nachdem wir nun mit den Vorarbeiten fertig sind, gehen wir Schritt für Schritt zum technischen SEO-Audit Ihrer Website über.

Schritt 1. Überprüfen Sie die Website-Indexierung

Im Allgemeinen gibt es zwei Arten von Indexierungsproblemen. Eine davon ist, dass eine URL nicht indexiert wird, obwohl sie eigentlich indexiert werden sollte. Der andere Fall liegt vor, wenn eine URL indiziert wird, obwohl dies nicht der Fall sein sollte. Wie können Sie also die Anzahl der indizierten URLs Ihrer Website überprüfen?

1. Google Search Console

Um zu sehen, wie viel Ihrer Website es tatsächlich in den Suchindex geschafft hat, sehen Sie sich den Abdeckungsbericht in der Google Search Console an. Der Bericht zeigt, wie viele Ihrer Seiten derzeit indexiert sind, wie viele ausgeschlossen sind und welche Indexierungsprobleme auf Ihrer Website bestehen.

Der Abdeckungsbericht in der Search Console zeigt alle Ihre korrekt indizierten Seiten und Fehler an
Überprüfen Sie Ihre indizierten Seiten im Abdeckungsbericht in der Search Console

Die erste Art von Indizierungsproblemen wird normalerweise als Fehler markiert. Indexierungsfehler treten auf, wenn Sie Google gebeten haben, eine Seite zu indexieren, diese jedoch blockiert ist. Beispielsweise wurde eine Seite zu einer Sitemap hinzugefügt, ist aber mit dem Noindex- Tag markiert oder mit robots.txt blockiert.

Der Bericht „Fehler im Abdeckungsbereich“ zeigt Seiten an, die Sie von Google zur Indexierung aufgefordert haben, die jedoch irgendwie blockiert sind
Überprüfen Sie die Fehler im Abdeckungsbericht

Die andere Art von Indexierungsproblemen entsteht, wenn die Seite indexiert wird, Google jedoch nicht sicher ist, ob sie indexiert werden sollte. In der Google Search Console werden diese Seiten normalerweise mit Warnungen als gültig markiert.

Warnungen im Abdeckungsbericht zeigen Seiten an, die entgegen den Blockierungsregeln indiziert wurden
Überprüfen Sie die Warnungen im Abdeckungsbericht

Führen Sie für eine einzelne Seite das URL-Inspektionstool in der Search Console aus, um zu überprüfen, wie der Suchbot von Google sie sieht. Klicken Sie auf die entsprechende Registerkarte oder fügen Sie die vollständige URL in die Suchleiste oben ein. Daraufhin werden alle Informationen über die URL abgerufen, so wie sie das letzte Mal vom Suchbot gescannt wurde.

Mit dem URL-Inspektionstool können Sie das Crawling und die Indexierung jeder einzelnen Seite untersuchen
Untersuchen Sie, wie einzelne URLs indiziert werden

Anschließend können Sie auf „Live-URL testen“ klicken und noch mehr Details zur Seite sehen: den Antwortcode, HTML-Tags, den Screenshot des ersten Bildschirms usw.

2. Website-Auditor

Dieser Schritt erfordert WebSite Auditor. Sie können es jetzt kostenlos herunterladen. Herunterladen WebSite Auditor

Ein weiteres Tool zur Überwachung Ihrer Indizierung ist WebSite Auditor . Starten Sie die Software und fügen Sie die URL Ihrer Website ein, um ein neues Projekt zu erstellen und mit der Prüfung Ihrer Website fortzufahren. Sobald der Crawl abgeschlossen ist, sehen Sie alle Probleme und Warnungen im Site-Struktur- Modul von WebSite Auditor. Sehen Sie sich im Bericht zur Domainstärke die Anzahl der indexierten Seiten an, nicht nur bei Google, sondern auch bei anderen Suchmaschinen.

Der Domänenstärkebericht im WebSite Auditor zeigt die Anzahl Ihrer indizierten Seiten
Der Domain-Stärke-Bericht zeigt die Anzahl der Seiten an, die in allen für Sie interessanten Suchmaschinen indiziert wurden
Laden Sie WebSite Auditor herunter

Erweiterter SEO-Check

In WebSite Auditor können Sie Ihren Site-Scan anpassen, indem Sie einen anderen Suchbot auswählen und die Crawling-Einstellungen festlegen. Definieren Sie in den Projekteinstellungen des SEO-Spiders den Suchmaschinen-Bot und einen bestimmten Benutzeragenten. Wählen Sie aus, welche Arten von Ressourcen Sie während des Crawls untersuchen möchten (oder lassen Sie den Scanvorgang alternativ ausfallen). Sie können den Crawler auch anweisen, Subdomains und passwortgeschützte Websites zu prüfen, spezielle URL-Parameter zu ignorieren und vieles mehr.

Erweiterte Crawler-Einstellungen zur Durchführung eines benutzerdefinierten Site-Audits, bei dem bestimmte Crawler und Ressourcen zur Untersuchung ausgewählt werden
Definieren Sie Crawler-Einstellungen, um eine erweiterte Site-Prüfung durchzuführen

Neu bei WebSite Auditor?

Sehen Sie sich diese detaillierte Videoanleitung an, um zu erfahren, wie Sie Ihr Projekt einrichten und Websites analysieren.


Laden Sie WebSite Auditor herunter

3. Protokolldateianalyse

Jedes Mal, wenn ein Benutzer oder ein Suchbot eine Anfrage an den Server sendet, der die Website-Daten trägt, wird in der Protokolldatei ein Eintrag darüber aufgezeichnet. Dies sind die korrektesten und gültigsten Informationen über Crawler und Besucher auf Ihrer Website, Indexierungsfehler, Crawl-Budgetverschwendung, temporäre Weiterleitungen und mehr. Da es schwierig sein kann, Protokolldateien manuell zu analysieren, benötigen Sie ein Protokolldatei-Analyseprogramm.

Für welches Tool Sie sich auch entscheiden, die Anzahl der indizierten Seiten sollte in etwa der tatsächlichen Anzahl der Seiten Ihrer Website entsprechen.

Kommen wir nun dazu, wie Sie das Crawling und die Indizierung Ihrer Website steuern können.

Schritt 2. Verwalten Sie die Indizierung und das Crawling der Website

Wenn Sie keine technischen SEO-Dateien mit Crawling-Kontrollen haben, besuchen Such-Bots standardmäßig trotzdem Ihre Website und crawlen sie so, wie sie ist. Mit technischen Dateien können Sie jedoch steuern, wie Suchmaschinen-Bots Ihre Seiten crawlen und indizieren. Sie werden daher dringend empfohlen, wenn Ihre Website groß ist. Im Folgenden finden Sie einige Möglichkeiten zum Ändern der Indexierungs-/Crawling-Regeln:

  1. Seitenverzeichnis
  2. Robots.txt
  3. Meta-Robots-Tags
  4. X-Robots-Tag HTTP-Header
  5. Rel=“canonical“
  6. Server-Antwortcodes

Wie können Sie also dafür sorgen, dass Google Ihre Website schneller indiziert, indem Sie alle davon nutzen?

1. Sitemap

Eine Sitemap ist eine technische SEO-Datei, die alle Seiten, Videos und anderen Ressourcen auf Ihrer Website sowie die Beziehungen zwischen ihnen auflistet. Die Datei teilt Suchmaschinen mit, wie sie Ihre Website effizienter crawlen können, und spielt eine entscheidende Rolle für die Zugänglichkeit Ihrer Website.

Eine Website benötigt eine Sitemap, wenn:

  • Die Website ist zu groß.
  • Es gibt viele isolierte, nicht verlinkte Seiten.
  • Es sind zu viele Seiten tief in der Site-Struktur vergraben.
  • Die Website ist neu und hat zu wenige Backlinks.
  • Die Website verfügt über viele multimediale Inhalte (Bilder, Videos) oder Neuigkeiten.

Es gibt verschiedene Arten von Sitemaps, die Sie möglicherweise zu Ihrer Website hinzufügen möchten, hauptsächlich abhängig von der Art der Website, die Sie verwalten.

HTML-Sitemap

Eine HTML-Sitemap ist für menschliche Leser gedacht und befindet sich am Ende der Website. Der SEO-Wert ist jedoch gering. Eine HTML-Sitemap zeigt den Menschen die primäre Navigation und repliziert normalerweise die Links in den Site-Headern. Mittlerweile können HTML-Sitemaps verwendet werden, um die Barrierefreiheit für Seiten zu verbessern, die nicht im Hauptmenü enthalten sind.

XML-Sitemap

Im Gegensatz zu HTML-Sitemaps sind XML-Sitemaps dank einer speziellen Syntax maschinenlesbar. Die XML-Sitemap liegt in der Stammdomäne, zum Beispiel https://www.link-assistant.com/sitemap.xml. Weiter unten besprechen wir die Anforderungen und Markup-Tags zum Erstellen einer korrekten XML-Sitemap.

TXT-Sitemap

Dies ist eine alternative Art von Sitemap, die für Suchmaschinen-Bots verfügbar ist. Die TXT-Sitemap listet lediglich alle Website-URLs auf, ohne weitere Informationen zum Inhalt bereitzustellen.

Bild-Sitemap

Diese Art von Sitemaps ist für umfangreiche Bildbibliotheken und großformatige Bilder hilfreich, um ihnen das Ranking in der Google-Bildersuche zu erleichtern. In der Bild-Sitemap können Sie zusätzliche Informationen zum Bild angeben, z. B. geografischen Standort, Titel und Lizenz. Sie können bis zu 1.000 Bilder für jede Seite auflisten.

Video-Sitemap

Für Videoinhalte, die auf Ihren Seiten gehostet werden, sind Video-Sitemaps erforderlich, damit sie in der Google-Videosuche besser ranken. Obwohl Google die Verwendung strukturierter Daten für Videos empfiehlt, kann eine Sitemap auch von Vorteil sein, insbesondere wenn Sie viele Videoinhalte auf einer Seite haben. In der Video-Sitemap können Sie zusätzliche Informationen zum Video hinzufügen, z. B. Titel, Beschreibung, Dauer, Miniaturansichten und sogar, ob es für die sichere Suche familienfreundlich ist.

Hreflang-Sitemap

Bei mehrsprachigen und multiregionalen Websites gibt es für Suchmaschinen mehrere Möglichkeiten , zu bestimmen, welche Sprachversion an einem bestimmten Ort bereitgestellt werden soll. Hreflangs sind eine von mehreren Möglichkeiten, lokalisierte Seiten bereitzustellen, und Sie können dafür eine spezielle Hreflang-Sitemap verwenden. Die hreflang-Sitemap listet die URL selbst zusammen mit ihrem untergeordneten Element auf, das den Sprach-/Regionscode für die Seite angibt.

Nachrichten-Sitemap

Wenn Sie einen Nachrichtenblog betreiben, kann sich das Hinzufügen einer News-XML-Sitemap positiv auf Ihr Ranking bei Google News auswirken. Hier geben Sie Angaben zum Titel, zur Sprache und zum Veröffentlichungsdatum ein. Sie können der News-Sitemap bis zu 1.000 URLs hinzufügen. Die URLs sollten nicht älter als zwei Tage sein, danach können Sie sie löschen, bleiben aber 30 Tage im Index.

RSS

Wenn Ihre Website über einen RSS-Feed verfügt, können Sie die Feed-URL als Sitemap übermitteln. Die meisten Blog-Programme sind in der Lage, einen Feed zu erstellen, diese Informationen sind jedoch nur für die schnelle Erkennung aktueller URLs hilfreich.

Heutzutage werden am häufigsten XML-Sitemaps verwendet. Lassen Sie uns daher kurz die Hauptanforderungen für die XML-Sitemap-Generierung wiederholen:

  • Sitemaps sollten maximal 50.000 URLs enthalten und eine Größe von 50 MB nicht überschreiten (die Größe kann komprimiert werden). Idealerweise sollten Sie sie kürzer halten, um sicherzustellen, dass Ihre wichtigsten Seiten häufiger gecrawlt werden: Technische SEO-Experimente zeigen, dass kürzere Sitemaps zu effektiveren Crawls führen.
  • Wenn mehrere URLs vorhanden sind, können Sie diese auf mehrere Sitemaps aufteilen und in einer Sitemapindex- Datei übermitteln.
  • Alle XML-Sitemaps sollten einen 200-Server-Antwortcode zurückgeben.
  • Das Hinzufügen neuer Seiten und das Löschen dieser Seiten aus Sitemaps sollte automatisch erfolgen, wenn Sie sie zu Ihrer Website hinzufügen.
  • Die Reihenfolge der URLs in der Sitemap spielt keine Rolle; Es sollten jedoch keine Duplikate vorhanden sein. Fügen Sie Ihrer Sitemap nur kanonische URLs hinzu. Der Google-Roboter behandelt alle Ihre Seiten in der Sitemap als kanonisch.

Die XML-Sitemap ist UTF-8-kodiert und enthält obligatorische Tags für ein XML-Element:

<urlset></urlset> ein übergeordneter Wert zur Angabe des aktuellen Protokollstandards
<url> </url> das übergeordnete Element für jede URL
<loc> </loc> , wo Sie Ihre URL-Adresse angeben

Ein einfaches Beispiel einer XML-Sitemap mit einem Eintrag sieht so aus

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>http://www.example.com/</loc>
</url>
</urlset>

Es gibt optionale Tags, um die Priorität und Häufigkeit des Seiten-Crawlings anzugeben – <priority>, <changefreq> (Google ignoriert sie derzeit) und <lastmod> -Wert, wenn er korrekt ist (z. B. im Vergleich zur letzten Änderung auf einer Seite). .

Ein typischer Fehler bei Sitemaps besteht darin, dass auf einer großen Domain keine gültige XML-Sitemap vorhanden ist. Mit WebSite Auditor können Sie das Vorhandensein einer Sitemap auf Ihrer Website überprüfen. Die Ergebnisse finden Sie im Abschnitt „Site-Audit > Indexierung und Crawlbarkeit“ .

WebSite Auditor prüft, ob auf Ihrer Website eine Sitemap verfügbar ist
Überprüfen Sie die Verfügbarkeit der Sitemap auf Ihrer Website
Laden Sie WebSite Auditor herunter

Wenn Sie keine Sitemap haben, sollten Sie unbedingt gleich eine erstellen. Sie können die Sitemap schnell mit den Website-Tools von WebSite Auditor erstellen, wenn Sie zum Abschnitt „Seiten“ wechseln.

Mit dem XML Sitemap Generator können Sie die Seiten auswählen, die Sie in einer Sitemap übermitteln möchten
XML-Sitemap-Generator-Tool im WebSite Auditor
Laden Sie WebSite Auditor herunter

Und informieren Sie Google über Ihre Sitemap. Um dies zu tun, können Sie

  1. Senden Sie es entweder manuell über den Sitemaps-Bericht an die Google Search Console (hier sehen Sie die gesamte Liste der Sitemaps, die Sie zuvor hochgeladen haben),
  2. Oder geben Sie den Speicherort an einer beliebigen Stelle in Ihrer robots.txt-Datei wie folgt an: Sitemap: http://yourdomain.com/sitemaplocation.xml

Tatsache ist, dass eine Sitemap auf Ihrer Website nicht garantiert, dass alle Ihre Seiten indiziert oder sogar gecrawlt werden . Es gibt einige andere technische SEO-Ressourcen, die darauf abzielen, die Indexierung von Websites zu verbessern. Wir werden sie in den nächsten Schritten überprüfen.

2. Robots.txt-Datei

Eine robots.txt-Datei teilt Suchmaschinen mit, auf welche URLs der Crawler auf Ihrer Website zugreifen kann. Diese Datei dient dazu, eine Überlastung Ihres Servers mit Anfragen zu vermeiden und den Crawl-Verkehr zu verwalten . Die Datei wird normalerweise verwendet, um:

  • Doppelte Probleme ausblenden.
  • Beschränken Sie den Zugriff auf einige Seiten, die nicht im Index angezeigt werden müssen, z. B. Website-Suchergebnisse, Serviceseiten, Anmeldungen und temporäre Seiten in der Entwicklung.
  • Erhöhen Sie das Crawling-Budget.
  • Blenden Sie einige Arten von Inhalten aus, z. B. große Multimedia-Inhalte, Webressourcen usw.

Robots.txt wird im Stammverzeichnis der Domäne abgelegt und jede Subdomäne muss über eine eigene Datei verfügen. Beachten Sie, dass es 500 KB nicht überschreiten und mit einem 200-Code antworten sollte.

Die robots.txt-Datei hat auch ihre Syntax mit Allow- und Disallow- Regeln:

  • User-agent: Definiert, für welchen Crawler die Regel gilt.
  • Der Platzhalter (*) bedeutet, dass die Direktive für alle Suchmaschinen gilt.
  • Der Schrägstrich (/) benennt den Pfad, für den die Regel gilt.
  • Das $-Zeichen bedeutet das Ende der URL.
  • Das Hashtag-Symbol (#) beginnt die Phrase mit Kommentaren in der Textdatei.

Verschiedene Suchmaschinen befolgen die Anweisungen möglicherweise unterschiedlich. Beispielsweise hat Google auf die Verwendung der Richtlinien verzichtet noindex, crawl-delay und nofollow aus robots.txt. Darüber hinaus gibt es spezielle Crawler wie Googlebot-Image, Bingbot, Baiduspider-image, DuckDuckBot, AhrefsBot usw. Sie können also die Regeln für alle Such-Bots definieren oder separate Regeln nur für einige von ihnen.

Das Schreiben von Anweisungen für robots.txt kann ziemlich schwierig werden, daher gilt hier die Regel, weniger Anweisungen und mehr gesunden Menschenverstand zu verwenden. Nachfolgend finden Sie einige Beispiele für die Einstellung der robots.txt-Anweisungen.

Voller Zugriff auf die Domain. In diesem Fall wird die Nichtzulassungsregel nicht ausgefüllt.

User-Agent: *
Disallow:

Vollständige Blockierung eines Hosts.

User-Agent: *
Disallow: /

Die Anweisung verbietet das Crawlen aller URLs, beginnend mit dem Upload nach dem Domainnamen.

User-Agent: *
Disallow: /upload

Die Anweisung verhindert, dass Googlebot-News alle GIF-Dateien im News-Ordner crawlt.

User-agent: Googlebot-News
Disallow: /news/*/gifs$

Bedenken Sie, dass, wenn Sie eine allgemeine Anweisung A für alle Suchmaschinen und eine eingeschränkte Anweisung B für einen bestimmten Bot festlegen, der bestimmte Bot möglicherweise der engen Anweisung folgt und alle anderen allgemeinen Regeln so ausführt, wie sie standardmäßig für den Bot festgelegt sind wird nicht durch die Regel A eingeschränkt. Zum Beispiel wie in der folgenden Regel:

User-Agent: *
Disallow: /tmp/
User-agent: AdsBot-Google-Mobile
Disallow: /gallery/*/large.tif$

Hierbei kann es vorkommen, dass AdsBot-Google-Mobile Dateien im tmp-Ordner trotz der Anweisung mit dem Platzhalterzeichen * crawlt.

Eine der typischen Verwendungszwecke der robots.txt-Dateien besteht darin, anzugeben, wo sich die Sitemap befindet. In diesem Fall müssen Sie keine Benutzeragenten erwähnen, da die Regel für alle Crawler gilt. Die Sitemap sollte mit dem großgeschriebenen S beginnen (denken Sie daran, dass bei der robots.txt-Datei die Groß-/Kleinschreibung beachtet wird) und die URL muss absolut sein (dh sie sollte mit dem vollständigen Domainnamen beginnen).

Sitemap: https://www.example.com/sitemap.xml

Bedenken Sie, dass Crawler-Bots der längeren Anweisung Vorrang einräumen, wenn Sie widersprüchliche Anweisungen festlegen. Zum Beispiel:

User-Agent: *
Disallow: /admin
Allow: /admin/js/global.js

Hier wird das Skript /admin/js/global.js trotz der ersten Anweisung weiterhin für Crawler zugelassen. Alle anderen Dateien im Admin-Ordner werden weiterhin nicht zugelassen.

Sie können die Verfügbarkeit der robots.txt-Datei im WebSite Auditor überprüfen. Außerdem können Sie die Datei mit dem robots.txt-Generator-Tool generieren und sie anschließend speichern oder direkt per FTP auf die Website hochladen.

Beachten Sie, dass die robots.txt-Datei öffentlich verfügbar ist und möglicherweise einige Seiten sichtbar macht, anstatt sie auszublenden. Wenn Sie einige private Ordner ausblenden möchten, schützen Sie sie durch ein Passwort.

Schließlich garantiert die robots.txt-Datei nicht, dass die unzulässige Seite nicht gecrawlt oder indiziert wird . Wenn Sie Google daran hindern, eine Seite zu crawlen, wird diese wahrscheinlich aus dem Google-Index entfernt. Der Suchbot crawlt die Seite jedoch möglicherweise weiterhin, indem er einigen darauf verweisenden Backlinks folgt. Es gibt also eine weitere Möglichkeit, das Crawlen und Indexieren einer Seite zu blockieren – Meta-Robots.

3. Meta-Robots-Tags

Meta-Robots-Tags sind eine großartige Möglichkeit, Crawlern beizubringen , wie sie einzelne Seiten behandeln sollen. Meta-Robots-Tags werden zum Abschnitt <head> Ihrer HTML-Seite hinzugefügt, sodass die Anweisungen auf die gesamte Seite anwendbar sind. Sie können mehrere Anweisungen erstellen, indem Sie Robots-Meta-Tag-Anweisungen mit Kommas kombinieren oder mehrere Meta-Tags verwenden. Es könnte so aussehen:

<!DOCTYPE html>
<html><head>
<meta name="robots" content="noindex", "follow" />
(…)
</head>
<body>(…)</body>
</html>

Sie können beispielsweise Meta-Robots-Tags für verschiedene Crawler angeben

<meta name="googlebot" content="noindex">
<meta name="googlebot-news" content="nosnippet">

Google versteht solche Tags als:

  • noindex , um die Seite aus dem Suchindex herauszuhalten;
  • nofollow, um dem Link nicht zu folgen,
  • keine , die noindex, nofollow entspricht;
  • noarchive weist Google an, keine zwischengespeicherte Kopie Ihrer Seite zu speichern.

Die entgegengesetzten Tags index / follow / archive überschreiben die entsprechenden Verbotsanweisungen. Es gibt einige andere Tags, die angeben, wie die Seite in den Suchergebnissen angezeigt werden kann, z. B. snippet / nosnippet / notranslate / nopagereadaloud / noimageindex .

Wenn Sie andere Tags verwenden, die für andere Suchmaschinen gültig, aber Google unbekannt sind, ignoriert der Googlebot diese einfach.

4. X-Robots-Tag

Anstelle von Meta-Tags können Sie einen Antwortheader für Nicht-HTML-Ressourcen wie PDFs, Video- und Bilddateien verwenden. Legen Sie fest, dass in Ihrer Antwort ein X-Robots-Tag-Header mit dem Wert „noindex“ oder „none“ zurückgegeben wird.

Sie können auch eine Kombination von Anweisungen verwenden, um zu definieren, wie das Snippet in den Suchergebnissen aussehen soll, zum Beispiel max-image-preview: [setting] oder nosnippet oder max-snippet: [number] usw.

Sie können den X-Robots-Tag über die Konfigurationsdateien der Webserver-Software Ihrer Website zu den HTTP-Antworten einer Website hinzufügen. Ihre Crawling-Anweisungen können global auf der gesamten Website für alle Dateien sowie für einzelne Dateien angewendet werden, wenn Sie deren genaue Namen definieren.

Notiz

Als Faustregel für die Wirksamkeit der noindex-Anweisung gilt, dass die Seite mit dem noindex-Meta-Tag oder dem X-Robots-Tag nicht durch eine robots.txt-Datei blockiert werden darf. Wenn die Seite durch eine robots.txt-Datei blockiert wird oder der Crawler nicht auf die Seite zugreifen kann, wird die noindex-Anweisung nicht angezeigt und die Seite kann weiterhin in den Suchergebnissen angezeigt werden, beispielsweise wenn andere Seiten darauf verlinken.

Mit WebSite Auditor können Sie alle Roboteranweisungen schnell überprüfen. Gehen Sie zu Site-Struktur > Alle Ressourcen > Interne Ressourcen und überprüfen Sie die Spalte „Roboteranweisungen“ . Hier finden Sie die nicht zugelassenen Seiten und die angewendete Methode, robots.txt, Meta-Tags oder X-Robots-Tag.

Überprüfen Sie die Blockierungsregeln auf der Registerkarte Alle Ressourcen > Interne Ressourcen von WebSite Auditor
Sehen Sie sich die Antworten auf die X-Robots-Tage im Modul „Alle Ressourcen“ an
Laden Sie WebSite Auditor herunter

5. Server-Antwortcodes

Der Server, der eine Site hostet, generiert einen HTTP-Statuscode, wenn er auf eine Anfrage eines Clients, Browsers oder Crawlers antwortet. Wenn der Server mit einem 2xx-Statuscode antwortet, kann der empfangene Inhalt für die Indizierung berücksichtigt werden. Andere Antworten von 3xx bis 5xx deuten darauf hin, dass es ein Problem mit der Inhaltswiedergabe gibt. Hier sind einige Bedeutungen der HTTP-Statuscode-Antworten:

200 – OK, die URL kann indiziert werden.
301 – eine Weiterleitung, die Seite wurde verschoben, der Crawler muss das angegebene Ziel besuchen.
302 – temporäre Weiterleitung, bedeutet praktisch dasselbe, und wenn die temporäre Weiterleitung nicht bald entfernt wird, wird das Ziel der Weiterleitung in den Suchindex aufgenommen.
304 – eine implizite Umleitung zu einer zwischengespeicherten Ressource; Die Seite hat sich seit dem letzten Crawl nicht geändert und der Bot wird sie nicht erneut crawlen.
404 – Seite nicht gefunden, aber der Bot unternimmt mehrere Versuche, sie zu besuchen, insbesondere wenn andere Seiten darauf verlinken.
503 Service ist vorübergehend nicht verfügbar; Alle 5xx-Fehler sind interne Serverfehler und sollten während der laufenden Arbeit an einer Website auftreten.

301-Weiterleitungen werden verwendet, wenn:

  • Sie haben eine Seite entfernt und möchten Benutzer auf eine neue Seite weiterleiten.
  • Sie führen zwei Websites zusammen und möchten sicherstellen, dass Links zu veralteten URLs auf die richtigen Seiten umgeleitet werden.
  • Menschen greifen über verschiedene URLs auf Ihre Website zu (über http/https oder www/nicht-www-Versionen Ihrer Website).
  • Sie haben Ihre Website auf eine neue Domain verschoben.


302 temporäre Weiterleitung

Die temporäre 302-Weiterleitung sollte nur auf temporären Seiten verwendet werden. Zum Beispiel, wenn Sie eine Seite neu gestalten oder eine neue Seite testen und Feedback sammeln, aber nicht möchten, dass die URL aus den Rankings verschwindet.

304, um den Cache zu überprüfen

Der 304-Antwortcode wird in allen gängigen Suchmaschinen wie Google, Bing, Baidu, Yandex usw. unterstützt. Die korrekte Einrichtung des 304-Antwortcodes hilft dem Bot zu verstehen, was sich auf der Seite seit dem letzten Crawl geändert hat. Der Bot sendet eine HTTP-Anfrage If-Modified-Since. Wenn seit dem letzten Crawl-Datum keine Änderungen festgestellt werden, muss der Such-Bot die Seite nicht erneut crawlen. Für einen Benutzer bedeutet dies, dass die Seite nicht vollständig neu geladen wird und ihr Inhalt aus dem Browser-Cache entnommen wird.

Der 304-Code hilft auch dabei:

  • Stellen Sie Inhalte schneller bereit, was besonders bei schlechten Internetverbindungen von Vorteil ist.
  • Schützen Sie den Server vor zusätzlichen Anfragen, denn wenn sich die Seite nicht geändert hat, ist kein erneutes Crawlen erforderlich.
  • Sparen Sie Crawling-Budget und Indexseiten schneller.

Es ist wichtig, das Caching nicht nur des Seiteninhalts, sondern auch statischer Dateien wie Bilder oder CSS-Stile zu überprüfen. Es gibt spezielle Tools wie dieses , um den 304-Antwortcode zu überprüfen.

Tool zum Überprüfen des 304-Antwortcodes
304-Antwort auf eine URL wird überprüft

Typische Probleme mit Antwortcodes

Am häufigsten treten Probleme mit Server-Antwortcodes auf, wenn Crawler weiterhin den internen und externen Links zu den gelöschten oder verschobenen Seiten folgen und 3xx- und 4xx-Antworten erhalten.

Ein 404-Fehler zeigt an, dass eine Seite nicht verfügbar ist und der Server sendet den richtigen HTTP-Statuscode an den Browser – 404 Not Found.

Es gibt jedoch Soft-404-Fehler , wenn der Server den Antwortcode 200 OK sendet, Google jedoch davon ausgeht, dass er 404 sein sollte. Dies kann passieren, weil:

  • Eine 404-Seite ist nicht ordnungsgemäß eingerichtet: Die Website liefert keine 404-Antwort auf nicht verfügbare Inhalte. Die 404-Antwort muss ordnungsgemäß konfiguriert sein.
  • Eine Seite wurde verschoben, jedoch ohne 301-Weiterleitung, was einen 404-Fehler generiert.
  • 404-Antwort auf eine vorhandene Seite: Die Seite ist verfügbar, aber Google hält den Inhalt für dünn und bestraft ihn. Daher müssen Sie hier den Inhalt der Seite verbessern.
  • Umleiten einer Seite mit einer 404-Antwort auf eine Seite mit einer 200-Antwort, beispielsweise zur Startseite. Eine solche Weiterleitung ist für Benutzer irreführend.

Überprüfen Sie im Site-Audit- Modul von WebSite Auditor die Ressourcen mit 4xx- und 5xx-Antwortcode auf der Registerkarte „Indizierung und Crawlbarkeit“ sowie einen separaten Abschnitt für defekte Links auf der Registerkarte „Links“ .

Finden Sie alle defekten Ressourcen und defekten Links im Site-Audit-Modul
Überprüfen Sie defekte Links im Site-Audit-Modul
Laden Sie WebSite Auditor herunter

Einige andere häufige Weiterleitungsprobleme im Zusammenhang mit 301/302-Antworten:

  • Zu lange Weiterleitungsketten: Wenn Sie mehrere Seiten mit zwei oder mehr 301-Weiterleitungen aufeinander umleiten, werden diese letztendlich aus dem Index entfernt, da lange Weiterleitungsketten von Google nicht gecrawlt werden.
  • Heimtückische Weiterleitungen , die als schlechte Praxis gelten und von Google bestraft werden.
  • 302-Redirect bleibt zu lange bestehen: Sowohl die Quelle als auch das Ziel gelangen in den Index, jedoch ohne Umverteilung der Ranking-Stärke. Wenn Sie bei Ihrem technischen Site-Audit auf eine 302-Weiterleitung stoßen, prüfen Sie, ob diese wirklich notwendig ist.

Sie können alle Seiten mit 301- und 302-Weiterleitungen im Abschnitt „Site Audit > Weiterleitungen“ von WebSite Auditor überprüfen.

Überprüfen Sie alle 3xx-Weiterleitungen im Site-Audit-Modul
Untersuchen Sie temporäre und permanente Weiterleitungen
Laden Sie WebSite Auditor herunter

6. Rel=“canonical“

Die Duplizierung kann beim Website-Crawling zu einem schwerwiegenden Problem werden. Wenn Google doppelte URLs findet , entscheidet es, welche davon eine primäre Seite ist, und crawlt diese häufiger, während die Duplikate seltener gecrawlt werden und möglicherweise überhaupt nicht aus dem Suchindex verschwinden. Eine todsichere Lösung besteht darin, eine der doppelten Seiten als kanonisch, also die Hauptseite, zu kennzeichnen. Dies kann mithilfe des Attributs rel=“canonical“ erfolgen, das im HTML-Code der Seiten oder in den HTTP-Header-Antworten einer Site platziert wird.

Notiz

Das rel-Attribut bestimmt die Beziehung zwischen dem Dokument und einer verknüpften Ressource. Es gilt für <link>, <a>, <area> und <form>, die Werte hängen von dem Element ab, in dem das Attribut gefunden wird.

Google verwendet kanonische Seiten , um Ihren Inhalt und Ihre Qualität zu bewerten. In den meisten Fällen verweisen Suchergebnisse auf kanonische Seiten, es sei denn, die Suchmaschinen erkennen eindeutig, dass eine nicht-kanonische Seite besser für den Benutzer geeignet ist (z. B. wenn es sich um einen mobilen Benutzer handelt). ein Suchender an einem bestimmten Ort).

Somit hilft die Kanonisierung relevanter Seiten:

  • Verhindern Sie, dass Duplikate Ihr Crawling-Budget verschlingen
  • Bieten Sie dem Benutzer in den Suchergebnissen die richtigen Seiten an
  • Konsolidieren Sie Linksignale und verleihen Sie kanonischen Seiten mehr Wert
  • Verwalten Sie die Duplizierung von Inhalten aufgrund von Syndizierung oder Diebstahl von Inhalten
  • Aggregieren Sie Tracking-Metriken für ein einzelnes Produkt.

Gründe für doppelte Probleme

Doppelte Probleme bedeuten, dass identische oder ähnliche Inhalte auf mehreren URLs erscheinen. Aufgrund der technischen Datenverarbeitung auf einer Website kommt es häufig automatisch zu Duplikaten.

Technische Duplikate

Einige CMS generieren aufgrund falscher Einstellungen möglicherweise automatisch doppelte Probleme. Beispielsweise können in verschiedenen Website-Verzeichnissen mehrere URLs generiert werden, bei denen es sich um Duplikate handelt:

https://www.link-assistant.com/
https://www.link-assistant.com/index.html
https://www.link-assistant.com/index.php

Die Paginierung kann bei falscher Implementierung auch zu Duplikatproblemen führen. Beispielsweise zeigen die URL für die Kategorieseite und Seite 1 denselben Inhalt und werden daher als Duplikate behandelt. Eine solche Kombination sollte nicht existieren, oder die Kategorieseite sollte als kanonisch markiert sein.

https://www.link-assistant.com/news/keyword-research/?page=1
https://www.link-assistant.com/news/keyword-research/

Sortier- und Filterergebnisse können als Duplikate dargestellt werden. Dies geschieht, wenn Ihre Website dynamische URLs für Such- oder Filteranfragen erstellt. Sie erhalten URL-Parameter , die Aliase von Abfragezeichenfolgen oder URL-Variablen darstellen. Dabei handelt es sich um den Teil einer URL, der auf ein Fragezeichen folgt.

https://example.com/products/women?category=dresses&color=green
https://example.com/products/women/dresses/green.html?limit=20&sessionid=123

Um zu verhindern, dass Google eine Reihe nahezu identischer Seiten crawlt, können Sie festlegen, dass bestimmte URL-Parameter ignoriert werden. Starten Sie dazu die Google Search Console und gehen Sie zu Legacy-Tools und -Berichte > URL-Parameter . Klicken Sie rechts auf „Bearbeiten“ und teilen Sie Google mit, welche Parameter ignoriert werden sollen – die Regel gilt dann für die gesamte Website. Beachten Sie, dass das Parameter-Tool für fortgeschrittene Benutzer gedacht ist und daher sorgfältig gehandhabt werden sollte.

Das URL-Parameter-Tool ist ein Legacy-Tool in der Konsole, das mit Vorsicht gehandhabt werden sollte
Umgang mit Parametern mit dem Parameter-Tool von Google

Das Duplikatproblem tritt häufig auf E-Commerce-Websites auf, die eine Facettenfilternavigation ermöglichen und die Suche auf drei, vier oder mehr Kriterien eingrenzen. Hier ist ein Beispiel für die Einrichtung von Crawling-Regeln für eine E-Commerce-Site: Speichern Sie URLs mit längeren, engeren Suchergebnissen in einem bestimmten Ordner und verbieten Sie sie durch eine robots.txt-Regel.

Beachten Sie, dass Google die Verwendung von robots.txt für Kanonisierungszwecke nicht empfiehlt. Sie müssen sicherstellen, dass die kanonische Seite nicht verboten ist und dass die Verbotsregeln für kleinere Verzeichnisse nicht die allgemeinen Anweisungen außer Kraft setzen.

Logische Duplikate

Logische Probleme in der Website-Struktur können zu Duplikaten führen. Dies kann der Fall sein, wenn Sie Produkte verkaufen und ein Produkt zu verschiedenen Kategorien gehört.

https://www.example.com/category_1/product_1
https://www.example.com/category_2/product_1
https://www.example.com/category_3/product_1

In diesem Fall müssen die Produkte nur über eine URL erreichbar sein. Die URLs gelten als vollständige Duplikate und schaden der Suchmaschinenoptimierung. Die URL muss über die korrekten Einstellungen des CMS zugewiesen werden, sodass eine eindeutige Einzel-URL für eine Seite generiert wird.

Bei WordPress CMS kommt es häufig zu teilweiser Duplizierung , beispielsweise wenn Tags verwendet werden. Während Tags die Website-Suche und Benutzernavigation verbessern, generieren WP-Websites Tag- Seiten, die mit den Kategorienamen übereinstimmen und ähnliche Inhalte aus der Artikel-Snippet-Vorschau darstellen können. Die Lösung besteht darin, Tags mit Bedacht zu verwenden und nur eine begrenzte Anzahl davon hinzuzufügen. Oder Sie können auf Tag-Seiten einen Meta-Robots- Noindex- Dofollow hinzufügen.

Mehrere Gerätetypen

Wenn Sie sich dafür entscheiden, eine separate mobile Version Ihrer Website bereitzustellen und insbesondere AMP-Seiten für die mobile Suche zu generieren, kann es zu Duplikaten dieser Art kommen.

https://example.com/news/koala-rampage
https://m.example.com/news/koala-rampage
https://amp.example.com/news/koala-rampage

Um anzuzeigen, dass es sich bei einer Seite um ein Duplikat handelt, können Sie im Kopfbereich Ihres HTML-Codes ein <link>-Tag verwenden. Bei mobilen Versionen ist dies das Link-Tag mit dem Wert rel=“alternate“, etwa so:

<link rel="alternate" media="only screen and (max-width: 640px)" href="http://m.example.com/dresses/green-dresses">

Das Gleiche gilt für AMP-Seiten (die nicht im Trend liegen, aber dennoch für die Darstellung mobiler Ergebnisse verwendet werden können). Schauen Sie sich unseren Leitfaden zur Implementierung von AMP-Seiten an.

Sprach-/Regionsvarianten

Es gibt verschiedene Möglichkeiten, lokalisierte Inhalte darzustellen. Wenn Sie Inhalte in verschiedenen Sprach-/Gebietsschemavarianten präsentieren und nur die Kopf-/Fußzeile/Navigation der Website übersetzt haben, der Inhalt jedoch in derselben Sprache bleibt, werden die URLs als Duplikate behandelt.

Richten Sie die Anzeige mehrsprachiger und multiregionaler Websites mithilfe von Hreflang- Tags ein und fügen Sie die unterstützten Sprach-/Regionscodes im HTML, in HTTP-Antwortcodes oder in der Sitemap hinzu.

Beachten Sie, dass Sie zusätzlich zum Tagging einige andere Lokalisierungssignale für Suchmaschinen bereitstellen können. Wenn Ihre Website beispielsweise auf ein Geschäft mit einem physischen Standort ausgerichtet ist, geben Sie Ihr Google-Unternehmensprofil ein.

Subdomain www/non-www-Varianten

Websites sind in der Regel mit und ohne „www“ im Domainnamen verfügbar. Dieses Problem tritt recht häufig auf und die Leute verlinken sowohl auf WWW- als auch auf Nicht-WWW-Versionen. Wenn Sie dieses Problem beheben, können Sie verhindern, dass Suchmaschinen zwei Versionen einer Website indizieren. Obwohl eine solche Indizierung keine Strafe nach sich zieht, ist es eine bewährte Methode, eine Version als Priorität festzulegen.

Überprüfen Sie Subdomain- und Protokollprobleme sowie gemischte Inhalte für HTTP/HTTPS-Seiten
Überprüfung von Protokoll- und Subdomain-Weiterleitungen mit WebSite Auditor
Laden Sie WebSite Auditor herunter

Probleme mit dem HTTP/HTTPS-Protokoll

Google bevorzugt HTTPS gegenüber HTTP, da für die meisten Websites eine sichere Verschlüsselung dringend empfohlen wird (insbesondere bei der Durchführung von Transaktionen und der Erfassung sensibler Benutzerinformationen). Manchmal stehen Webmaster bei der Installation von SSL-Zertifikaten und der Einrichtung der HTTP/HTTPS-Versionen der Website vor technischen Problemen. Wenn eine Website über ein ungültiges SSL-Zertifikat verfügt (nicht vertrauenswürdig oder abgelaufen), verhindern die meisten Webbrowser, dass Benutzer Ihre Website besuchen, indem sie sie über eine „unsichere Verbindung“ informieren.

Notiz

Google hat 2014 damit begonnen , HTTPS als Ranking-Signal zu verwenden. Seitdem werden HTTPS-Migrationen immer häufiger. Heute verwenden laut Google Transparency Report 95 % der Websites bei Google HTTPS. Wenn Ihre Website noch nicht auf HTTPS umgestellt ist, sollten Sie eine HTTPS-Migration in Betracht ziehen. Wenn Sie sich für Sicherheit entscheiden, können Sie gerne das Framework aus der Fallstudie unserer eigenen Migration zu HTTPS auf link-assistant.com verwenden.

Wenn die HTTP- und HTTPS-Versionen Ihrer Website nicht richtig eingestellt sind, können beide von Suchmaschinen indiziert werden und Probleme mit doppeltem Inhalt verursachen, die das Ranking Ihrer Website beeinträchtigen können.

Wenn Ihre Website bereits HTTPS verwendet (teilweise oder vollständig), ist es wichtig, im Rahmen Ihres SEO-Site-Audits häufige HTTPS-Probleme zu beseitigen. Denken Sie insbesondere daran, im Abschnitt Site Audit > Codierung und technische Faktoren nach gemischten Inhalten zu suchen .

Probleme mit gemischten Inhalten treten auf, wenn eine ansonsten sichere Seite einen Teil ihres Inhalts (Bilder, Videos, Skripte, CSS-Dateien) über eine nicht sichere HTTP-Verbindung lädt. Dies schwächt die Sicherheit und verhindert möglicherweise, dass Browser den nicht sicheren Inhalt oder sogar die gesamte Seite laden.

Um diese Probleme zu vermeiden, können Sie die primäre WWW- oder Nicht-WWW-Version für Ihre Site in der .htaccess-Datei einrichten und anzeigen. Legen Sie außerdem die bevorzugte Domain in der Google Search Console fest und kennzeichnen Sie HTTPS-Seiten als kanonisch.

Inhaltsduplikate

Sobald Sie die volle Kontrolle über den Inhalt Ihrer eigenen Website haben, stellen Sie sicher, dass keine doppelten Titel, Überschriften, Beschreibungen, Bilder usw. vorhanden sind. Einen Hinweis zu doppelten Inhalten auf der gesamten Website finden Sie im Abschnitt „On-Page“ im Site Audit von WebSite Auditor Armaturenbrett. Die Seiten mit doppelten Titeln und Meta-Beschreibungs-Tags haben wahrscheinlich auch nahezu identischen Inhalt.

Überprüfen Sie alle doppelten Titel und Meta-Beschreibungen
Finden Sie alle Site-weiten Duplikate im On-Page-Bereich von Site Audit
Laden Sie WebSite Auditor herunter

Fassen wir zusammen, wie wir Indexierungsprobleme erkennen und beheben. Wenn Sie alle oben genannten Tipps befolgt haben, einige Ihrer Seiten jedoch immer noch nicht im Index enthalten sind, finden Sie hier eine Zusammenfassung der Gründe, warum dies passiert sein könnte:

  • Die Seite wird von robots.txt nicht zugelassen
  • Es wurde aus dem Index entfernt, da es sich um ein Duplikat handelt
  • Es wird durch die Implementierung von rel=“canonical“ als unwichtig markiert.
  • Es wird von Meta-Robots als noindex markiert
  • Die Suchmaschinen halten es für minderwertig (doppelter oder dünner Inhalt).
  • Falsche Serverantwort (der Antwortcode ist anders als 200)
  • Der Crawler hat es noch nicht entdeckt (es ist eine neue Seite, sie wurde auf eine neue URL verschoben, sie ist tief in der Site-Struktur vergraben).

Notiz

Hören Sie John Mueller in den SEO-Sprechstunden von Google zu , wie er Indexierungsprobleme erklärt . Um es kurz zu machen: Selbst wenn Sie aus technischer Sicht alles richtig gemacht haben, Ihre neuen Seiten aber nicht indiziert werden, hängt das Problem wahrscheinlich mit der Gesamtqualität der Website zusammen.

Warum wird eine Seite indiziert, obwohl dies nicht der Fall sein sollte?

Beachten Sie, dass das Blockieren einer Seite in der robots.txt-Datei und das Entfernen aus der Sitemap nicht garantiert, dass sie nicht indiziert wird. In unserer ausführlichen Anleitung erfahren Sie, wie Sie die korrekte Indizierung von Seiten verhindern können .

Schritt 3. Überprüfen Sie die Site-Struktur

Eine flache, logische Site-Architektur ist sowohl für Benutzer als auch für Suchmaschinen-Bots wichtig. Eine gut geplante Site-Struktur spielt auch eine große Rolle für das Ranking, denn:

  • Eine einfache Navigation stellt sicher, dass Benutzer problemlos auf alle Inhalte zugreifen können.
  • Klicktiefe, Menü, Miniaturansichten, Sitelinks und Paginierung wirken sich auf die Auffindbarkeit aus, also darauf, wie effektiv Roboter Ihre Seiten finden und scannen.
  • Interne Verlinkungen tragen dazu bei, die Ranking-Power (den sogenannten Link Juice) effizienter auf Ihre Seiten zu verteilen.
  • Interne Links und optimierte Ankertexte können dabei helfen , eine Sitelink-Funktion auf dem SERP für die relevanten Suchanfragen zu erstellen .


Achten Sie bei der Überprüfung der Struktur und der internen Verlinkung Ihrer Websites auf die folgenden Elemente.

SEO-freundliche URLs

Optimierte URLs sind aus zwei Gründen von entscheidender Bedeutung. Erstens ist es für Google ein untergeordneter Rankingfaktor. Zweitens können Benutzer durch zu lange oder ungeschickte URLs verwirrt sein. Halten Sie sich bei Ihrer URL-Struktur an die folgenden Best Practices :

  • Gestalten Sie URLs schlüsselwortoptimiert.
  • Vermeiden Sie zu lange URLs.
  • Bevorzugen Sie statische URLs gegenüber dynamischen; Vermeiden Sie URLs, die dynamische Zeichen wie „?“, „_“ und Parameter enthalten.
  • Verwenden Sie URL-Shortener für das Teilen in sozialen Medien.

Sie können Ihre URLs im Abschnitt Site Audit > URLs von WebSite Auditor überprüfen.

Entdecken Sie dynamische und zu lange URLs
Finden Sie SEO-unfreundliche URLs im URL-Bereich von WebSite Aditor
Laden Sie WebSite Auditor herunter

Interne Verlinkung

Es gibt viele Linktypen, einige davon sind mehr oder weniger vorteilhaft für die SEO Ihrer Website. Beispielsweise geben kontextbezogene Dofollow-Links den Linkjuice weiter und dienen Suchmaschinen als zusätzlicher Indikator dafür, worum es bei dem Link geht. Links gelten als qualitativ hochwertig, wenn (und dies betrifft sowohl interne als auch externe Links):

  • Links stammen aus relevantem Kontext.
  • Sie verfügen über vielfältige und keyword-optimierte Ankertexte.
  • Sie stammen von maßgeblichen Seiten.

Auch Navigationslinks in Kopfzeilen und Seitenleisten sind für die Website-SEO wichtig, da sie Benutzern und Suchmaschinen bei der Navigation durch die Seiten helfen.
Andere Links haben möglicherweise keinen Rankingwert oder schaden sogar der Autorität der Website. Zum Beispiel massive ausgehende Links auf der gesamten Website in Vorlagen (von denen es früher viele kostenlose WP-Vorlagen gab). In diesem Leitfaden zu den Arten von Links im SEO erfahren Sie, wie Sie wertvolle Links richtig aufbauen.

Mit dem WebSite Auditor- Tool können Sie interne Links und deren Qualität gründlich prüfen.

Verwaiste Seiten

Verwaiste Seiten sind nicht verlinkte Seiten, die unbemerkt bleiben und schließlich aus dem Suchindex verschwinden können. Um verwaiste Seiten zu finden, gehen Sie zu Site Audit > Visualisierung und überprüfen Sie die visuelle Sitemap . Hier sehen Sie ganz einfach alle nicht verlinkten Seiten und langen Weiterleitungsketten (301- und 302-Weiterleitungen sind blau markiert).

Erkennen Sie verwaiste Seiten und lange Weiterleitungsketten
Mit der visuellen Sitemap können Sie verwaiste Seiten, lange Weiterleitungsketten usw. leicht erkennen.
Laden Sie WebSite Auditor herunter

Sie können sich einen Überblick über die gesamte Website-Struktur verschaffen und das Gewicht ihrer Hauptseiten untersuchen – indem Sie die Seitenaufrufe (integriert aus Google Analytics), den PageRank und den Linkjuice überprüfen, den sie aus ein- und ausgehenden Links erhalten. Sie können Links hinzufügen und entfernen und das Projekt neu erstellen, indem Sie die Bedeutung jeder Seite neu berechnen.

Überprüfen Sie die interne Verlinkung nach PageRank, Seitenaufrufen und Klicktiefe
Überprüfen Sie die interne Verlinkung sowie die Stärke, Seitenaufrufe und Klicktiefe jeder Seite
Laden Sie WebSite Auditor herunter

Klicken Sie auf Tiefe

Überprüfen Sie bei der Prüfung Ihrer internen Links die Klicktiefe. Stellen Sie sicher, dass die wichtigen Seiten Ihrer Website nicht mehr als drei Klicks von der Startseite entfernt sind. Eine weitere Möglichkeit, die Klicktiefe im WebSite Auditor zu überprüfen, besteht darin, zu „Site-Struktur“ > „Seiten“ zu springen. Anschließend sortieren Sie die URLs nach Klicktiefe in absteigender Reihenfolge, indem Sie zweimal auf die Kopfzeile der Spalte klicken.

Finden Sie Seiten, die zu tief in der Site-Struktur vergraben sind
Sortieren Sie die Seiten mit der größten Klicktiefe in einer Liste
Laden Sie WebSite Auditor herunter

Seitennummerierung

Die Paginierung von Blogseiten ist für die Auffindbarkeit durch Suchmaschinen notwendig, erhöht jedoch die Klicktiefe. Nutzen Sie eine einfache Struktur zusammen mit einer umsetzbaren Site-Suche, um Benutzern das Auffinden von Ressourcen zu erleichtern.

Weitere Einzelheiten finden Sie in unserem ausführlichen Leitfaden zur SEO-freundlichen Paginierung .

Breadcrumb ist ein Markup-Typ, der bei der Erstellung umfangreicher Suchergebnisse hilft und den Pfad zur Seite innerhalb der Struktur Ihrer Website anzeigt. Breadcrumbs entstehen dank der richtigen Verlinkung, mit optimierten Ankern auf internen Links und korrekt implementierten strukturierten Daten (auf Letzteres gehen wir weiter unten ein paar Absätze ein).

Breadcrumbs in den Suchergebnissen
Breadcrumbs zeigen den Pfad zur Seite innerhalb der Site-Struktur

Tatsächlich können interne Links das Ranking Ihrer Website und die Art und Weise, wie jede Seite in der Suche dargestellt wird, beeinflussen. Weitere Informationen finden Sie in unserem SEO-Leitfaden zu internen Verlinkungsstrategien .

Schritt 4. Testen Sie die Ladegeschwindigkeit und das Seitenerlebnis

Die Geschwindigkeit der Website und das Seitenerlebnis wirken sich direkt auf die organischen Positionen aus. Die Serverantwort kann zu einem Problem für die Leistung der Website werden, wenn zu viele Benutzer sie gleichzeitig besuchen. Was die Seitengeschwindigkeit angeht, geht Google davon aus, dass der größte Seiteninhalt innerhalb von 2,5 Sekunden oder weniger im Ansichtsfenster geladen wird, und belohnt schließlich Seiten, die bessere Ergebnisse liefern. Deshalb sollte die Geschwindigkeit sowohl auf der Server- als auch auf der Clientseite getestet und verbessert werden.

Ladegeschwindigkeitstests erkennen serverseitige Probleme, wenn zu viele Benutzer gleichzeitig eine Website besuchen. Obwohl das Problem mit den Servereinstellungen zusammenhängt, sollten SEOs es berücksichtigen, bevor sie groß angelegte SEO- und Werbekampagnen planen. Testen Sie die maximale Auslastungskapazität Ihres Servers, wenn Sie mit einem Anstieg der Besucherzahlen rechnen. Achten Sie auf den Zusammenhang zwischen Besucheranstieg und Server-Reaktionszeit. Es gibt Lasttest-Tools, mit denen Sie zahlreiche verteilte Besuche simulieren und Ihre Serverkapazität einem Crashtest unterziehen können.

Auf der Serverseite ist eine der wichtigsten Metriken die TTFB- Messung oder Zeit bis zum ersten Byte . TTFB misst die Dauer von der HTTP-Anfrage des Benutzers bis zum Empfang des ersten Bytes der Seite durch den Browser des Clients. Die Antwortzeit des Servers beeinflusst die Leistung Ihrer Webseiten. Die TTFB-Prüfung schlägt fehl, wenn der Browser länger als 600 ms auf die Antwort des Servers wartet. Beachten Sie, dass der einfachste Weg zur Verbesserung von TTFB der Wechsel von Shared Hosting zu Managed Hosting ist, da Sie in diesem Fall nur einen dedizierten Server für Ihre Site haben.

Hier ist zum Beispiel ein Seitentest, der mit Geekflare erstellt wurde – einem kostenlosen Tool zur Überprüfung der Website-Leistung . Wie Sie sehen, zeigt das Tool an, dass die TTFB für diese Seite 600 ms überschreitet und daher verbessert werden sollte.

Die Zeit bis zum ersten Biss ist die Messgröße zur Überprüfung der Server-Antwortgeschwindigkeit
Seitengeschwindigkeit testen

Auf Client-Seite ist die Seitengeschwindigkeit jedoch nicht einfach zu messen, und Google hat mit dieser Kennzahl schon seit langem zu kämpfen. Endlich sind wir bei den Core Web Vitals angelangt – drei Metriken, die die wahrgenommene Geschwindigkeit einer bestimmten Seite messen sollen. Diese Metriken sind Largest Contentful Pain (LCP), First Input Delay (FID) und Cumulative Layout Shift (CLS). Sie zeigen die Leistung einer Website hinsichtlich Ladegeschwindigkeit, Interaktivität und visueller Stabilität ihrer Webseiten. Wenn Sie weitere Details zu den einzelnen CWV-Metriken benötigen, lesen Sie unseren Leitfaden zu Core Web Vitals .

Core Web Vitals-Bericht in der Search Console
Core Web Vitals in der Search Console zeigt die Anzahl der Seiten mit gutem oder schlechtem CWV-Score an

Vor kurzem wurden alle drei Core Web Vitals-Metriken zu WebSite Auditor hinzugefügt . Wenn Sie also dieses Tool verwenden, können Sie jede Metrikbewertung, eine Liste der Seitengeschwindigkeitsprobleme auf Ihrer Website und eine Liste der betroffenen Seiten oder Ressourcen sehen. Die Daten werden über den kostenlos generierten PageSpeed-API-Schlüssel analysiert.

Überprüfen von Core Web Vitals im WebSite Auditor
Überprüfung von Problemen mit der Seitengeschwindigkeit mit WebSite Auditor
Laden Sie WebSite Auditor herunter

Der Vorteil der Verwendung von WebSite Auditor zur Prüfung von CWV besteht darin, dass Sie eine Massenprüfung für alle Seiten gleichzeitig durchführen. Wenn Sie feststellen, dass viele Seiten von demselben Problem betroffen sind, betrifft das Problem wahrscheinlich die gesamte Website und kann mit einem einzigen Fix behoben werden. Es ist also eigentlich nicht so viel Arbeit, wie es scheint. Sie müssen lediglich den Empfehlungen auf der rechten Seite folgen und Ihre Seitengeschwindigkeit wird in kürzester Zeit steigen.

Schritt 5. Überprüfen Sie die Mobilfreundlichkeit

Heutzutage übersteigt die Zahl der mobilen Suchenden die von Desktops. Im Jahr 2019 führte Google die Mobile-First-Indexierung ein, wobei der Smartphone-Agent Websites vor dem Googlebot-Desktop crawlt. Daher ist die Mobilfreundlichkeit für organische Rankings von größter Bedeutung.

Bemerkenswerterweise gibt es unterschiedliche Ansätze zur Erstellung mobilfreundlicher Websites:

  • Responsives Design ( empfohlen von Gooogle)
  • Dynamisches Servieren
  • Eine separate mobile Version.

Die Vor- und Nachteile jeder Lösung werden in unserem ausführlichen Leitfaden zur mobilfreundlichen Gestaltung Ihrer Website erläutert. Außerdem können Sie AMP-Seiten auffrischen – obwohl dies keine hochmoderne Technologie ist, funktioniert sie für einige Seitentypen, z. B. für Nachrichten, dennoch gut.

Die Mobilfreundlichkeit bleibt ein entscheidender Faktor für Websites, die eine URL sowohl für Desktops als auch für Mobilgeräte bereitstellen. Darüber hinaus bleiben einige Usability-Signale, wie das Fehlen aufdringlicher Interstitials, ein relevanter Faktor für Desktop- und Mobil-Rankings. Deshalb sollten Webentwickler die beste Benutzererfahrung auf allen Arten von Geräten gewährleisten.

So überprüfen Sie, ob Ihre Website für Mobilgeräte geeignet ist

Der Test auf Mobilfreundlichkeit von Google umfasst eine Auswahl an Benutzerfreundlichkeitskriterien, wie z. B. die Konfiguration des Ansichtsfensters, die Verwendung von Plugins sowie die Größe von Text und anklickbaren Elementen. Denken Sie auch daran, dass die Mobilfreundlichkeit auf Seitenbasis beurteilt wird. Daher müssen Sie jede Ihrer Zielseiten einzeln und einzeln auf Mobilfreundlichkeit prüfen.

Um Ihre gesamte Website zu bewerten, wechseln Sie zur Google Search Console. Gehen Sie zur Registerkarte „Erfahrung“ und klicken Sie auf den Bericht „Mobile Usability“ , um die Statistiken für alle Ihre Seiten anzuzeigen. Unter der Grafik sehen Sie eine Tabelle mit den häufigsten Problemen, die Ihre mobilen Seiten betreffen. Wenn Sie unterhalb des Dashboards auf ein Problem klicken, erhalten Sie eine Liste aller betroffenen URLs.

Überprüfung der mobilen Benutzerfreundlichkeit in der Konsole
Bericht zur mobilen Benutzerfreundlichkeit in der Search Console

Typische Probleme bei der Mobilfreundlichkeit sind:

  • Der Text ist zu klein zum Lesen
  • Ansichtsfenster ist nicht festgelegt
  • Der Inhalt ist breiter als der Bildschirm
  • Anklickbare Elemente liegen zu nahe beieinander.

WebSite Auditor überprüft auch die Mobilfreundlichkeit der Homepage und weist auf Probleme bei der mobilen Benutzererfahrung hin. Gehen Sie zu Site Audit > Codierung und technische Faktoren . Das Tool zeigt an, ob die Website für Mobilgeräte geeignet ist, und listet gegebenenfalls Probleme auf:

Überprüfung der Mobilfreundlichkeit im WebSite Auditor
Mobilfreundliche Überprüfung mit WebSite Auditor
Laden Sie WebSite Auditor herunter

Schritt 6. Untersuchen Sie die On-Page-Tags

On-Page-Signale sind direkte Ranking-Faktoren. Unabhängig davon, wie gut die technische Solidität Ihrer Website ist, werden Ihre Seiten ohne eine ordnungsgemäße Optimierung der HTML-Tags nie in der Suche angezeigt. Ihr Ziel besteht also darin, die Titel, Meta-Beschreibungen und H1–H3-Überschriften Ihrer Inhalte auf Ihrer Website zu überprüfen und aufzuräumen.

Der Titel und die Meta-Beschreibung werden von Suchmaschinen verwendet, um einen Suchergebnis-Snippet zu bilden. Dieses Snippet wird den Benutzern zuerst angezeigt und hat daher großen Einfluss auf die organische Klickrate .

Überschriften tragen zusammen mit Absätzen, Aufzählungslisten und anderen Elementen der Webseitenstruktur dazu bei, umfassende Suchergebnisse in Google zu erstellen . Darüber hinaus verbessern sie natürlich die Lesbarkeit und die Benutzerinteraktion mit der Seite, was als positives Signal für Suchmaschinen dienen kann. Habe ein Auge auf:

  • Doppelte Titel, Überschriften und Beschreibungen auf der gesamten Website – beheben Sie diese, indem Sie für jede Seite eindeutige Titel schreiben.

  • Optimierung der Titel, Überschriften und Beschreibungen für Suchmaschinen (z. B. Länge, Schlüsselwörter usw.)

  • Dünner Inhalt – Seiten mit wenig Inhalt werden kaum einen Rang erreichen und können sogar die Autorität der Website beeinträchtigen (aufgrund des Panda-Algorithmus). Stellen Sie daher sicher, dass Ihre Seiten das Thema ausführlich behandeln.

  • Optimierung von Bildern und Multimediadateien – verwenden Sie SEO-freundliche Formate, wenden Sie Lazy Loading an, ändern Sie die Größe der Dateien, um sie leichter zu machen usw. Weitere Einzelheiten finden Sie in unserem Leitfaden zur Bildoptimierung .

WebSite Auditor kann Ihnen bei dieser Aufgabe sehr helfen. Im Abschnitt „Site-Struktur“ > „Site-Audit“ können Sie die Meta-Tags-Probleme auf der gesamten Website in großen Mengen überprüfen. Wenn Sie den Inhalt der einzelnen Seite detaillierter prüfen müssen, gehen Sie zum Abschnitt „Seitenprüfung“ . Die App verfügt außerdem über einen integrierten Content-Editor als Schreibtool, der Ihnen Vorschläge zum Umschreiben von Seiten basierend auf Ihren Top-SERP-Konkurrenten bietet. Sie können die Seiten unterwegs bearbeiten oder die Empfehlungen als Aufgabe für Texter herunterladen.

Überprüfung der On-Page-Tags auf der gesamten Website und Seite für Seite
Inhaltsprüfung im WebSite Auditor
Laden Sie WebSite Auditor herunter

Weitere Informationen finden Sie in unserem Leitfaden zur On-Page-SEO-Optimierung .

Schritt 7. Implementieren Sie strukturierte Daten

Strukturierte Daten sind ein semantisches Markup, das es Suchbots ermöglicht, den Inhalt einer Seite besser zu verstehen. Wenn Ihre Seite beispielsweise ein Apfelkuchenrezept enthält, können Sie Google mithilfe strukturierter Daten mitteilen, welcher Text die Zutaten, die Garzeit, die Kalorienzahl usw. enthält. Google verwendet das Markup, um Rich Snippets für Ihre Seiten in SERPs zu erstellen.

Ein reichhaltiges Ergebnis für ein Rezept, das mit der Implementierung strukturierter Daten erstellt wurde
Rich Snippet für ein durch Schema ausgelöstes Rezept

Es gibt zwei beliebte Standards für strukturierte Daten: OpenGraph für das schöne Teilen in sozialen Medien und Schema für Suchmaschinen. Die Varianten der Markup-Implementierung sind die folgenden: Microdata, RDFa und JSON-LD . Mikrodaten und RDFa werden dem HTML der Seite hinzugefügt, während JSON-LD ein JavaScript-Code ist. Letzteres wird von Google empfohlen .

Wenn der Inhaltstyp Ihrer Seite einer der unten genannten ist, ist das Markup besonders empfehlenswert:

  • FAQ-Antworten
  • Anleitungen
  • Rezepte
  • Person
  • Produkt
  • Bücher
  • Artikel
  • Lokales Geschäft
  • und mehr

Beachten Sie, dass die Manipulation strukturierter Daten zu Strafen durch Suchmaschinen führen kann. Beispielsweise sollte das Markup nicht den Inhalt beschreiben, der für Benutzer verborgen ist (dh der sich nicht im HTML der Seite befindet). Testen Sie Ihr Markup vor der Implementierung mit dem Structured Data Testing Tool .

Sie können Ihr Markup auch in der Google Search Console auf der Registerkarte „Verbesserungen“ überprüfen. GSC zeigt die Verbesserungen an, die Sie versucht haben, auf Ihrer Website zu implementieren, und teilt Ihnen mit, ob es Ihnen gelungen ist.

Rich-Suchergebnisse in der Search Console prüfen
Sehen Sie sich die Registerkarte „Verbesserungen“ in der Search Console an

Auch hier kann Ihnen WebSite Auditor weiterhelfen. Das Tool kann alle Ihre Seiten überprüfen und das Vorhandensein strukturierter Daten auf einer Seite, deren Typ, Titel, Beschreibungen und URLs von OpenGraph-Dateien anzeigen.

Überprüfung strukturierter Daten im WebSite Auditor
Strukturierte Datenprüfung im WebSite Auditor
Laden Sie WebSite Auditor herunter

Wenn Sie Schema-Markup noch nicht implementiert haben, lesen Sie diesen SEO-Leitfaden zu strukturierten Daten . Beachten Sie, dass strukturierte Daten möglicherweise standardmäßig implementiert sind, wenn Ihre Website ein CMS verwendet, oder Sie können sie durch die Installation eines Plugins hinzufügen (übertreiben Sie es trotzdem nicht mit Plugins).

Schritt 8. Bitten Sie Google, Ihre Website erneut zu crawlen

Sobald Sie Ihre Website überprüft und alle entdeckten Probleme behoben haben, können Sie Google bitten, Ihre Seiten erneut zu crawlen, damit die Änderungen schneller erkannt werden.
Senden Sie in der Google Search Console die aktualisierte URL an das URL-Inspektionstool und klicken Sie auf Indexierung anfordern . Sie können auch die Funktion „Live-URL testen“ (früher als Funktion „Abruf wie durch Google“ bekannt) nutzen, um Ihre Seite in ihrer aktuellen Form anzuzeigen und dann die Indexierung anzufordern.

Fordern Sie die Indexierung einer aktualisierten URL in der Search Console an
Senden einer Seite zum erneuten Crawlen in Google

Mit dem URL-Inspektionstool können Sie den Bericht erweitern, um weitere Details anzuzeigen, Live-URLs testen und eine Indexierung anfordern.

Bedenken Sie, dass Sie das erneute Crawlen nicht jedes Mal erzwingen müssen, wenn Sie etwas an Ihrer Website ändern. Erwägen Sie ein erneutes Crawlen, wenn die Änderungen gravierend sind: Sie haben beispielsweise Ihre Website von http auf https verschoben, strukturierte Daten hinzugefügt oder eine tolle Inhaltsoptimierung durchgeführt, einen dringenden Blog-Beitrag veröffentlicht, der schneller auf Google erscheinen soll usw. Beachten Sie, dass Google ein Limit hat über die Anzahl der Recrawl-Aktionen pro Monat, also missbrauchen Sie es nicht. Darüber hinaus übermitteln die meisten CMS alle Änderungen an Google, sobald Sie sie vornehmen, sodass Sie sich möglicherweise nicht mit dem erneuten Crawlen herumschlagen müssen, wenn Sie ein CMS (wie Shopify oder WordPress) verwenden.

Das erneute Crawlen kann einige Tage bis mehrere Wochen dauern, je nachdem, wie oft der Crawler die Seiten besucht. Das mehrmalige Anfordern eines erneuten Crawlens beschleunigt den Vorgang nicht. Wenn Sie eine große Menge an URLs neu crawlen müssen, reichen Sie eine Sitemap ein, anstatt jede URL manuell zum URL-Inspektionstool hinzuzufügen.

Die gleiche Option ist in den Bing Webmaster-Tools verfügbar. Wählen Sie einfach den Abschnitt „Meine Website konfigurieren“ in Ihrem Dashboard und klicken Sie auf „URLs senden“ . Geben Sie die URL ein, die Sie neu indizieren möchten, und Bing wird sie innerhalb von Minuten crawlen. Mit dem Tool können Webmaster für die meisten Websites bis zu 10.000 URLs pro Tag einreichen.

Schritt 9. Überprüfen Sie Ihre Website regelmäßig

Im Internet können viele Dinge passieren, und die meisten davon wirken sich wahrscheinlich besser oder schlechter auf Ihr Ranking aus. Deshalb sollten regelmäßige technische Audits Ihrer Website ein wesentlicher Bestandteil Ihrer SEO-Strategie sein.

Beispielsweise können Sie technische SEO-Prüfungen im WebSite Auditor automatisieren. Erstellen Sie einfach eine Aufgabe „Projekt neu erstellen“ und legen Sie die Zeitplaneinstellungen fest (z. B. einmal im Monat), damit Ihre Website automatisch vom Tool neu gecrawlt wird und die neuen Daten erhalten.

Wenn Sie die Ergebnisse des Audits mit Ihren Kunden oder Kollegen teilen müssen, wählen Sie eine der herunterladbaren SEO-Berichtsvorlagen des WebSite Auditors oder erstellen Sie eine benutzerdefinierte Vorlage.

Vorlage für technische Site-Audit-Berichte in WebSite Auditor
Passen Sie die Vorlage für ein regelmäßiges technisches Site-Audit an und fügen Sie bestimmte Probleme hinzu, die Sie verfolgen möchten
Laden Sie WebSite Auditor herunter

Die Vorlage „Site Audit (Zusammenfassung)“ eignet sich hervorragend für Website-Redakteure, um den Umfang der durchzuführenden Optimierungsarbeiten zu sehen. Die Vorlage „Site Audit (Details)“ ist ausführlicher und beschreibt jedes Problem und warum es wichtig ist, es zu beheben. In Website Auditor können Sie den Site-Audit-Bericht anpassen, um die Daten zu erhalten, die Sie regelmäßig überwachen müssen (Indizierung, defekte Links, On-Page usw.). Anschließend können Sie alle Daten als CSV/PDF exportieren oder alle Daten in eine Tabellenkalkulation kopieren, die Sie zur Hand haben Übergeben Sie es an die Entwickler, um Korrekturen zu erhalten.

Checkliste für technisches SEO-Audit

PDF Herunterladen

Darüber hinaus können Sie in unserem WebSite Auditor automatisch eine vollständige Liste technischer SEO-Probleme auf jeder Website in einem Site-Audit-Bericht abrufen. Darüber hinaus enthält ein detaillierter Bericht Erläuterungen zu jedem Problem und deren Behebung.

Dies sind die grundlegenden Schritte eines regelmäßigen technischen Site-Audits. Ich hoffe, dass der Leitfaden bestmöglich beschreibt, welche Tools Sie für die Durchführung eines gründlichen Website-Audits benötigen, welche SEO-Aspekte Sie beachten müssen und welche vorbeugenden Maßnahmen Sie ergreifen müssen, um eine gute SEO-Gesundheit Ihrer Website aufrechtzuerhalten.

Häufig gestellte Fragen:

Was ist technisches SEO?

Technisches SEO befasst sich mit der Optimierung technischer Aspekte einer Website, die Such-Bots helfen, effektiver auf Ihre Seiten zuzugreifen. Technisches SEO umfasst Crawling, Indizierung, serverseitige Probleme, Seitenerlebnis, Generierung von Meta-Tags und Site-Struktur.

Wie führt man ein technisches SEO-Audit durch?

Das technische SEO-Audit beginnt mit der Erfassung aller URLs und der Analyse der Gesamtstruktur Ihrer Website. Anschließend überprüfen Sie die Zugänglichkeit, Ladegeschwindigkeit, Tags, On-Page-Details usw. der Seiten. Die technischen SEO-Audit-Tools reichen von kostenlosen Webmaster-Tools bis hin zu SEO-Spidern, Logfile-Analysatoren usw.

Wann muss ich meine Website prüfen?

Technische SEO-Audits können unterschiedliche Ziele verfolgen. Möglicherweise möchten Sie eine Website vor dem Start oder während des laufenden Optimierungsprozesses prüfen. In anderen Fällen führen Sie möglicherweise Website-Migrationen durch oder möchten Google-Sanktionen aufheben. Der Umfang und die Methoden der technischen Audits unterscheiden sich von Fall zu Fall.

Article stats:
Linking websites N/A
Backlinks N/A
InLink Rank N/A
Daten von: Backlink-Checker-Tool.
Haben Sie Fragen oder Kommentare?
Treten Sie unserer Community auf Facebook bei!
Huge SEO PowerSuite sale is coming DECEMBER 10-12 DECEMBER 10-12