Upload
others
View
1
Download
0
Embed Size (px)
SEO
Grundlagen der Suchmaschinenoptimierung On-Page SEO
Off-Page SEO
Technische SEO
By
Inhaltsverzeichnis
VORWORT ................................................................................................................................................................................ 6
Was und für wen? ............................................................................................................................................................... 6
Gibt es nicht schon genug Materialien zu dem Thema? ......................................................................................................... 6
KAPITEL 1 ................................................................................................................................................................... 8
SEO. DREI MAGISCHE BUCHSTABEN FÜR IHRE WEBSEITE ................................................................................................................. 9
WAS IST SEO – UND WENN JA, WOZU? ........................................................................................................................................ 10
In welche Schublade gehört SEO? ...................................................................................................................................... 11
Wofür bekommen SEO-Manager ihr Geld? ......................................................................................................................... 12
Wozu brauchen Suchmaschinen Algorithmen? ................................................................................................................... 13
OHNE ALGORITHMEN KEIN GOOGLE ............................................................................................................................................ 14
Warum verändert Google seine Algorithmen ständig? ......................................................................................................... 14
Was tun, um nicht von einem Algorithmen-Update abgestraft zu werden? .......................................................................... 15
Wie bestimmen Googles Algorithmen die Relevanz einer Webseite? .................................................................................... 16
DIE GOOGLE-FILTER PANDA & PENGUIN ...................................................................................................................................... 23
Google Filter Panda: Die Qualität des Contents entscheidet ................................................................................................ 23
Welche Faktoren sind für Panda wichtig? .......................................................................................................................... 24
Google Filter Penguin: Links aufräumen ............................................................................................................................ 28
GOOGLE HUMMINGBIRD, MOBILE, RANKBRAIN ............................................................................................................................ 31
Hummingbird – verbesserte Sprachsuche ........................................................................................................................... 31
Das mobile Update ............................................................................................................................................................ 32
RankBrain ......................................................................................................................................................................... 33
WAS IST EIGENTLICH KEYWORD OPTIMIERUNG? ............................................................................................................................34
Mehrwert durch Themenabdeckung ................................................................................................................................... 34
Entwicklung der Keyword Optimierung............................................................................................................................... 35
Kontext analysieren ........................................................................................................................................................... 36
Semantische Analyse ........................................................................................................................................................ 37
GOOGLE SEARCH UND DIE MARKEN ............................................................................................................................................39
Funktionen einer Marke ..................................................................................................................................................... 39
Marken bei Google ............................................................................................................................................................ 40
Markensignale ................................................................................................................................................................... 43
Branding und SEO ............................................................................................................................................................ 44
KAPITEL 2 ................................................................................................................................................................. 45
WORUM WIRD ES GEHEN? ......................................................................................................................................................... 46
ONPAGE OPTIMIERUNG FÄNGT BEIM GOOGLE SNIPPET AN ............................................................................................................. 47
Hauptbereiche von SEO ..................................................................................................................................................... 47
Metadaten und Meta Tags ................................................................................................................................................ 48
ZUOBERST STEHT DAS TITLE TAG ................................................................................................................................................ 53
Wo finde ich das Title Tag ? ................................................................................................................................................ 53
Bedeutung des Seitentitels ................................................................................................................................................55
Zusammenfassung ........................................................................................................................................................... 59
DAS KLEINGEDRUCKTE IN IHRER VISITENKARTE: DIE META DESCRIPTION ......................................................................................... 60
Wo finde ich die Meta Description? .................................................................................................................................... 60
Warum sollte ich die Meta Description optimieren? ............................................................................................................ 62
Wie sieht die optimale Meta-Description aus? .................................................................................................................... 62
Fazit ................................................................................................................................................................................ 64
META KEYWORDS. BRAUCHE ICH DIE? ........................................................................................................................................ 65
Wieso gibt es das Meta Keywords Tag? ............................................................................................................................. 65
Wie sieht das Tag aus? ...................................................................................................................................................... 66
Brauche ich Meta Keywords? ............................................................................................................................................. 67
URL OPTIMIEREN. WIE UND WANN. ........................................................................................................................................... 68
Was ist eine URL? ............................................................................................................................................................. 68
Sprechende URL optimieren .............................................................................................................................................. 69
Das Problem mit den Parametern ...................................................................................................................................... 71
URLs ändern – eine gute Idee? ........................................................................................................................................... 71
URL optimieren – Zusammenfassung ................................................................................................................................. 72
HEADING TAGS ENTSCHEIDEN DARÜBER, OB IHR BESUCHER WEITERLIEST .......................................................................................... 74
Was sind Heading Tags und wie wichtig sind sie? ................................................................................................................ 74
Heading Tag und Title Tag sind zwei Paar Schuhe .............................................................................................................. 75
Wie viele Keywords verträgt ein Heading Tag? .................................................................................................................... 76
Wie viele Überschriften sind das Optimum? ........................................................................................................................ 76
Seitenstruktur analysieren ................................................................................................................................................. 77
Zusammenfassung ............................................................................................................................................................ 79
SO WAS VON WICHTIG: UNIQUE CONTENT ................................................................................................................................... 80
Warum Sie Unique Content brauchen ................................................................................................................................ 80
Wie Generieren Sie Unique Content? .................................................................................................................................. 81
Zusammenfassung ........................................................................................................................................................... 85
KAPITEL 3 ................................................................................................................................................................. 86
WORUM WIRD ES GEHEN? .......................................................................................................................................................... 87
DER GOOGLE PAGERANK ......................................................................................................................................................... 88
Was ist PageRank? ........................................................................................................................................................... 88
Wie kann ich den PageRank ermitteln? .............................................................................................................................. 90
Ist der Algorithmus überhaupt noch von Bedeutung? ......................................................................................................... 90
WARUM SIE IHRE BACKLINKS PRÜFEN SOLLTEN ............................................................................................................................ 92
Wir haben ein Problem ...................................................................................................................................................... 92
Welcher Backlink ist ein guter Backlink? ............................................................................................................................. 93
Wie Sie Ihre Backlinks prüfen ............................................................................................................................................ 95
Wie Sie legale Backlinks aufbauen ..................................................................................................................................... 96
DIE MACHT VON SOCIAL MEDIA ................................................................................................................................................ 99
Besteht ein Zusammenhang zwischen Social Media und dem Google Algorithmus? ............................................................ 99
Wie hilft Social Media bei der OffPage SEO? ..................................................................................................................... 101
Das soziale Leben außerhalb von FB ................................................................................................................................ 102
KAPITEL 4 ............................................................................................................................................................... 105
TECHNISCHES SEO. IST DAS WAS SCHLIMMES? ........................................................................................................................... 106
Warum Sie technical SEO brauchen ................................................................................................................................. 106
Wie technisch ist Technical SEO? ..................................................................................................................................... 107
Gibt es sowas zum Selbermachen? ................................................................................................................................... 108
SITEMAPS. EIN HAUCH TECHNIK ............................................................................................................................................... 109
Unterschied zwischen HTML- und XML-Sitemaps ............................................................................................................. 111
Brauche ich Sitemaps? Und wenn ja, welche? ................................................................................................................... 111
Wie war das noch mit dem Erstellen? ............................................................................................................................... 113
Wie kommen die Sitemaps zu Google? ............................................................................................................................. 115
WIR ZERLEGEN DIE ROBOTS.TXT DATEI ...................................................................................................................................... 117
Was ist eine robots.txt Datei? ........................................................................................................................................... 117
Wo liegt die Datei?........................................................................................................................................................... 118
Braucht man eine robots.txt? ........................................................................................................................................... 119
Wie erstelle ich eine robots.txt? ........................................................................................................................................ 120
Wie sieht die robots.txt aus? ............................................................................................................................................ 120
Meine erste robots.txt ) .................................................................................................................................................... 124
Die Sache mit der Noindex-Anweisung ............................................................................................................................. 124
FEHLERSEITEN ....................................................................................................................................................................... 127
Wozu dient ein Fehlercode? .............................................................................................................................................. 127
Die 404-Fehlerseite und wie Sie mit Ihr umgehen .............................................................................................................. 128
Tückisch: Der Soft 404-Fehler .......................................................................................................................................... 129
Wie Sie 404-Fehlerseiten erkennen ................................................................................................................................... 131
Zum Schluss kurz angerissen: 5xx Fehler .......................................................................................................................... 132
Fazit ............................................................................................................................................................................... 132
WEITERLEITUNGEN ................................................................................................................................................................. 133
Was ist eine Redirection? ................................................................................................................................................. 133
Permanente Weiterleitung ............................................................................................................................................... 134
Temporäre Weiterleitungen ............................................................................................................................................. 135
Meta-Refresh .................................................................................................................................................................. 135
Was es bei der 301-Redirect zu beachten gibt .................................................................................................................... 137
Redirect einrichten........................................................................................................................................................... 138
AUSBLICK ............................................................................................................................................................................. 139
Vorwort
Was und für wen?
Dieses Tutorial über Suchmaschinenoptimierung richtet sich an Selbständige und Freiberufler, die über
ihre Website erfolgreich Kunden gewinnen möchten. Es bietet Ihnen einen strukturierten Kurs in drei
Teilen, mit dem Sie Schritt für Schritt die Grundlagen der SEO erlernen. Nach diesem Kurs werden Sie in
der Lage sein, Ihre Website für eine optimale Benutzererfahrung sowie das bestmögliche Ranking bei
Google selbständig zu optimieren.
Gibt es nicht schon genug Materialien zu dem Thema?
Natürlich existieren im Internet unzählige Beiträge über Suchmaschinen-Optimierung und Online-
Marketing. Darunter gibt es richtig hochwertige Webseiten, deren Betreiber regelmäßig exzellente Artikel
oder Videos veröffentlichen. Wenn ich mich mitten in so einem Blog wiederfand, fragte ich mich jedoch
jedes Mal: An welcher Stelle geht es los? Wo ist der Artikel, den ich zuerst lesen soll? Und in welcher
Reihenfolge geht es danach weiter?
Die tollen SEO-Blogs konnte ich als Einsteiger jedenfalls nicht wirklich für mich nutzen.
Die Materialien hingegen, die als reine „SEO-Tutorials“ angeboten wurden, dienten eher Werbezwecken.
Sie handelten das Thema zu kurz ab und brachten mich deshalb auch nicht ans Ziel.
Eine Variante wäre gewesen, ein teures Seminar zu buchen. Dafür braucht man aber einen Arbeitgeber,
der den Kurs finanziert. Da liegt es näher, sich ein Buch zu kaufen. Nur welches? Für den Einsteiger lesen
sich die Inhaltsverzeichnisse der SEO-Bücher doch so aufschlussreich wie ein Telefonbuch.
Schließlich stieß ich auf einen sechsmonatigen, englischsprachigen Kurs an einer Universität, den ich als
Gasthörer belegen konnte. Das war dann die Lösung.
Ja, und an diesem Punkt setzt mein SEO-Tutorial an. In dem Tutorial will ich Ihnen das Wissen
weitergeben, welches ich mir auf der Grundlage jenes Kurses und darüber hinausgehend aneignen konnte.
Der Uni-Kurs diente mir nämlich bald nur noch als Wegweiser. Da ich nun wusste, wo und wonach ich zu
suchen hatte, stellte ich mir ein eigenes, erweitertes Pensum zusammen. - Sie werden davon profitieren.
Das Tutorial verschafft Ihnen das nötige Grundlagenwissen über SEO, um den passenden weiteren Weg
für sich zu wählen. Dieses Wissen genügt, um die Optimierung Ihrer Webseite selbst in die Hand zu
nehmen. Es wird Ihnen aber auch eine Vorstellung vermitteln, wie umfangreich das Thema ist. Vielleicht
finden Sie die Thematik auch recht überschaubar. Jedenfalls werden Sie nach der Lektüre in der Lage sein,
in Foren und auf SEO-Blogs gezielt nach Informationen zu suchen sowie geeignete von ungeeigneten
Fachbüchern zu unterscheiden. Und wenn Sie aus Zeitgründen zum Schluss kommen sollten, für die
Pflege Ihrer Webseite doch lieber einen Fachmann zu engagieren, werden Sie dessen Arbeit besser
einschätzen können.
Die Struktur des Kurses spiegelt meinen eigenen Weg wider. Zu Beginn wusste ich nicht einmal, wofür die
Abkürzung SEO überhaupt steht. Nun habe ich eine Webseite und kümmere mich selbst um deren
Optimierung. Wie Sie sehen, bin ich dabei erfolgreich, denn sonst wären Sie nicht auf dieses Buch
gestoßen.
Lassen Sie uns also beginnen.
Kapitel 1 Einführung in die
Suchmaschinenoptimierung
SEO. Drei magische Buchstaben für Ihre Webseite
Dieses Kapitel verschafft Ihnen einen Überblick über das Thema Suchmaschinenoptimierung.
Zum Aufwärmen definieren wir den Begriff Suchmaschinenoptimierung, um uns anschließend zwei
Gebieten zu widmen, mit denen SEO-Berater viel Zeit verbringen: das wären zum einen die SEO
Richtlinien (auch Best Practices genannt) und zum anderen die Google Algorithmen Updates.
Wir schauen uns dabei an, wie Webmaster versuchen, Algorithmen zu umgehen. Dabei lernen Sie nicht
nur die wichtigsten Ranking-Faktoren der modernen Suchmaschinen kennen, sondern erfahren auch, wie
Sie eine Google Penalty vermeiden, also eine Abstrafung durch die Suchmaschinenalgorithmen.
Am Ende des Kapitels können Sie Konzepte wie Themenassoziation und semantische Analyse erklären
und, wenn Sie wollen, bei einem Date damit Eindruck schinden. Sie sind dann auch gut darauf vorbereitet,
Ihre eigenen Inhalte für eine Webseite zu schreiben und zu optimieren sowie eine Strategie zu entwickeln,
mit der Sie Ihr Ranking verbessern und trotzdem Googles Richtlinien für Webmaster einhalten.
Was ist SEO – und wenn ja, wozu?
Die Suchmaschinenoptimierung (SEO) läuft einem großen Ziel hinterher: Eine Webseite soll in den
Suchergebnissen der Suchmaschinen möglichst weit vorne erscheinen. Dabei muss der Begriff
“Suchmaschinen” meist als Synonym für Google herhalten, obwohl außerhalb von Google eine recht
bunte Suchmaschinenwelt existiert.
Warum sollten Sie sich nun mit Suchmaschinenoptimierung befassen?
Weil Webseiten, die es nicht auf die ersten Plätze bei den Suchergebnissen geschafft haben, kaum
Besucher erhalten.
Und warum geht es in diesem Tutorial hauptsächlich um SEO für die Suchmaschine Google?
Weil, wie Sie auf folgender Grafik sehen, mehr als neunzig Prozent der Internet-Suchanfragen bei dem
Marktführer Google landen. Weltweit kommen dabei über drei Milliarden Anfragen zusammen – und zwar
täglich.
Abbildung 1: Marktanteile der Suchmaschinen. [Quelle: https://www.indexlift.com/de/blog/marktanteile-suchmaschinen-weltweit-2019 ]
So unterschiedlich die Suchanfragen auch sind, haben sie alle etwas Entscheidendes gemeinsam: Neun
von zehn Nutzern schauen nie über die erste Seite der Suchergebnisse hinaus. Genau genommen schauen
die meisten Nutzer nie über die ersten drei Ergebnisse hinaus. Das liegt daran, dass die Suchenden lieber
ihre Suchabfrage verfeinern, anstatt einen Blick auf die zweite Seite der Resultate zu werfen. Wenn Sie
Ihre Webseite nur ein paar Positionen nach oben bringen, wird das also einen erheblichen Einfluss auf Ihre
Besucherzahlen haben. Deshalb ist es für Unternehmen so wichtig, in Suchmaschinen gefunden zu
werden. Denn nur so können sie bekannter werden und ihre Umsätze und Gewinne steigern.
In welche Schublade gehört SEO?
SEO ist ein Bestandteil des digitalen Marketings und arbeitet eng mit anderen Marketingstrategien
zusammen. Hierzu gehören
• Suchmaschinenmarketing (SEM)
• Social Media Marketing
• Content Marketing
• Öffentlichkeitsarbeit
SEM ist ein Oberbegriff und fasst zwei Disziplinen zusammen: SEO und SEA. SEA, die
Suchmaschinenwerbung, beschäftigt sich mit bezahlten Anzeigen in den Trefferlisten. Bei Google wären
das die Adwords.
SEO zielt hingegen darauf ab, Ihre Website in den organischen Suchergebnissen nach oben zu bringen.
Organisch bedeutet, dass die Platzierung in den Suchergebnislisten aufgrund der Algorithmen der
Suchmaschinen entsteht. Die Webseiten erscheinen also in den organischen Ergebnissen, weil sie für eine
spezifische Suche als relevant angesehen werden.
Social Media Marketing (SMM) ist Marketing über soziale Netzwerke wie Facebook, Twitter, Instagram.
Es wird beispielsweise eingesetzt, um das Unternehmen und seine Produkte zu präsentieren, Kunden zu
binden, oder mit Nutzern zu interagieren um Informationen über sie zu erhalten.
Content Marketing ist auf die Bedürfnisse der Zielgruppe zugeschnitten. Die Inhalte, wie kostenlose
Blogs, Whitepaper, Ratgeber oder E-Books, sollen dem Empfänger einen konkreten Nutzen liefern.
Öffentlichkeitsarbeit (PR) umfasst das gesamte Kommunikationsmanagement eines Unternehmens, also
nicht nur mit Journalisten, sondern auch mit Kunden oder Stakeholdern. PR verfolgt das Ziel, das
Unternehmen in der Öffentlichkeit von der besten Seite zu präsentieren.
Wofür bekommen SEO-Manager ihr Geld?
SEO-Manager sind Suchmaschinenoptimierer. Sie erarbeiten Keyword-Strategien und geben
Inhaltsempfehlungen für die Website. Der Trick ist jedoch, für solche Keywords zu optimieren, die am
ehesten konvertieren. Konvertieren heißt in dem Fall, dass die Besucher auf der Website bleiben, anstatt
sie nach wenigen Sekunden wieder zu verlassen.
Ein weiterer zentraler Aspekt der Arbeit von SEO-Managern ist der Aufbau von Backlinks. Unter Backlinks
versteht man externe Links, die von einer anderen Webseite zu der zu optimierenden Seite führen.
SEO-Spezialisten können in einem Unternehmen fest angestellt sein oder für eine Marketing-Agentur
arbeiten, in der sie verschiedene Kunden betreuen. Viele erfahrene SEOs arbeiten auch als selbstständige
Berater.
Wozu brauchen Suchmaschinen Algorithmen?
Neben Google existieren auf dem Markt noch andere Suchmaschinen, wie zum Beispiel Bing, Yahoo,
Baidu, Yandex oder Naver. Mit einem weltweiten Marktanteil von rund 89 % im Jahr 2017 ist Google
jedoch unangefochtener Marktführer. Aus diesem Grund konzentrieren sich SEO-Manager auf die
Algorithmen, nach denen Google die Webseiten indexiert und katalogisiert.
Suchmaschinen bestimmen mithilfe der Algorithmen
• die Qualität einer Website
• die Thematik einer Website
• bei welcher Art Anfragen die Website in den Ergebnissen anzeigt wird
• das Ranking, das heißt die Position der Website innerhalb der Suchergebnisse
Es gibt über 200 Faktoren, die das Ranking beeinflussen. Suchmaschinenoptimierer bestimmen, welche
Algorithmen sich auf welche Faktoren konzentrieren, um die Website anhand dieser Kriterien zu
verbessern. Doch die Google-Algorithmen verändern sich ständig. Täglich erfolgen Updates, aber nur
wenige Updates werden von Google auch angekündigt. SEO-Manager bedienen sich verschiedener Tools
und Technologien, um diese Updates und ihre Auswirkungen zu überwachen. Dabei betrachten sie die
bisherige Entwicklung der Algorithmen, um daraus Voraussagen für zukünftige Änderungen abzuleiten.
Da sich Algorithmen ständig weiterentwickeln, erfordert SEO einen proaktiven Ansatz. Gute SEO-
Manager vermeiden es, Algorithmen hinterherzujagen und die Website nach einem Update aktualisieren
zu müssen. Sie planen voraus, damit die Website den Test der Zeit besteht.
Unter dem Strich liegt das “Geheimnis” darin:
Richten Sie das Hauptaugenmerk nicht auf die Position in den Suchergebnissen, sondern optimieren Sie
mit dem Blick auf den Benutzer.
Denn Sie haben nur wenige Sekunden, um den Nutzer von Ihrer Webseite zu überzeugen. Mangelt es dem
Internet-Auftritt an Benutzerfreundlichkeit und Inhalten, ist Ihr Besucher mit einem Klick weg.
Ohne Algorithmen kein Google
Google aktualisiert seine Algorithmen fast täglich. Hin und wieder gibt es fundamentale Updates, die
nicht nur die SEO-Manager aufrütteln, sondern ganze Branchen verändern können. So verbannte Google
mit seinem Florida-Update mitten im Weihnachtsgeschäft des Jahres 2003 unzählige Firmen von seinen
Suchergebnissen und verursachte damit massive Umsatzeinbußen im Internetgeschäft.
Warum verändert Google seine Algorithmen ständig?
Google entwickelt die Updates nicht nur, um das Nutzererlebnis zu verbessern. Ein wichtiger Grund ist,
dass viele Webmaster versuchen, die Algorithmen zu manipulieren. Mit den Updates seiner Algorithmen
will Google verhindern, dass bedeutungslose Webseiten auf den vorderen Rängen landen.
Google verdient an Werbeanzeigen und hat ein großes Interesse daran, seinen Nutzern qualitativ
hochwertige Ergebnisse zu bieten. Wenn das nicht der Fall wäre, verlöre die Suchmaschine ihre
Marktanteile an Wettbewerber, die ihren Nutzern genau diese hochwertige Erfahrung bieten können.
Also ist Google bestrebt, die Suchergebnisse von Spam-Webseiten freizuhalten.
Was tun, um nicht von einem Algorithmen-Update abgestraft zu
werden?
Damit Ihre Website nicht überraschend von einem Algorithmen-Update betroffen wird, sollten Sie sich an
Googles Richtlinien für Webmaster halten.
Von großer Bedeutung sind
• nützliche Inhalte
• eine logische Linkstruktur
• natürliche Links von anderen Webseiten auf die eigene Seite
• eine Website ohne versteckte Inhalte
Die Informationen, die uns diese Qualitätsrichtlinien geben, sind aber nur die Spitze des Eisbergs. Um
Missbrauch zu verhindern, hält der Internetriese die Details seiner Algorithmen geheim.
SEO-Manager versuchen, Einflussgrößen auf die Rangfolge der Suchergebnisse aufzudecken, indem sie
die Ergebnisse ihrer Optimierungen ständig überwachen und auswerten. Dabei pflegen die Mitglieder der
SEO-Gemeinschaft untereinander einen regen Kontakt. Sie tauschen sich über ihre Hypothesen und
Erkenntnisse auf Konferenzen, Blogs und in Foren aus.
Zu führenden Blogs zählen beispielsweise die der SEO-Profis von Sistrix (Deutsch) und Moz (Englisch). Die
SEO-Agentur Abakus unterhält neben ihrem Blog zudem ein gut frequentiertes SEO-Forum, in dem Sie
Fragen sämtlicher Levels loswerden können.
Wie bestimmen Googles Algorithmen die Relevanz einer Webseite?
Die Parameter, die Einfluss auf die Position der Webseite in den Ergebnislisten haben, lassen sich in drei
Bereiche einteilen:
• On-Page-Faktoren ( z.B. Tags, Aktualität des Inhaltes )
• Off-Site-Faktoren ( z.B. Links, Markenerwähnungen )
• Domain-Faktoren ( z.B. Seitengeschwindigkeit, Domainverlauf )
Bevor wir uns diese Bereiche genau anschauen, sollten wir zuerst einen genaueren Blick auf
vorangegangene Google-Updates werfen. Dadurch werden Sie besser verstehen, was eine erfolgreiche
Website ausmacht. Indem Sie sich mit diesen Updates beschäftigen, lernen Sie, negative SEO-Praktiken
zu erkennen und diese auf Ihrer eigenen Website zu vermeiden.
Los geht es mit den Google-Updates Florida, Austin, Brandy, der personalisierten Suche, Universal
Search, Vince und Caffeine.
Florida-Update
Im Jahr 2003, als der Begriff Suchmaschinenoptimierung noch relativ unbekannt war, konnte man seiner
Website relativ einfach einen Platz an der Sonne verschaffen. Webmaster brauchten nur ihren Text mit
vielen zusätzlichen Keywords anzureichern und Links mit keywordreichem Ankertext aufzubauen.
Doch plötzlich veränderte sich die Suchlandschaft dramatisch und viele Websites verschwanden von der
Bildfläche.
„Schuld“ war das Florida-Update, welches Keyword-Spamming sowie die wiederholte Verwendung des
gleichen Ankertexts bzw. Hyperlink-Textes im Backlink-Profil abstrafte. Dieses Update führte vom rein
mechanische Ranking hin zu mehr nutzerorientierten Suchergebnissen.
Austin-Update
Einige Monate später räumte „Austin“ mit den Websites auf, die sich vor Florida in Sicherheit gewähnt
hatten. Auf der Liste von Austin standen Meta-Tag Spam und unsichtbarer Text. Meta-Tags beschreiben
die Informationen auf einer Webseite. Sie stehen im Kopfbereich der Webseite und sind für den Besucher
nicht sichtbar.
Abbildung 2: Beispiel für Meta-Tag Spam [Quelle: www.researchgate.net]
Unsichtbarer Text ist zum Beispiel weiße Schrift auf weißem Hintergrund. Bis zu dem Update war es noch
möglich gewesen, Websites ungestraft mit unsichtbaren Key-Wörtern zu füllen. Während die
Suchmaschinen diese Keywords mehrere Male auslasen, sahen die Benutzern nur eine leere Seite und
bemerkten nicht, dass sie sich auf einer Spam-Webseite befanden.
Brandy-Update
Im Februar 2004 führte Google mit seinem Brandy-Update signifikante Änderungen am Algorithmus ein,
unter anderem
die Latent Semantische Indexierung (LSI)
das Konzept der Link-Nachbarschaft
die Relevanz von Ankertexten
Dadurch stellte der Suchmaschinenriese die Weichen von simpler, auf Keyword-Dichte basierender
Relevanz hin zu thematischer Relevanz.
LSI stützt sich stark auf Synonyme und semantisch verwandte Wortgruppen. Das Verfahren basiert auf
der Erkennung natürlicher Sprachmuster, durch die sich das Thema einer Webseite mathematisch
approximieren lässt. Wenn Sie zum Beispiel eine Seite über Segelboote schreiben, wird Ihr Artikel
Fachbegriffe wie Salinge, Wanten oder Spinnaker aufweisen. Google kann anhand dieser
themenbezogenen Begriffe feststellen, dass es in dem Artikel tatsächlich um Segelboote geht. Das erhöht
die Relevanz des Artikels, auch wenn das Keyword „Segelboote“ selbst nicht vorkommen würde. Google
kann dadurch Seiten erkennen, die nur das Wort „Segelboot“ erwähnen, aber darüber hinaus keine echten
Informationen bieten.
Eine weitere wichtige Änderung des Brandy-Updates bezieht sich auf die Analyse von Link-
Nachbarschaften. Ihre Webseite über Segelboote würde Links von Sport-Webseiten oder Segel-
Webseiten beinhalten, da diese zu den thematischen Nachbarn gehören. Es kommt aber darauf an, mit
welcher Art von Webseiten Sie Link-Nachbarschaften pflegen. Wenn Sie beispielsweise nur auf Spam-
Seiten verweisen und umgekehrt, befinden Sie sich in keiner guten Nachbarschaft und Google würde es
vermeiden, Nutzer zu Ihnen zu schicken.
Personalisierte Suche
Auf „Brandy“ folgten verschiedene kleine Updates. Im Jahr 2005 jedoch war es Zeit für die nächste
einschneidende Veränderung: Die Einführung der „Personalized Search“.
Googles Ingenieure hatten schon früher an der personalisierten Suche gearbeitet. Diese Versuche waren
aber nicht erfolgreich gewesen, da sie auf benutzerdefinierten Einstellungen, Profilen und Browsern
basierten. Mit dem Update des Jahres 2005 änderte sich die Situation. Indem Google Suchverlauf,
Sprache, Standort und weitere persönliche Informationen analysierte, konnte es auf den Benutzer
zugeschnittene Suchergebnisse ausliefern, auch wenn diese kein Google-Konto besaßen. Seitdem wurde
die personalisierte Suche weiterentwickelt und findet heute vielfältige Anwendung.
Mit „Personalized Search“ werden die Suchergebnisse anhand der Suchanfragen und angeklickten
Suchergebnisse des Nutzers sortiert. Google bedient sich dazu eines Cookies, welches es auf dem Rechner
ablegt. Je öfter Sie eine bestimmte Webseite besuchen, desto mehr überzeugen Sie Google davon, dass
Sie diese Seite nützlich finden. Daraufhin wird Google die Seite bevorzugen. Klicken Sie häufig auf Ihre
eigene Webseite, sortiert Google diese in der Folge immer weiter oben ein. Andere Nutzer hingegen
sehen ein anderes Bild. Sie sehen Suchergebnisse, die auf ihre jeweiligen Vorlieben zugeschnitten sind. In
der Praxis bedeutet die personalisierte Suche, dass es keine einheitlichen Suchergebnisse mehr gibt. Jeder
Nutzer kann für die gleiche Suchanfrage unterschiedliche Suchergebnisse erhalten. Möchten Sie das
tatsächliche Ranking Ihrer Seite erfahren, müssen Sie das für personalisierte Suchvorschläge
verantwortliche Webprotokoll deaktivieren, um die personalisierte Suche zu umgehen.
Privatsphäre versus Personalisierung
Die personalisierte Suche wirft Bedenken auf. So stellt sich zum einen die Frage, ob sie die
Interessenvielfalt einschränkt. Nach Ansicht von Kritikern nimmt die Wahrscheinlichkeit, neue Websites
zu entdecken, durch die personalisierte Suche ab. Während Sie glauben, in den unendlichen Weiten des
Internets zu surfen, lenken die Algorithmen Ihre Aufmerksamkeit und Sie sehen lediglich eine Spiegelung
Ihres Klickverhaltens.
Zum anderen ist Googles Browser „Chrome“ in der Lage, genug Daten zu sammeln, um Benutzer zu
identifizieren – dazu müssen Sie nicht erst die Google Suchfunktion benutzen oder ein Google Konto
besitzen. Das führt zu möglichen Datenschutzproblemen, zumal Google keine reine Suchmaschine,
sondern ein gewinnorientiertes Unternehmen ist, welches Geld mit personalisierten Werbeeinblendungen
verdient.
Danny Sullivan von Google SearchLiaison hingegen erklärt, die Personalisierung verändere die Google
Suchergebnisse nur minimal:
Abbildung 3: Offizieller Tweet zur Personalisierten Suche. Quelle: [ https://twitter.com/searchliaison ]
Universal Search
Im Jahr 2007 führte Google seine einzelnen Datenbanken für Bilder, Videos, News, Shopping usw. zur
„universellen Suche“ zusammen. Algorithmen wurden hiervon nicht berührt, doch die herkömmliche
Suchlandschaft veränderte sich grundlegend: Die Ergebnisse der verschiedenen Datenbanken sind auf
einer Ergebnisliste zusammengefasst. Das heißt, die Suchergebnisse bestehen nun aus Bildern, Karten,
Videos, Nachrichten, Büchern und lokalen Ergebnissen. In manchen Fällen liegen zwischen vor den
organischen Suchtreffern gleich mehrere Ergebnisse der Universal Search. Infolge dessen wird eine
Webseite, obwohl sie zu einem bestimmten Suchbegriff sehr gut rankt, erst nach dem Scrollen sichtbar.
Abbildung 4: Ergebnisse aus der Universal Search zum Suchbegriff „Rosen schneiden“ [Quelle: Screenshot]
Achten Sie also darauf, auf Ihrer Website unterschiedliche Ressourcen wie Bilder und Videos
bereitzustellen. So verschaffen Sie sich zusätzliche Möglichkeiten, um in den Suchergebnissen zu
erscheinen.
Vince-Update
Vince war das nächste Update an Googles Ranking-Algorithmus. Das Update erschien im Februar 2009
und war dadurch gekennzeichnet, dass es die Bekanntheit einer (Offline-)Marke als Rankingfaktor mit
einbezog.
Etablierte Markendomains stiegen in den Suchergebnissen auf und profitierten bei stark umkämpften
Suchanfragen. Obwohl Google dieses Update als „kleine“ Änderung bezeichnete, hatte Vince tief
greifende Auswirkungen auf kleine Unternehmen.
Bereits im Jahr 2006 machte Googles damaliger CEO Eric Schmidt deutlich, dass er große Marken
bevorzuge. Sein Statement wird häufig zitiert: Ohne Barrieren würden Falschinformationen im Internet
„wie in einer Jauchegrube“ gedeihen. Ein Vertrauenswechsel in Marken sei die Lösung des Problems.
Caffeine-Update
Bei Caffeine handelte es sich nicht um ein Algorithmus-Update, sondern um eine Verbesserung des
Indexierungssystems. Wie der Name schon sagt, geht es bei Caffeine um Geschwindigkeit. Grundlage des
neuen Indexierungssystems ist eine umfassende Änderung der Suchinfrastruktur.
Diese Umstellung hatte keine direkten Auswirkungen auf das bestehende Ranking einer Webseite.
In der Vergangenheit dauerte es Wochen, bevor eine Website von Google entdeckt wurde. Der neue
Suchindex hingegen bedient sich eines kontinuierlichen Crawling- und Indexierungsprozesses. Dieser
bietet Google die Möglichkeit, Echtzeit-Updates und -Ergebnisse zu liefern, damit die Benutzer die
relevantesten Inhalte für ihre Anfrage finden. Websites werden in einem viel größeren Maßstab
verarbeitet und schon kurze Zeit nach ihrer Veröffentlichung gecrawlt und indexiert. Mit Google Caffeine
erhöhte sich die Indexierungsgeschwindigkeit um ein Vielfaches und bietet circa 50 % aktuellere
Suchergebnisse.
Für Betreiber von Websites heißt das, dass es sich lohnt, Inhalte zu aktuellen Trendthemen zu
veröffentlichen.
-----
In diesem Abschnitt haben wir uns Googles erste bedeutende Algorithmen-Updates angeschaut. Im
nächsten Abschnitt wird es um Updates jüngeren Datums gehen.
Die Google-Filter Panda & Penguin
Indem Sie sich mit den beiden Updates Panda und Penguin beschäftigen, lernen Sie zwei Hauptelemente
kennen, die für einen SEO-Manager von Interesse sind: Content und Backlinks.
Google Filter Panda: Die Qualität des Contents entscheidet
Panda gehört zu den bedeutendsten Änderungen an Googles Ranking-Algorithmus. Statt mit einer
einmaligen Änderung des Suchalgorithmus haben wir es hier mit einem Suchfilter zu tun. Dieser wird auf
den gesamten Google-Index angewendet und in unregelmäßigen Abständen weiterentwickelt.
Diese umfassende Update erschien erstmals im Jahr 2011. Der Algorithmus soll qualitativ hochwertige von
minderwertigen Inhalten unterscheiden und Webseiten geringer Qualität auf die hinteren Plätze der
Suchergebnisse verweisen. (Was unter hochwertigen Websites zu verstehen sein soll, hat Google in seinen
Qualitätsrichtlinien kurz zusammengefasst.) Das Update hatte enorme Auswirkungen auf die Bewertung
vieler Webseiten. Webmaster, die einem älteren Panda-Update entgehen konnten, wurden vom
nachfolgenden Roll-out erfasst. Andersherum konnten Webmaster, deren Webseite von Panda
herabgestuft wurde, nach den entsprechenden Verbesserungen wieder aus dem Filter herauskommen.
Mehrere Webseiten traf Panda jedoch so hart, dass diese sich nie mehr erholten.
Welche Faktoren sind für Panda wichtig?
Das wichtigste Kriterium ist Unique Content, das heißt, dass Ihre Webseite ausführliche Informationen mit
„echtem Mehrwert“ wie auch relevante Keywords enthalten soll.
Abgestraft werden deshalb
• Seiten, die weitgehend den gleichen Inhalt enthalten
• inhaltsleere Seiten
• zusammenkopierte Inhalte
• Seiten, die zu einem Formular führen
• Seiten mit irrelevante Anzeigen oder einem Übermaß an Anzeigen
• automatisch generierte Inhalte (Spun content)
• inhaltsarme Squeeze Pages
• Brückenseiten
• wertlose Gastbeiträge
Eigene Seiten gleichen Inhalts
Doppelte Seiten auf Ihrer eigenen Webseite werden sich gegenseitig ausmanövrieren, sodass keine der
Unterseiten das Ranking bekommt, dass sie verdient.
Duplikate
Webmaster, die in großem Maße Inhalte anderer Webseiten kopieren, brauchen zwar in den meisten
Fällen keine direkte Bestrafung von Google zu fürchten. Allerdings müssen sich die Suchmaschinen
zwischen den Webseiten-Versionen entscheiden. Normalerweise erhält dann die Webseite den Zuschlag,
welche die Information zuerst veröffentlicht hat. Wenn Sie sehr viele duplizierte Texte haben, wirkt sich
das negativ auf Ihre Webseite aus.
Werbung
Zusätzliche Faktoren, die eine Panda-Strafe auslösen können, sind eine hohe Anzahl an irrelevanter
Werbung. Bietet Ihre Seite kaum Inhalte, ist aber mit Anzeigen überfüllt, hat das negative Auswirkungen
auf Ihr Ranking.
Navigationsleiste
Google wird auch Dinge wie Ihre Webseiten-Navigation betrachten. Eine gute Navigation ist intuitiv und
verlinkt die Inhalte der Webseite untereinander.
Abbildung 5: Beispielbild für Webseiten-Navigation [Quelle: all-free-download.com]
Spun content
Der Begriff spun content steht für computergenerierten Inhalt auf der Basis vorgegebener Keywords.
Ziel ist, vorhandene Inhalte zu neuem unique content umzuschreiben. Die Software, die das
bewerkstelligt, wird unter Bezeichnungen wie Article Spinner angeboten. Das Ergebnis dieses
automatisch generierten Contents ist ein Kauderwelsch, welches die Benutzer kaum verstehen. Und
deswegen straft Panda diese Praktiken ab.
Squeeze Pages
Eine andere Art von Inhalten, die von Panda kritisch beäugt werden, sind Squeeze-Pages. Eine Squeeze-
Page ist vom Typ her eine sehr kurze Landing Page. Üblicherweise besteht sie nur aus Formularen und
Buttons wie „Jetzt Kaufen“ und zielt darauf ab, dem Besucher die E-Mail-Adresse zu entlocken. Sie bietet
keine weiterführenden Links. Alle Inhalte befinden sich auf der Hauptseite und der Besucher muss nur
nach unten scrollen, um weitere Informationen zu erhalten.
Abbildung 6: Beispiel für eine Squeeze Page [Quelle: https://instapage.com/blog/squeeze-page-examples-critiqued ]
Um sicherzustellen, dass Ihre Squeeze-Seite ihr Ranking in den Suchergebnissen beibehält, könnten Sie
zum Beispiel einen Abschnitt mit ausführlichen Produktinformationen am Ende der Seite hinzufügen.
Pop-ups
Ein weiteres Problem sind Webseiten, die Sie nicht einfach verlassen können, da Sie zuerst mehrere Pop-
up-Fenster schließen müssen.
Brückenseiten
Auch das Verwenden von Doorway-Pages im großen Stile versteht Google als Verstoß gegen die
Richtlinien. Doorway-Pages, auf Deutsch Brückenseiten, sind speziell für Suchmaschinen optimiert und
leiten die Besucher sofort auf die eigentliche Zielseite weiter. Brückenseiten zeigen dem Besucher und der
Suchmaschine also unterschiedliche Inhalte. Die Technik heißt Cloaking. Google wertet Cloaking als
Täuschung.
Nichts sagende Gastbeiträge
Weil es sehr vorteilhaft ist, Links zur eigenen Webseite zu erhalten, verbreitete sich schnell ein Trend
namens Gast-Bloggen. Einige Webmaster nutzten das aus und erstellten Seiten mit geringer Qualität, auf
denen sie banale Gastbeiträge verschiedenster Themen sammelten. Panda straft wertlose Gastbeiträge
jedoch ab. Leider sortierte das Update auch einige gute Webseiten aus, auf denen man sachkundige
Autoren für Gastbeiträge finden konnte.
Seit dem Jahr 2016 ist Panda Bestandteil des zentralen Google-Algorithmus.
Soviel in groben Zügen zum Panda-Update, das übrigens nicht nach dem Bären, sondern nach einem
Google-Ingenieur benannt ist. Schauen wir uns nun ein weiteres wichtiges Update an: den Filter Penguin,
der auf Link-Spam abzielt. Außerdem klären wir, was unter unnatürlichen Backlinks zu verstehen ist.
Google Filter Penguin: Links aufräumen
Backlinks galten in der Suchmaschinen-Optimierung lange Zeit als Nonplusultra. Viele Webmaster
versuchten um jeden Preis, an Links zu kommen. Es war nicht schwer, gute Ergebnisse für ein Keyword zu
erzielen. Man musste nur das Keyword als Ankertext in einem Link benutzen und den Link dann auf
möglichst vielen Webseiten hinterlassen. Der Penguin-Filter richtet sich gegen Seiten mit manipulativen
Links und setzt damit die Tradition der Updates fort, die auf unseriöse Webseiten abzielen. Genau wie bei
Panda handelt es sich auch bei Penguin um einen Filter, der periodisch erneuert wird.
Zu den Links, die gegen Googles Webmaster-Richtlinien verstoßen, gehören insbesondere
gekaufte Links aus Linktauschprogrammen
verborgene Links
Links aus Verzeichnissen und Linklisten
Spam-Links in Gästebüchern, Blogs und Foren
Link-Netzwerke, auch Linkfarmen genannt, zählen ebenso zu den manipulativen Link-Praktiken, da mit
ihnen die Popularität der eigenen Webseite künstlich erhöht werden soll. Linkfarmen bestehen aus
mehreren miteinander verbundenen Seiten und verfolgen nur ein Ziel: Links aufzubauen. Um das
Netzwerk vor Google zu verbergen, werden diese Seiten auf verschiedenen Servern gehostet und unter
verschiedenen Namen registriert.
Spam-Links in Gästebüchern
Auf Blogs erscheinen oft schmeichelhafte Kommentare, wie toll das Thema doch wäre und wie sehr man
sich auf weitere Beiträge freue. Am Ende des Kommentars folgen ein oder mehrere Links zum eigenen
Blog. In 99 % der Fälle handelt es sich um automatisierte Kommentare, die von einem Roboter für SEO-
Zwecke erstellt wurden. Unerfahrene Blogbesitzer veröffentlichen leider diese Kommentare häufig, weil
sie glauben, es handele sich um echte Kommentare.
Andere Kommentare beziehen sich inhaltlich tatsächlich auf den Blogbeitrag, verführen danach aber mit
reißerischen Kommentaren wie „Hey, auch du kannst monatlich 5.000 Euro von zu Hause aus verdienen“
zum Klick.
Ankertexte
Unter einem Ankertext versteht man den anklickbaren Text in einem Hyperlink. Wird Ihre Webseite häufig
von anderen Webmastern empfohlen und mit einem Link auf ihrer Webseite bedacht, steigert das in
Googles Augen die Relevanz Ihres Internetauftritts. Nicht aber, wenn der Ankertext unnatürlich aussieht.
Solch eine Spam-Technik liegt zum Beispiel dann vor, wenn Sie „aggressive“ Exact-Match-Ankertexte
verwenden. Darunter versteht man eine große Anzahl von Links mit genau dem Keyword, für das Sie
ranken möchten. Beispielsweise suchen Benutzer von Suchmaschinen üblicherweise nach „Lampen
preiswert Berlin“ anstatt nach „preiswerte Lampen in Berlin“. Wenn aber irgendwo im Internet ein Link
mit exakt den Worten „Lampen preiswert Berlin“ auf Ihre Webseite führt, ist die Manipulation
offensichtlich. Oder können Sie einen natürlich klingenden Satz bauen, der genau diese Wortkombination
enthält?
„Penguin“ gegen gekaufte Links
Es ist für Suchmaschinen nicht einfach, bezahlte Links von natürlichen Links zu unterscheiden. Es gibt
jedoch bestimmte Merkmale, nach denen der Google-Algorithmus Ausschau hält. Dazu gehört, ob der
Link von Anzeigen oder von Wörtern wie „Sponsor“ umgeben ist. Ebenso versucht Penguin, Links
herauszufiltern, die für die Zielgruppe der Seite nicht relevant sind. Ein Beispiel dafür wäre ein Link zu
einem Hundefrisör auf einer Seite über Kochrezepte. Außerdem soll der Filter gekaufte Rezensionen
erfassen. Gekaufte Produkt-Rezensionen sind ein weit verbreitetes Problem, da Plattformen so das
Vertrauen ihrer Kunden verlieren. Laut einem Artikel der Heise-Redaktion, ist Amazon inzwischen vor
Gericht gezogen, um gegen gekaufte Produktbewertungen vorgehen zu können.
Links in Signaturen oder Fußzeilen
Generell ist der Linkaufbau komplexer und risikoreicher geworden. Einige Methoden, mit denen SEOs in
der Vergangenheit eine große Anzahl von Backlinks generieren konnten, werden nun abgestraft. Zu den
Techniken, die Sie nicht verwenden sollten, gehören Backlinks in kostenlosen Widgets oder kostenlosen
Designs für Blogger oder WordPress. Die Anbieter hinterlassen beispielsweise in der Fußzeile Ihrer
Webseite einen Backlink.
Manche Benutzer erstellen auch zahlreiche Benutzerkonten in Foren, um ihrem Profil oder ihrer Signatur
einen Link auf ihre Webseite hinzuzufügen. Seit Penguin wertet Google solche Links und Profile ab. -
Nutzen Sie Ihre Zeit also lieber für lohnendere Taktiken.
Spam loswerden
Als der Penguin-Filter ausgerollt war, beeilten sich die Webmaster, Spamming-Links von ihrer Site zu
entfernen. Webseiten, die zuvor an den Links verdienten, änderten ihre Praktiken und forderten die
Eigentümer auf, die Links zu entfernen.
Aufgrund vieler Kommentare und Anfragen in Foren hat Google ein Link-Disavow-Tool erstellt. Es
ermöglicht Webmastern, ihre Backlinkstruktur von Spam-Links zu befreien. Bevor Sie dieses Tool
verwenden, überprüfen Sie zuerst, ob Ihre Webseite auch wirklich von Penguin betroffen ist. Ergreifen Sie
nicht einfach die Initiative und entfernen alle Ihre Backlinks, da einige davon auch vorteilhaft für Sie sein
könnten. Außerdem sollten Sie zuerst selbst versuchen, die Spam-Links zu entfernen, indem Sie sich
beispielsweise dem Seitenbetreiber in Verbindung setzen.
-----
Im nächsten Abschnitt wird es noch einmal um wichtige Google Updates gehen. Dann legen wir das
Thema aber vorerst zur Seite und schauen zu, dass wir uns in Richtung praktische Tipps bewegen. Die
Algorithmen Updates geben immer wieder neuen Stoff, wie BERT und MEDIC zeigen, aber das soll uns
erst später wieder interessieren.
Google Hummingbird, Mobile, RankBrain
In diesem Abschnitt geht es um die Google-Updates Hummingbird, Mobile Update und RankBrain. Die
Updates veränderten die Sprachsuche, wie auch die lokale und die mobile Suche.
Hummingbird – verbesserte Sprachsuche
Hinter dem Codenamen Hummingbird, auf Deutsch „Kolibri“, steht ein Update des Google
Kernalgorithmus. Ein Kernalgorithmus-Update verbessert den Algorithmus selbst, indem es ältere,
irrelevant gewordene Teile ersetzt. Im Gegensatz zu Penguin und Panda ging es bei Hummingbird nicht
um die organischen Suchergebnisse, sondern um die Benutzerfreundlichkeit. Deswegen verzeichneten die
Webmaster dieses Mal auch keine Einbrüche im Ranking.
Hummingbird veränderte die Google-Suche grundlegend. Hauptziel des Updates war, gesprochene
Suchanfragen besser zu verstehen – vor allem Suchanfragen aus ganzen Sätzen (Conversational Search).
Seit Hummingbird analysiert Google die gesamte Suchanfrage eines Nutzers, anstatt nur einzelne Wörter
isoliert zu interpretieren. Nach der Frage „Wie alt ist Dirk Nowitzki?“ könnten Nutzer als nächstes
eingeben: „Wie groß ist er?“. Google wird den logischen Schluß ziehen, dass sich die zweite Frage
ebenfalls auf Dirk Nowitzki bezieht.
Die lokale Suche wurde ebenfalls optimiert. Auf die Frage nach den Wetteraussichten erhält der Nutzer
Ergebnisse, die das Wetter an seinem Standort betreffen.
Identifizierte Google vormals nur Synonyme, ist es jetzt in der Lage, den Kontext zu erkennen. Das ist ein
weiterer Fortschritt bei der semantischen Suche, die seit dem Hummingbird-Update von 2013 das
Fundament des Google-Algorithmus bildet.
Die semantische Suche umfasst die Analyse verschiedener Punkte, einschließlich Kontext, Standort,
Absicht, Wortvariationen, Synonyme, passende Konzepte und mehr. Das verändert die Art und Weise, wie
Webmaster ihre Webseiten mit Inhalten füllen. Nun geht es nicht mehr nur darum, Informationen
bereitzustellen, sondern auch darüber nachzudenken, aus welchen Gründen Menschen etwas suchen. Sie
müssen sich an den Bedürfnissen des Benutzers orientieren, anstatt nur eine Reihe von Fakten aufzulisten.
Dadurch binden Sie die Nutzer an sich. Außerdem können Suchmaschinen den Schwerpunkt Ihrer
Webseite besser bestimmen. Letztendlich wird es Ihrer Webseite dabei helfen, für Long-Tail-Keywords zu
ranken, anstatt nur bei den hart umkämpften Ein- oder Zwei-Wort-Abfragen anzutreten.
Das mobile Update
Anfang 2015 startete Google einen Vorstoß, die Suche mit mobilen Endgeräten benutzerfreundlicher zu
gestalten. Google kündigte sein Algorithmus-Update im Voraus an, sodass Webmaster genug Zeit hatten,
ihre Webseiten „mobile-friendly“ zu verbessern.
Entgegen anfänglicher Befürchtungen, ein „Mobilegeddon“ stünde bevor, blieben die Auswirkungen auf
die Desktop-Suche im Rahmen. Suchergebnisse, die nicht für den Zugriff über Smartphones optimiert
sind, werden in der mobilen Suche allerdings benachteiligt und nicht mehr auf der ersten Seite angezeigt.
Wenn Sie Ihre Website entsprechend optimieren, führt das also nicht nur zu einer besseren
Benutzererfahrung, sondern trägt auch dazu bei, dass Ihre Website von Nutzern mit mobilen Endgeräten
gesehen wird.
RankBrain
Mit RankBrain bedient sich Google erstmals eines Teilbereiches von KI: dem maschinellen Lernen. Soll
heißen, die Suchmaschine lernt durch Beobachten, Sammeln und Auswerten von Daten, welche
Suchergebnisse am meisten Sinn machen würden. Basierend auf diesen statistischen Erfahrungswerten
lernt RankBrain, die Bedeutung hinter den Suchanfragen besser zu erkennen. Die Google Suchmaschine
kann Such-Abfragen besser interpretieren und Inhalte von Webseiten besser verstehen.
RankBrain ändert die Google Algorithmen nicht, kann jedoch beeinflussen, wie sie bei einer Abfrage
angewendet werden. Einige SEO-Experten interpretieren RankBrain als Teil des Hummingbird-
Algorithmus, dem Fundament der Google-Suche.
Laut Google ist das selbstlernende System der drittwichtigste Rankingfaktor nach Content und Backlinks.
Zu seinen besonderen Leistungen zählt das Verarbeiten mehrdeutiger sowie noch nie da gewesener
Suchanfragen. Es erkennt die Intention des Suchenden, auch wenn dieser möglicherweise nicht die
exakten Suchbegriffe eingibt.
-----
Sie haben nun einen Überblick über die wichtigsten Updates der Google-Algorithmen und deren
Auswirkungen auf Ihre Webseite bekommen. Das sollte Ihnen bereits helfen, Ihre Webseite für Benutzer
und Suchmaschinen zu verbessern. In den folgenden Beiträgen geht es darum, wie Sie Ihre Webinhalte
optimieren, um deren Attraktivität für die Google-Suche zu maximieren.
Was ist eigentlich Keyword Optimierung?
In diesem Kapitel geht es um die Grundlagen der Keyword-Optimierung. Außerdem erfahren Sie, was für
ein Zusammenhang zwischen Keywords, Kontext und semantischer Analyse besteht.
Mehrwert durch Themenabdeckung
Zu den guten SEO-Praktiken gehört es, dass Sie Ihrer Website thematisch ähnlichen Inhalt hinzufügen.
Das bedeutet, dass Sie sich nicht nur auf Ihr Fokusthema beschränken, sondern auch weiterführende
Informationen bieten sollten. Dazu müssen Sie recherchieren, welche Fragen das im Detail sind, die den
Nutzer noch interessieren könnten.
Gelingt es Ihnen, die Themenabdeckung Ihrer Webseite zu erweitern, werden Sie ihr dadurch zu mehr
Autorität verhelfen. Das liegt zum einen daran, dass Sie die Nutzererfahrung verbessern, und zum
anderen, dass Google den Webseiteninhalt besser verstehen kann.
Um Webseiten nicht einfach auf ein Keyword, sondern auf das Umfeld des Themas
zu optimieren, arbeiten SEO-Spezialisten mit Techniken wie der topic association und der semantischen
Analyse.
Entwicklung der Keyword Optimierung
Suchtechnologien für Online-Suche entwickeln sich sehr rasch. Frühe Suchmaschinen wie Lycos oder
AltaVista präsentierten noch maschinengenerierte Ergebnisse. Sie arbeiteten sich von Link zu Link vor
und durchforsteten den Inhalt der gefundenen Seiten nach dem eingegebenen Suchwort. Google kam
erst später auf den Markt, ließ die Konkurrenz aber bald hinter sich. Der Grund war die Qualität der
Suchergebnisse, die Google dadurch erzielte, dass es nicht nur den Inhalt, sondern auch die Popularität
der Webseite berücksichtigte.
Im Bestreben, seine Algorithmen laufend zu verfeinern, führt Google neue Technologien ein. Als Folge
wird SEO immer komplexer und die Anforderungen an Suchmaschinen-Optimierer steigen. Längst
genügt es nicht mehr, mit einer bestimmten Checkliste zu arbeiten und sicherzustellen, dass jedes
Kästchen abgehakt ist. Vielmehr ist es heute so, dass SEO einen ganzheitlichen Ansatz erfordert, da sich
die Faktoren, die bei der Arbeit an einer Webseite zu berücksichtigen sind, bei jedem Webprojekt anders
darstellen.
Wird Keyword-Zählen irgendwann überflüssig?
In den frühen Tagen von SEO bestand die Strategie der Suchmaschinen darin, Webtexte nach
bestimmten Keywords zu durchsuchen. Fanden sie das Schlüsselwort nicht, wurde der Content für die
entsprechende Suchanfrage als irrelevant eingestuft. Diejenigen Webseiten, die das Keyword enthielten,
schafften es hingegen in die SERPs. Ihre Rangfolge wurde dabei nach Relevanz und Autorität geordnet.
Die Relevanz einer Seite bestimmte Google anhand der Keyword-Dichte, das heißt, wie oft dieses
Keyword in Bezug auf die Textlänge auftauchte. Bei einer zu hohen Dichte galt die Seite als Spam, bei
einer zu geringen Menge an Schlüsselwörtern galt sie als irrelevant. Das Texten bestand aus der Kunst,
den Inhalt mit der richtigen Dosis Schlüsselwörtern auszubalancieren.
Als Google anfing, die Bedeutung von Wörtern und Phrasen herauszufinden, endeten die Zeiten, in denen
man mit geschickt gewählten Keywords ranken konnte. Seit Hummingbird tauchen sogar Webseiten in
den Suchergebnissen auf, die das Schlüsselwort überhaupt nicht mehr enthalten.
Heute haben optimierte Inhalte weniger mit der Anzahl von Keywords als mit dem Gesamtkonzept einer
Seite zu tun.
Denjenigen, die Internettexte in gutem, oder zumindest in grammatikalisch korrektem Deutsch schreiben
wollen, macht diese Entwicklung Hoffnung. Wenn Sie schon einmal vor der Aufgabe gestanden haben,
Wortgruppen wie “Container verschiffen Kosten” exakt in dieser Form und am besten gleich mehrmals in
einem seriösen Text unterzubringen, wissen Sie, was ich meine.
Kontext analysieren
Um die Relevanz der Webseite für ein Thema zu bestimmen, für welches die Webseite ranken soll, schaut
sich Google nun den Kontext einer Webseite an. Das bedeutet für Sie, dass es nicht ausreicht, wenn Ihre
Webseite nur das Haupt-Keyword enthält. Kurz, Sie sollten zusätzlich Schlüsselwörter einsetzen, die einen
hohen Bezug zu Ihrem Haupt-Keyword haben.
Ein Beispiel
Nehmen wir als Beispiel einen Weinbauern, der für einen Hobbywinzer-Kurs wirbt.
Das Fokus-Keyword sei „Winzerdiplom“. Sie suchen zunächst verwandte und synonyme Wörter und
kämen so auf „Winzerzertifikat“.
Nun zerlegen Sie Ihr Fokus-Keyword „Winzerdiplom“ in seine Bestandteile, also „Winzer“ und „Diplom“.
Finden Sie heraus, auf welche Arten Sie die beiden Begriffe noch beschreiben können. Sie kämen
beispielsweise auf Begriffe wie „lernen“, „Schüler“ und „Weinherstellung“.
Abbildung 7: Beispiel für Kontext-Keywordsuche [Quelle: Eigene Darstellung]
Diese Wörter unterstützen das Haupt-Keyword und das Thema der Seite. Indem Sie sie in Ihren Webtext
aufnehmen, verbessern Sie nicht nur die Relevanz Ihrer Webseite, sondern verhelfen Ihrem Content auch
zu Long-Tail-Keywords.
Unter Long-Tail-Keywords versteht man längere Keyword-Phrasen, die sehr zielgerichtet sind. In unserem
Fall passt zum Beispiel: „Wo kann ich lernen, wie man Wein herstellt?“
Integrieren Sie dann dieses Long-Tail-Schlüsselwort zusammen mit verwandten und synonymen
Keywords zu „Winzer“ und „Diplom“ in den Text.
Semantische Analyse
Eine Voraussetzung, um Suchanfragen präziser zu beantworten, ist, die tiefere Bedeutung einer Webseite
zu bestimmen. Zu diesem Zweck verbesserte Google die semantische Analyse und schuf damit einen
realistischeren Ansatz zur Inhaltsoptimierung.
Bei der semantischen Analyse geht es darum, inwieweit andere Begriffe auf der Webseite zum Umfeld des
Suchbegriffs passen. Google untersucht, wie zwei Wörter miteinander verwandt sind und welche
Beziehung zwischen ihnen besteht.
Eine Seite über Handball sollte zum Beispiel Begriffe wie „Freiwurf“, „Einlaufen“ und „Übertritt“
enthalten. Einzeln betrachtet, kann jedes dieser Wörter etwas ganz anderes bedeuten. Aber im
Zusammenhang gesehen bestätigen sie die Handball-Thematik der Webseite.
Wie lernt Google eigentlich semantische Zusammenhänge?
Zum Beispiel, indem Nutzer einzelne Begriffe in ihren Suchabfragen ändern. Wenn jemand zunächst nach
Hundefotos und dann nach Welpenfotos sucht, lernt Google, dass Hunde und Welpen etwas miteinander
zu tun haben. Genauso lernt Googles Synonym-System, dass kochendes Wasser gleichbedeutend mit
heißem Wasser ist. Als die semantische Analyse noch in den Kinderschuhen steckte, hätte Google
allerdings geschlussfolgert, „Hot Dog“ sei ein Synonym zu „gekochtem Welpen“.
Während Google die Milliarden von Dokumenten in seinem Index analysiert, erweitert die Suchmaschine
ihr Wissen um semantische Beziehungen. Das Wort „Hot Dog“ erscheint nun in Suchabfragen über Brot,
Senf oder Sportveranstaltungen. Rezepte zum Kochen Ihres Hundes liefert es jedoch nicht.
Google Search und die Marken
Abbildung 8: Corporate Identity [Quelle: all-free-download.com]
Bevorzugt Google große Marken? Was können Sie auf SEO-Ebene tun, um Marketing und Branding zu
unterstützen?
In diesem Abschnitt geht es vorrangig um die Beziehung zwischen Markenbekanntheit und
Suchergebnissen. Daneben schauen wir uns an, was Social Media- und Online Marketing mit SEO zu tun
haben.
Funktionen einer Marke
Unternehmen entwickeln Marken, um sich von der Konkurrenz abzuheben. Ein Markenname löst bei den
Kunden Assoziationen aus, da er an bestimmte Eigenschaften des Produkts geknüpft ist. Dadurch können
Kunden ihre Kaufentscheidungen schneller und einfacher treffen. Marken geben Konsumenten also eine
Orientierung.
Mit einem Markenartikel wird ihnen nicht nur ein Gebrauchsgegenstand, sondern vielmehr ein ideeller
Nutzen geboten: das Qualitätsversprechen des hinter der Marke stehenden Unternehmens.
Marken bei Google
Googles Algorithmus hebt die Bedeutung von Handelsmarken, das heißt, sie erhalten mehr Gewichtung
und werden prominenter präsentiert. Mit anderen Worten, je stärker Google eine Marke einschätzt, desto
eher landet sie auf den vorderen Plätzen der Ergebnisse.
Dem liegt der Gedanke zugrunde, dass die Nutzer mit ihren Suchergebnissen zufriedener sind, wenn in
den SERPs bekannte Marken angezeigt werden. Als Verbraucher seien sie mit diesen Marken vertraut und
daher bereits leicht voreingenommen. Google weist auch offen auf den Zusammenhang zwischen dem
Bekanntheitsgrad und der Platzierung in den Suchergebnissen hin:
Abbildung 9: Ranking lokaler Suchergebnisse auf Google [Quelle: https://support.google.com/business/answer/7091?hl=de ]
Viele SEO-Profis kritisieren jedoch, Google würde die großen Markenhersteller auf unfaire Weise in den
Suchergebnissen bevorzugen. Offensichtlich sind hier auch Wechselwirkungen im Spiel, da große Brands
natürlich mehr Links erhalten und öfter Gesprächsthema in sozialen Kanälen sind als kleine. Trotzdem
scheint Google die großen Anbieter gegenüber relativ unbekannten Seiten generell zu favorisieren, was
sich laut einigen Verlegern beispielsweise in den Google News niederschlägt.
Hier ein Auszug aus einer Diskussion:
Und hier eine von mehreren, ähnlich lautenden Antworten:
Abbildung 10: Aus einer Diskussion über die Google-News [Quelle: https://support.google.com/googlenews/forum/ ]
Branded Search
Wenn Sie ein Keyword mit einer konkreten Marke verbinden, wie „Philips Schallzahnbürste“, führen Sie
eine Branded Search durch. Im Gegensatz dazu besteht die Unbranded Search nur aus dem Keyword
„Schallzahnbürste“.
Bei einer Branded Search hat der Nutzer die Suche bereits präzisiert und die Kaufwahrscheinlichkeit ist
höher. Doch das ist nicht der einzige Vorteil, den Marken gegenüber No-Name-Produkten haben. Die
Marke profitiert vor allem davon, dass sie auch bei der Unbranded Search besser rankt. Das bedeutet, dass
die Marke Philips auch dann automatisch weiter oben angezeigt wird, wenn der Nutzer nur den
Suchbegriff „Schallzahnbürste“ eingibt.
Hier ein Beispiel:
Abbildung 11: Beispiel für Branded Search und Unbranded Search [Quelle: Screenshot]
Warum ist das so?
Im Fachjargon heißt das Entitätenverknüpfung. Der Google Algorithmus analysiert, ob sich die Anfrage
mit einer speziellen Person oder einer speziellen Sache verbinden lässt und erkennt, dass die Marke Philips
mit dem Suchbegriff „Schallzahnbürste“ verknüpft ist.
Markensignale
Eine Marke ist nicht nur für Ihre Marketingstrategie wichtig, sondern kann auch Ihre
Suchmaschinenoptimierung vorantreiben. Anders herum gefragt:
Was können Sie auf SEO-Ebene tun, um Marketing und Branding zu unterstützen?
Überlegen Sie einmal, anhand welcher Faktoren Google ermittelt, ob eine Webseite eine Marke ist – oder
aber ein potenziell nicht vertrauenswürdiger Online-Händler bzw. eine Spam-Website. Die Antwort ist,
dass mit Marken bestimmte Signale verbunden sind:
Zum Beispiel haben Marken mehr soziale Präsenz, und ihre soziale Präsenz ist sicherlich aktiver
als die einer Spamming-Seite, weil die Nutzer eher mit der Marke interagieren als mit der Spam-
Seite.
Marken führen eine „Über uns“-Seite mit Kontaktinformationen, welche eine Adresse,
Telefonnummer, E-Mail oder ein Kontaktformular beinhalten.
Marken haben normalerweise eine etablierte Geschichte, sowie die Absicht, noch eine Weile auf
dem Markt zu bleiben. Google kann diese Absicht durch Signale wie die Domain-Name
Registrierung und - Länge ermitteln.
Marken erhalten eher Suchvolumen für ihren Markennamen. Große Marken, großer Suchverkehr.
Über Marken wird im Internet auch häufiger gesprochen, sowohl auf Webseiten als auch in
sozialen Kanälen.
Außerdem spielt die Autorität der Webseite eine Rolle. Google kann in Betracht ziehen, ob die Webseite
andere Marketing-Taktiken abgesehen von SEO und Social Media einsetzt. Wenn ein Unternehmen
beispielsweise Dienste wie Google AdWords nutzt und Gebote für ihren Namen abgibt, signalisiert das
Google, dass es sich hier um eine Marke handelt. In der bezahlten Suche erzielen Marken-Keywords
bekanntermaßen bessere Konversionsraten, da der Suchende die Marke bewusst auswählt.
Kurz, die Frage ist, welche externen Qualitätssignale Ihrer Webseite helfen, legitimer und
vertrauenswürdiger für Benutzer und Suchmaschinen zu erscheinen. Social Media- und Online Marketing
sind in der Lage, solche starken Qualitätssignale zu setzen.
Generell gesagt: Konzentrieren Sie sich darauf, wo immer möglich, Ihre Webseite wertvoll und nützlich zu
gestalten.
Branding und SEO
Viele SEO-Manager und Marketer arbeiten unter der falschen Annahme, dass sich Branding und SEO
gegenseitig ausschließen. In Wirklichkeit sind das zwei sehr mächtige Marketing-Taktiken, die Hand in
Hand gehen. SEO-Maßnahmen können nämlich die Markenbekanntheit steigern, indem sie für eine
bessere Online-Sichtbarkeit der Marke sorgen.
Es ist wichtig sich klare Ziele zu setzen, wie Sie Ihren Wert für Kunden sowohl online als auch offline
steigern können. Aus Offline-Maßnahmen werden Online-Erwähnungen, wie Links und Ähnliches, mit
denen Sie Ihre Gesamtstrategie unterstützen.
Aus SEO-Sicht können Sie Ihrem Branding helfen, indem Sie großartige Inhalte entwickeln, eine
ansprechende soziale Präsenz aufbauen und Links von maßgebenden Webseiten erhalten. Dies wird
neben Ihrer Branded Search auch andere wichtige Markensignale fördern, um die Online-Positionierung
Ihrer Webseite zu verbessern.
-----
Nachdem Sie nun einen Einblick in SEO bekommen haben, geht es im nächsten Kapitel darum, welche
konkrete SEO-Maßnahmen Sie auf Ihrer Webseite anwenden können.
Kapitel 2
On-Page-Optimierung
Worum wird es gehen?
Zu den Basics der On-Page- oder auch On-Site-Optimierung gehört es, die Elemente der einzelnen
Unterseiten zu optimieren. Schwerpunkte sind
Content
Keywords
Metadaten
Wir schauen uns an, woraus sich das Google Snippet zusammensetzt und klären, worauf es bei den
einzelnen Teilen ankommt. Das Google Snippet ist sozusagen Ihre Visitenkarte im Web, es ist das Erste,
was Besucher von Ihrer Internetpräsenz sehen. Deswegen kommt es darauf an, die Worte geschickt zu
wählen. Zum einen sollen die potenziellen Besucher auf einen Blick erfassen können, was Ihre Webseite
bietet. Zum anderen sollen Sie sie motivieren, auf Ihre URL zu klicken - und nicht auf die Ihres
Konkurrenten.
Ziel der OnPage-Optimierung ist es natürlich nicht nur, ein schönes Google Snippet zu bekommen,
sondern, die Sichtbarkeit der Webseite als Ganzes zu verbessern. Die Optimierung der wichtigsten
Metadaten gehört aber zu den ersten Dingen, auf die Sie bei Ihrer Webseite achten sollten, und die Sie
auch selbst vornehmen können.
Ein Teilbereich der OnPage-Optimierung ist das Technische SEO. Hierzu gibt es ein gesondertes Kapitel.
Dort finden Sie dann beispielsweise Artikel zur Link-Struktur oder zur Funktion der robots.txt Datei.
OnPage Optimierung fängt beim Google Snippet an
Zunächst schauen wir uns kurz die Teilbereiche der Suchmaschinen-Optimierung an, um eine bessere
Übersicht über das Gebiet zu bekommen. Außerdem gibt es eine Aufwärmübung: Wir analysieren die
Struktur eines Suchergebnisses, das Google-Snippet.
Hauptbereiche von SEO
Im Grunde genommen lässt sich die Suchmaschinenoptimierung in zwei zentrale Gebiete einteilen:
Die On-Page-Optimierung und die Off-Page-Optimierung.
Die On-Page Optimierung (auch On-Site Optimierung) ist das Fundament, ohne welches Sie kaum eine
Chance haben, sich an die Spitze der Suchergebnisse zu schlagen, selbst mit einer fantastischen
Öffentlichkeitsarbeit und einer tollen Link-Struktur. On-Page SEO zielt darauf ab, die Elemente der
einzelnen Unterseiten zu optimieren, um die Sichtbarkeit der Webseite als Ganzes zu verbessern.
Schwerpunkte sind der Inhalt („Content“), die Keywords sowie die Metadaten.
Technische SEO ist ein Teilbereich der On-Page-Optimierung. Sie hat die technischen Aspekte zum
Inhalt, beispielsweise den Quellcode, die Ladegeschwindigkeit oder die Link-Struktur der Webseite.
Damit geht die technische Suchmaschinenoptimierung über die beiden großen Themen „Keywords“ und
„Content“ hinaus.
Bei der technischen SEO dreht sich alles darum, wie gut die Webseite von Suchmaschinen gesehen und
ausgewertet werden kann. Technische SEO ist wichtig, denn selbst wenn Sie die besten On-Page-
Verbesserungen auf Ihrer Website vornehmen, bringt es Ihnen nichts, wenn Suchmaschinen die
Verbesserungen nicht verstehen können.
Bei Off-Page-SEO oder Off-Site-SEO geht es darum, welche Maßnahmen Sie außerhalb Ihrer Webseite
ergreifen können, um die Optimierung Ihrer Webseite zu verbessern. Diese Disziplin überschneidet sich
mit der Öffentlichkeitsarbeit, weil sie auch das Knüpfen von Kontakten zu anderen Webmastern
beinhaltet. Ursprünglich bezog sich Off-Site-SEO auf den Erwerb von Links zu Ihrer Webseite, aber dieser
Bereich hat sich inzwischen auf weitere Offsite-Elemente wie die sozialen Medien ausgedehnt.
Metadaten und Meta Tags
Um in die Praxis der Webseiten-Optimierung einzusteigen, nehmen wir zuerst ein Snippet, also ein
Suchergebnis der Google Suchmaschine, und zerlegen es in seine Bestandteile.
Abbildung 12: Das Google-Snippet. Ergebnis einer Suchanfrage bei Google. [Quelle: Screenshot]
In diesem einen Suchergebnis stecken bereits drei Schwerpunkte, auf die sich die On-Page-Optimierung
konzentriert. Zusammen gehören sie zu den Metadaten einer Webseite. Metadaten enthalten
Informationen über andere Daten. Sie beschreiben eine Quelle, damit diese einfacher zu finden ist.
Jede Webseite enthält einen Bereich mit Metadaten, bestehend aus einzelnen Meta-Elementen. Meta-
Elemente sind kleine Textschnipsel, welche den Suchmaschinen wichtige Informationen über die Seite
liefern, zum Beispiel, um welches Thema es auf der Webseite überhaupt geht. Die Liste der möglichen
Metadaten ist lang. Das Google-Snippet spielt normalerweise die Metadaten Title und Meta-Description
aus. Wenn Sie diese nicht definiert haben, ermittelt die Suchmaschine die Daten selbst, was in der Regel
nicht zu optimalen Ergebnissen führt.
Und wann sprechen wir von Meta-Tags?
Häufig wird der Begriff Meta-Tag als Synonym für Meta-Element verwendet. Jedoch ist das nicht korrekt.
Ein Element setzt sich aus Tags und dem Elementinhalt zusammen. Es sind die Elemente, welche
Webseiten strukturieren. Die Tags markieren „nur“ deren Anfang und Ende.
Wie wichtig sind die Metadaten?
Die Metadaten sind Bestandteil des Quellcodes einer Webseite. Allerdings bleiben diese Daten für den
Besucher verborgen, solange er sich nicht ausdrücklich den Quellcode der Seite anzeigen lässt.
Da der Bereich der Metadaten („Meta-Tags“) in der Vergangenheit für fragwürdige SEO-Methoden
missbraucht wurde, ignoriert Google die Metadaten inzwischen als direkten Rankingfaktor. Trotzdem
spielen Metadaten eine große Rolle. Seitentitel und Meta Description sind nämlich das erste, was ein
Nutzer der Google-Suche von Ihrer Webseite sieht. Mit einer geschickten Formulierung und passend
platzierten Keywords können Sie die Aufmerksamkeit auf Ihr Snippet ziehen und die Klickrate zu Ihrer
Webseite damit entscheidend beeinflussen.
Die Metadaten des Snippets aufgeschlüsselt
Kehren wir zu unserem Beispiel zurück, um die einzelnen Bestandteile des Snippets anzuschauen:
Abbildung 13: Das Suchergebnis und seine 3 Bestandteile [Quelle: Screenshot]
Das Suchergebnis stammt aus einer Suche nach kostenlosen SEO Tutorials. Um dieses Ergebnis angezeigt
zu bekommen, hatte ich „SEO Tutorial Online“ in die Google Suchmaske eingegeben.
Die erste Zeile, in blauer Farbe, ist der Seitentitel bzw. das Title-Tag. Der Internetnutzer bekommt hier
einen ersten Begriff davon, worum es auf der Webseite geht. Das Title-Tag zeigt den Namen, den der
Webmaster für die Webseite festlegte. Die zweite Zeile, in Grün, ist die Adresse bzw. URL der Webseite.
Diesen Teil des Snippets können Sie nicht wirklich beeinflussen, da die Suchmaschinen die URL der
Webseite standardmäßig verwenden.
Der Text darunter ist die Meta-Description, ein kurzer Beschreibungstext über den Inhalt der Seite.
Beachten Sie die fett angezeigten Wörter. Das sind die Begriffe, die bei der Suchanfrage eingegeben
wurden: die Keywords.
Abbildung 14: Die Keywords aus der Suche werden fett gedruckt [Quelle: Screenshot]
Wie Sie sehen, brauchen die Keywords nicht als Wortgruppe erscheinen, um markiert zu werden. Wie Sie
sehen, ist in diesem Fall auch das Wort „learn“ hervorgehoben, obwohl ich nicht explizit danach gesucht
hatte. Da sich Google den Kontext einer Webseite anschaut, werden nicht nur die Haupt-Keywords,
sondern auch wichtige themenrelevante Begriffe erkannt.
Nun ein zweites Beispiel mit der Suchanfrage „SEO course online“.
Abbildung 15: Synonyme der Keywords werden ebenfalls hervorgehoben [Quelle: Screenshot]
Hier ist das Wort „courses“ fett gedruckt, weil Google die Pluralversion von "course" erkennt und
berücksichtigt. Beachten Sie, dass in diesem Fall auch das Wort „classes“ hervorgehoben ist. Das liegt an
Googles Fähigkeit zur semantischen Analyse. Google erkennt, dass die Begriffe „course“ und „classes“
semantisch verwandt sind.
Wie geht es weiter?
Nun haben wir einen Blick darauf geworfen, woraus sich ein Snippet in den SERPs zusammensetzt. Für die
On-page Optimierung werden wir die einzelnen Elemente genauer betrachten müssen. Mehr dazu im
nachfolgenden Abschnitt.
Zuoberst steht das Title Tag
Im letzten Abschnitt ging es um Meta-Angaben im Allgemeinen. Nun nehmen wir uns ein Tag vor – das
Title Tag – und schauen es uns näher an. Wir klären, wo Sie das Title Tag (bzw. den Seitentitel) im
Quellcode einer Webseite finden – und wie Sie es optimieren.
Das Title Tag ist eine Hauptkomponente der On-Page-Optimierung. Jede Ihrer Unterseiten sollte ein Titel
Tag enthalten, welches nach „Google Best Practices“ optimiert wurde.
Wo finde ich das Title Tag ?
Im letzten Abschnitt schauten wir uns ein Google-Snippet an und stellten fest, dass das Title Tag dort der
blau hervorgehobenen Zeile entspricht.
Sie haben jedoch noch mehr Möglichkeiten, Ihr Title Tag aufzuspüren. So finden Sie es:
Im Reiter Ihres Browsers
Zuerst einmal erscheint das Title Tag in Ihrer Browser-Registerkarte, dem Reiter. Wenn es nicht
vollständig abgebildet wird, dann ziehen Sie den Cursor auf die Titelleiste des Tabs. So erhalten Sie ein
Pop-up mit der Information.
Im Quellcode
Klicken Sie hierfür mit der rechten Maustaste auf eine beliebige Stelle auf der Webseite. Es öffnet
sich ein Menü, in welchem Sie die Option „Seitenquelltext einblenden“ auswählen. Der Quellcode der
Webseite erscheint. Suchen Sie die Zeile, die mit <title> beginnt und mit </title> endet. Der Inhalt
zwischen diesen beiden HTML-Tags entspricht dem Seitentitel.
Abbildung 16: Das Title Tag im Quellcode [Quelle: Screenshot]
Eine andere Möglichkeit sind Browser-Add-ons.
Ein Beispiel ist die kostenlose Erweiterung SEOquake. Wenn Sie auf „Page Info“ klicken,
bekommen Sie unter anderem das Title-Tag angezeigt. Den Menüpunkt „Page Info“ finden Sie auf der
folgenden Abbildung in der oberen linken Ecke.
Abbildung 17: Benutzeroberfläche des Add-ons SEOquake [Quelle: Screenshot]
Abbildung 18: Menüpunkt Page Infos [Quelle: Screenshot]
Bedeutung des Seitentitels
Der Seitentitel wurde lange als eines der wichtigsten On-Page-Elemente angesehen. Obwohl dem
Seitentitel (bzw. Title-Tag) eine große Bedeutung zukommt, sind es jedoch letzten Endes andere
Faktoren, die über das Ranking in den SERPs entscheiden. So steht der Inhalt der Webseite an erster
Stelle.
Trotzdem sollten Sie das Title Tag auf jeden Fall optimieren. Der Grund ist, dass der Seitentitel Ihre
Visitenkarte in den SERPs ist. Mit einem geschickt formulierten Titel lenken Sie nicht nur die
Aufmerksamkeit der Suchmaschinen auf Ihre Webseite, sondern insbesondere auch die der Nutzer.
Das Title Tag ist was anderes als das Heading Tag
Das Title Tag wird gerne mit dem Heading Tag verwechselt. Das Heading Tag (korrekterweise das
Heading Element) steht für die Hauptüberschrift und die Zwischen-Überschriften eines Textes. Es
erscheint normalerweise nicht in den SERPs. Der Seitentitel hingegen ist der klickbare Hyperlink in den
Suchergebnis-Listen. Auf der Webseite ist er nur oben in der Titelleiste des Webbrowsers zu sehen.
Title Tag optimieren
Um Duplikate Content zu vermeiden, muss jede URL einen einzigartigen Titel besitzen. Idealerweise
beschreibt das Title Tag zum einen Ihre Seite, zum anderen enthält es Keywords, die in der Suchmaschine
abgefragt werden. Dabei wird empfohlen, das Haupt-Keyword und die Beschreibung an den Anfang des
Seitentitels zu stellen, Markennamen hingegen am Ende zu platzieren. Das dient sowohl der
Benutzererfahrung als auch der SEO.
Vom SEO-Standpunkt aus priorisiert Google die Wörter, die zu Beginn des Title-Tags stehen. Laut dem
SEO Consulting Unternehmen MOZ hätten Tests gezeigt, dass sich Keywords, welche an Anfang des
Title-Tags platziert werden, positiv auf das Ranking auswirkten.
Vom Standpunkt der Benutzererfahrung aus ist die Seitenbeschreibung das Erste, was ein Benutzer liest
und zu einer besseren Click-Through-Rate (CTR) führen kann.
Branding
In einigen Fällen empfiehlt es sich, den Markennamen an den Anfang zu setzen. Das gilt, wenn das
Unternehmen seinen Markennamen als Hebel nutzen will. Mit einer bekannten Marke erzielt man häufig
eine bessere CTR, als mit der Seitenbeschreibung. Bei kleineren, unbekannteren „Brands“ ist es jedoch die
beste Lösung, den Namen am Ende des Seitentitels zu lassen.
Wenn Ihr Markenname sehr lang ist, sollten Sie erwägen, ihn abzukürzen. Solch eine Kürzung fällt
normalerweise unter die Branding-Richtlinien des Unternehmens, mit welchen ein konsistenteres
Markenerlebnis erzielt werden soll. Um die Kundenkommunikation einheitlich zu gestalten, werden die
meisten Unternehmen ihren vollen Markennamen bevorzugen. Wenn Sie an der Optimierung einer
Unternehmens-Webseite arbeiten, sollten Sie nicht vergessen, in Ihrem Team die Vor- und Nachteile einer
Abkürzung zu diskutieren.
Keywords im Title Tag
In unserem Beispiel von SEOlogen lautet die Seitenbeschreibung „So erstellst du das optimale Title Tag“.
Anstelle eines ganzen Satzes können Sie aber auch einen Seitentitel aus einzelnen Keywords erstellen.
Zum Beispiel besitzen Sie die Website Garten-Markt und wollen die Unterseite optimieren, auf der Sie
Obstbäume verkaufen. Wenn Sie für das Title Tag einzelne Keywords verwenden wollen, trennen Sie
diese optisch voneinander. Das würde dann so aussehen:
Obstbäume im Angebot - Obstbäume kaufen | Garten-Markt.
Den Markennamen setzen Sie idealerweise hinter einen senkrechten Strich („pipe“).
Halten Sie den Titel kurz und knapp und stellen Sie sicher, dass Sie nur die wichtigsten Keywords Ihrer
Seite verwenden. Es wird empfohlen, nicht mehr als zwei Schlüsselbegriffe im Seitentitel zu verwenden.
Sie vermeiden dadurch nicht nur überlange Titel, sondern können mit einem engeren Keyword-Fokus
zudem die Relevanz des Schlüsselwortes steigern.
Die optimale Länge
Achten Sie darauf, dass Ihr Titel-Tag höchstens 60 Zeichen enthält. Um auf der sicheren Seite zu sein,
empfiehlt sich ein Tag aus maximal 55 Zeichen (ohne Leerzeichen).
Suchmaschinen lesen zwar Tags, die länger als 60 Zeichen sind, schneiden aber die überzähligen Zeichen
in den Suchergebnissen mit (…) ab. Das führt zu einer schlechteren Benutzererfahrung.
In diesem Negativbeispiel sehen Sie, dass der Webmaster die Modellnummer des Schuhs für das Title-Tag
verwendet hat.
Abbildung 19: Negativbeispiel eines Title Tags [Quelle: Screenshot]
Der Name wird nicht nur viel zu lang, sondern wirkt darüber hinaus unnatürlich. Der Titel wird
abgeschnitten und endet in ( ... ). - Solch ein unansehnliches Suchergebnis kann sich negativ auf die
Klickrate der Webseite auswirken.
Zusammenfassung
Zum Abschluss eine Kurzübersicht über die Best Practices für Title-Tags:
Nicht länger als 55 Zeichen
Schlüsselwort an den Anfang des Tags
Wenn mehrere Schlüsselworte, dann mit Bindestrich trennen
Marken- oder Firmennamen an das Ende setzen
Sonderzeichen vermeiden, da manche Browser oder Suchmaschinen die Sonderzeichen nicht
korrekt anzeigen
Das Kleingedruckte in Ihrer Visitenkarte: Die Meta Description
Abbildung 20: Eigene Bearbeitung, [Originalquelle: all-free-download.com ]
Lassen Sie uns nun eine andere Meta-Angabe näher ansehen, die Meta Description, bzw. die Webseiten-
Beschreibung. Da die Meta Description nicht zum Ranking einer Webseite beiträgt, wird sie manchmal bei
der Suchmaschinen-optimierung übersehen. Jedoch hat sie großen Einfluss auf die Klickrate, weswegen
es ein grober Fehler wäre, die Meta Description unbeachtet zu lassen.
Wo finde ich die Meta Description?
Die Meta Description ist der Textblock unter dem Titel und der URL der Website und beschreibt, worum
es auf der Seite geht.
Auf der Webseite ist sie nicht so ohne weiteres sichtbar. Um die Seitenbeschreibung außerhalb der
Suchergebnisse zu finden, müssen Sie zum Quellcode der Seite gehen oder ein Browser Add-on wie
MozBar oder SEOquake benutzen.
Die Meta Description im Quellcode
Den Quellcode einer Webseite erreichen Sie, wenn Sie mit der rechten Maustaste in die Seite klicken. Es
öffnet sich eine Registerkarte mit der Option „Seitenquelltext einblenden“. Im Quelltext steht die Meta-
Beschreibung hinter <meta name ="description" content ="…" />
Das sieht dann so aus:
Abbildung 21: Meta Description im Quellcode [Quelle: www.heise-regioconcept.de ]
Manche Webseiten enthalten keine Seitenbeschreibung. Entweder existiert das Meta Description
Element, hat jedoch keinen Inhalt, oder das Meta Description Element fehlt komplett.
In einigen Fällen ersetzt Google die Meta-Description der Webseite mit einem eigenen Snippet. Das
geschieht, wenn Google die vorhandene Beschreibung als zu schlecht optimiert, als irrelevant oder zu lang
ansieht. Leider gibt es keine Garantie, dass Google Ihre Meta Description verwendet. Lassen Sie sich die
Chance, eine optimale Seitenbeschreibung bereitzustellen, jedoch nicht entgehen.
Warum sollte ich die Meta Description optimieren?
Suchmaschinen beziehen die Seitenbeschreibung nicht in das Ranking ein - jedoch wird sie von den
Nutzern der Google Suche gesehen. Sie ist der erste Eindruck der Webseite, Ihre Visitenkarte.
Eine gut geschriebene Seitenbeschreibung erhöht also die Wahrscheinlichkeit, dass ein Nutzer auf Ihre
Webseite anstatt auf die eines Konkurrenten klickt.
Wie sieht die optimale Meta-Description aus?
Um eine optimale Meta Description zu erstellen, müssen Sie auf drei Dinge achten: Die
Seitenbeschreibung sollte passende Suchbegriffe enthalten, die richtige Länge haben und einen
Handlungsaufruf beinhalten.
Suchbegriffe
Keywords, die zu einer Suchanfrage passen, erscheinen in der Meta Description fett gedruckt. Dadurch
lenken sie die Aufmerksamkeit des Nutzers zu diesem Suchergebnis und zeigen ihm, dass die Seite genau
das enthält, wonach er sucht.
Natürlich ist es wichtig, dass die Meta Description Keywords enthält. Vor allem aber sollte sie jedoch den
Benutzer zum Klicken verleiten.
Hierfür ist es wichtig, dass das Snippet den Inhalt der Seite so exakt wie möglich zusammenfasst.
Bestände es zum Beispiel nur aus aneinandergereihten Keywords, würden diese in der Mehrzahl sowieso
nicht fett gedruckt hervorgehoben, weil Suchanfragen normalerweise nur wenige Begriffe enthalten.
Außerdem sähe solch ein Snippet aus wie Spam. Vor allem aber wäre es für die Benutzer sinnlos, da sie
nicht erfahren, worum es auf der Webseite geht.
Länge
Überlange Meta-Beschreibungen werden mit (…) abgeschnitten und führen dadurch zu einer schlechten
Benutzererfahrung. Ist sie zu kurz, wirkt sich das negativ auf die Klickrate aus.
Bis Dezember 2017 galt noch die Empfehlung, Meta-Descriptions nicht länger als 160 Zeichen zu
schreiben. Dann ließ Google zwischenzeitlich die doppelte Länge zu. Auf Desktops wurden ca. 320
Zeichen dargestellt (inklusive Leerzeichen und Sonderzeichen), auf Smartphones um die 230. Kurze Zeit
später machte Google die Änderung wieder rückgängig. Die Länge des Snippets variiert nun je nach
Situation. Allerdings fahren Sie mit maximal 160 Zeichen gut.
Wenn Suchmaschinen eine eigene Beschreibung erstellen, verwenden sie dafür einen Textblock der
Webseite, der die Suchbegriffe enthält. Möglicherweise stellt der ausgewählte Text die Seite nicht
optimal dar.
Suchmaschinen werden den gesamten Block heranziehen. Da die überzähligen Zeichen abgeschnitten
werden, sieht das Ergebnis nicht ansprechend aus.
Es ist also wichtig, diesen Bereich selbst unter Kontrolle zu haben. Eine Ausnahme wären Webseiten, die
gleich für mehrere Keywords ranken wollen, oder Seiten, deren Thema sehr breitgefächert ist. Hier kann
man es Google überlassen, die Snippet zu erstellen, da die passenden Schlüsselwörter ausgewählt und
fett gedruckt werden.
Bei statischen Webseiten ist es jedoch nicht schwer zu erraten, wonach die Benutzer suchen werden. Da
der Webmaster besser über seine Webseite Bescheid weiß als Suchmaschinen, sollte er eine eigene
Metadescription schreiben, anstatt Suchmaschinen entscheiden zu lassen.
Handlungsaufruf
Weiterhin empfiehlt es sich, einen „Call-to-action“ einzufügen. Das erhöht nachweislich die Klickrate.
Animieren Sie den Benutzer, indem Sie ihm sagen, was er als nächstes tun soll („entdecken Sie mehr in
unserem Artikel“, „laden Sie hier unsere Info-Broschüre herunter“, „schauen Sie sich unser Video an“).
Oftmals wird er das dann auch wirklich tun.
Ein anderer Grund ist, dass die Seitenbeschreibung nicht nur in den Suchergebnissen erscheint, sondern
auch von externen Webseiten wie den sozialen Netzwerken benutzt wird. Wenn der Seitenlink auf
Facebook geteilt wird, erscheint dort zur näheren Erläuterung auch der Text aus der Meta Description.
Fazit
Die Meta Description ist das Erste, was der User von Ihrer Webseite sieht. Wenn sich hier nicht die
wichtigste und einprägsamste Information über die Seite findet, werden Sie es sehr schwer haben,
Besucher zu bekommen. Eine "optimale Zeichenanzahl" existiert nicht, weswegen Sie Ihren Fokus auf den
Kundennutzen und die Klickrate legen sollten.
Meta Keywords. Brauche ich die?
Nachdem es im letzten Abschnitt um die Meta Description ging, sollten wir noch kurz einige Worte über
ein anderes Meta Element verlieren: das Keywords-Meta-Tag.
Die beiden wichtigsten Informationen gleich vorweg: Zum einen ist die Bezeichnung „Tag“ nicht korrekt.
Es handelt sich nämlich um ein Meta-Element. Zum anderen ignoriert Google das Keywords-Meta-
Element, weswegen Sie es (mitsamt diesem Abschnitt) eigentlich auch ignorieren können.
Außerhalb von Google findet es aber noch Verwendung. Wenn Sie also etwas über das Meta Element
wissen wollen, dann lesen Sie weiter.
Wieso gibt es das Meta Keywords Tag?
Zunächst werfen wir einen kurzen Blick zurück in die Geschichte, um das Konzept und den ursprünglichen
Zweck des Tags zu verstehen. Zum einen nutzt das Webmastern, die Meta-Keywords hinterlegen wollen,
zum anderen gibt es immer noch einige Suchmaschinen, die Meta Keywords berücksichtigen, um die
Inhalte einer Webseite den Suchanfragen zuzuordnen. Hierzu gehört zum Beispiel Baidu in China oder
Yandex in Russland.
Ende der 1990er Jahre war das Tag von Bedeutung, weil Suchmaschinen die Inhalte einer Website nicht in
dem Maße analysieren konnten, wie sie es heute tun. Sie verstanden nur unzureichend, worum es auf
einer Website ging. Ihre Vorgehensweise bestand darin, die Webseite auf Schlagworte zu durchsuchen
und anhand der gefundenen Keywords und ihrer Häufigkeit auf die Relevanz der Webseite zu schließen.
Das führte zur Geburt des Meta-Keywords Tags: Dieser Textschnipsel versorgt Suchmaschinen mit
Informationen darüber, unter welchen Suchbegriffen die Seite gefunden werden sollte. Meta Keywords
waren früher also ein wichtiger Bestandteil von SEO.
Erwartungsgemäß wurden der Bereich im Laufe der Zeit für zweifelhafte SEO-Taktiken missbraucht.
Webmaster stopften den Bereich mit Schlüsselwörtern voll, weil das meistens mit einem guten Ranking in
den Suchergebnissen gleichzusetzen war. Doch die Benutzererfahrung litt darunter; und als sich die
Suchmaschinenalgorithmen verbesserten, kam damit auch das Ende des Meta-Keywords-Tags. Google
liest dieses Meta-Element heute nicht einmal mehr aus.
Wie sieht das Tag aus?
Der Programmierbefehl in HTML lautet:
<Meta Name=" keywords " content= " keyword 1, keyword 2, keyword 3"/>
Hier ein Quellcode-Beispiel:
Abbildung 22: Meta Keywords im Quellcode [Quelle: http://www.site-check.cc/themen/meta-keywords.php ]
Im Gegensatz zur Meta-Beschreibung können User das Keyword-Tag nicht sehen, ohne einen Blick in den
Quellcode der Seite zu werfen. So hat das Tag keine Auswirkung auf die Klickrate und wird am besten in
Ruhe gelassen. Jedoch können Konkurrenten herausfinden, für welche Keywords die Webseite optimiert
ist. Wenn das unerwünscht ist, dann ignorieren Sie das Keywords-Meta-Tag einfach.
Brauche ich Meta Keywords?
Gelegentlich hört man das Argument, dass einige Suchmaschinen dieses Tag weiterhin verwenden. Doch
das ist sehr selten der Fall. Chinas Suchmaschine Baidu arbeitet tatsächlich noch damit, jedoch muss die
eingegebene Information auf Chinesisch sein. Sofern Sie also nicht internationales SEO auf ausländischen
Suchmaschinen betreiben wollen, dürfen Sie das Meta-Keywords-Tag ignorieren.
Hinzu kommt, dass Ihre Webseite bei einer falschen Verwendung des Keywords-Tags schnell als Spam
eingestuft und abgestraft werden kann.
Wenn Sie das Tag verwenden wollen, dann achten Sie darauf, es nicht mit Begriffen vollzustopfen.
Empfehlenswert sind hierbei ein bis drei Haupt-Keywords pro Webseite. Außerdem dürfen Sie keine
Begriffe unterbringen, die nichts mit dem Inhalt der Webseite zu tun haben.
-----
Der nächste Abschnitt beschäftigt sich wieder mit etwas von Belang: der URL Optimierung.
URL optimieren. Wie und Wann.
In diesem Abschnitt geht es darum, wie Sie eine URL einschließlich der Keywords, Unterverzeichnisse und
Parameter optimieren, und zwar so, dass es den SEO „Best Practices“ entspricht. Außerdem klären wir,
wie man URLs umbenennen kann – und wann es besser ist, sie in Ruhe zu lassen.
Was ist eine URL?
Sehen wir uns zunächst an, wofür der Begriff URL steht. URL, kurz für „Uniform Ressource Locator“, ist im
Grunde eine Adresse, die eine bestimmte Webseite oder ein bestimmtes Dokument lädt. Der Ressource
Locator zeigt also auf eine Ressource.
Wenn Sie eine URL optimieren wollen, interessieren aus SEO-Sicht vor allem URLs der Form
Protokoll://Subdomain.Domain.Top-Level-Domain/Pfad/
Beispielsweise
https://www.Domainname.de/Blog/
Keywords in der URL
Wie alle wichtigen Meta-Elemente sollte auch die URL
• relevant sein
• wichtige Keywords enthalten
• und gleichzeitig kurz bleiben
Den Keywords der URL wurde früher eine große Bedeutung beigemessen. Aber dann wurde ihr Einsatz
beim URL Optimieren übertrieben, sodass Google ihren Einfluss für das Pageranking änderte. Heute sind
Keywords innerhalb der URL immer noch nützlich, aber sie spielen nicht mehr so eine große Rolle wie
früher.
Aufgrund von Zeichenbegrenzungen wird die URL ab einer bestimmten Länge abgeschnitten. Es ist also
eine gute Idee, wichtige Keywords so nahe wie möglich an den Anfang der URL zu platzieren.
Sprechende URL optimieren
Wenn wir uns das Ganze für die URL
https://www.keywordmonitor.de/seo-ratgeber/domains-url/seo-freundliche-urls/
anschauen, fallen Schlagwörter wie „SEO“, „Ratgeber“ und „URL“ ins Auge.
Das ist eine sogenannte “sprechende URL”, da der Nutzer sofort erkennt, worum es auf der Webseite
geht. Nämlich ein Ratgeber für diejenigen, die ihre URL optimieren wollen. Im Gegensatz dazu kann man
bei einer URL wie https://arstechnica.com/?p=1177597 nicht sehen, welches Thema sich hinter dem Link
verbirgt.
Sprechende URLs zu optimieren ist auch aus der Sicht der Off-Page-Optimierung wichtig. Wenn jemand
Ihre Webseite über deren URL verlinken will, also die vollständige Webadresse in einen Fließtext einfügt,
dient die URL in diesem Fall als Ankertext. Mit geschickt gewählten Keywords innerhalb der URL tragen
Sie in diesem Fall dazu bei, die Relevanz Ihrer Webseite zu unterstreichen.
Bei der URL
www.keywordmonitor.de/seo-ratgeber/domains-url/seo-freundliche-urls/
fallen weiterhin die Schrägstriche auf, zum Beispiel hinter „seo-ratgeber“ und „domains-url“. Diese
Schrägstriche kennzeichnen Unterordner, auch Unterverzeichnisse genannt, welche die Dokumente auf
der Webseite sortieren. Wenn Suchmaschinen die URL anzeigen, kürzen sie in der Regel die mittleren
Unterordner mit > … > aus, um die URL lesefreundlicher zu gestalten.
Sie können das hier sehen: Aus der URL
https://support.google.com/webmasters/answer/76329?hl=de&ref_topic=4617741
wird im Snippet:
Wenn die Unterverzeichnisse jedoch wichtige Suchbegriffe enthalten, werden sie im Snippet nicht
komplett herausgekürzt. Das Suchergebnis zeigt dann einen relevanten Teil des Subfolders, um auf das
Suchergebnis aufmerksam zu machen.
Als Beispiel eine Suche zum Thema Weinherstellung:
https://www.danmurphys.com.au/liquor-library/wine/more-about-wine/how-to-make-wine
Hier wird das gesamte Unterverzeichnis „wine“ sowie das letzte Wort des Subfolders „more about wine“
angezeigt: /wine/…wine/
Danach folgt der komplette letzte Teil der URL, der hier aber wegen der Überlänge leicht abgeschnitten
wurde.
Das Problem mit den Parametern
Auf der Webseite des australischen Weinhändlers findet sich auch ein schönes Beispiel für Parameter.
Damit ist die lange Kombination aus Buchstaben und Zahlen am Ende der Adresse gemeint:
https://www.danmurphys.com.au/liquor-library/wine/more-about-wine/how-to-make-
wine.jsp;jsessionid=0CBC7470C6E92165C4F84D60AB8E7BD6.ncdlmorasp1305?bmUID=m99JMpK
Bei diesem Parameter handelt es sich um eine Session ID, die sich bei jedem Benutzer ändert. Wenn Sie
ebenfalls bei Google über Weinherstellung recherchieren und diese Webseite finden, würde sich Ihre URL
von dieser hier leicht unterscheiden. Die URL hat sich zwar geändert, jedoch ist der Inhalt gleich
geblieben. Weil das Probleme mit Duplikaten verursachen könnte, lassen Sie solche Parameter besser
weg. Wie das geht? Das erklärt beispielsweise ein Artikel des SEO-Magazins Suchradar.
Durch Parameter wird die URL nicht nur übermäßig lang und sieht unschön aus, sondern Parameter
haben die Eigenschaft sich zu ändern. Beides kann Probleme aufwerfen. Das Geschickteste wäre also,
bereits während des Entwurfs Ihrer Webseite darüber nachzudenken, wie Sie Ihre URL optimieren.
URLs ändern – eine gute Idee?
Theoretisch lassen sich die URLs im Nachhinein immer noch ändern.
Jedoch ist das keine gute Idee, wenn die Webseite bereits in den Ergebnissen der Suchmaschinen gelistet
ist und eventuell auch schon andere Webseiten auf sie verlinken (Branchenverzeichnisse, Presseportale,
Foren, usw.).
Eine Änderung würde zunächst einmal zu schlechteren Ergebnissen in den SERPs führen, weil die
Webseite ein Stück ihrer Geschichte und Autorität einbüßt. Wenn Sie nichts unternehmen, landen
Webcrawler und Ihre potenziellen Besucher auf einer 404-Error-Seite und lesen dann „Seite nicht
gefunden“ oder „Server nicht gefunden“.
Das Ergebnis? Sie verlieren einen potentiellen Kunden.
Was tun?
Wenn Sie die URL ändern, sollten Ihre Besucher nicht auf einer Fehlerseite landen, sondern mit einer 301,
also einer permanenten Redirect umgeleitet werden.
Sobald das geschehen ist, dauert es aber noch einige Zeit, bis Google die alte URL aus dem Index entfernt
und durch die neue ersetzt hat.
Die Entscheidung, eine Internetadresse zu ändern, ist deswegen situationsabhängig. Oftmals belässt man
die URL und konzentriert sich lieber darauf, andere Bestandteile der Seite zu optimieren. Bestehende
Web-Adressen zu ändern, ob bei einem Re-Design oder zu SEO-Zwecken, ist umständlich und sollte
vorher gründlich bedacht werden.
Wenn Sie allerdings eine neue Webseite erstellen, dann folgen Sie den Best Practices, die wir in diesem
Artikel besprochen haben. So erstellen Sie von vornherein eine optimale Web-Adresse.
URL optimieren – Zusammenfassung
Folgende Punkte gehören zu den Best Practices für Web-Adressen:
• URLs nicht planlos ändern
• Wenn Sie eine URL ändern müssen, leiten Sie diese immer auf eine neue Seite um, indem
Sie eine permanente 301-Weiterleitung verwenden.
• URL von Anfang an optimieren
• Keywords einfügen
• Keywords auch in Unterverzeichnissen benutzen
• URLs kurz und prägnant halten
Heading Tags entscheiden darüber, ob Ihr Besucher weiterliest
Überschriften gehören zu den auffälligsten Bestandteilen eines Textes. Sie sollen auf einen Blick über den
Inhalt des Textes informieren und vor allem Lust auf mehr machen. Schafft die Überschrift das nicht,
misslingt sie – und der Leser kehrt dem Text einfach den Rücken.
Das gilt für Printmedien und das gilt für Webseiten. Jedoch spielen die Überschriften bei Letzteren
zusätzlich eine Rolle für die SEO.
Deswegen geht es im Folgenden um verschiedene Typen von Heading-Tags und ihre Bedeutung.
Was sind Heading Tags und wie wichtig sind sie?
Ein Heading Element repräsentiert eine Überschrift in einem Online-Text. Statt „Heading Element“ hört
man oft die Bezeichnung „Heading Tag“, jedoch kennzeichnet ein Tag nur den Anfang und das Ende eines
kompletten Elements. Deswegen ist die Bezeichnung Heading Tag ungenau.
Heading Tags sind für den Nutzer wie für die Suchmaschinen wichtig. Suchmaschinen verwenden die
Überschriften, um Struktur und Inhalt der Webseite zu indizieren. Benutzer verwenden die Überschriften,
um die Webseite zu überfliegen und zu entscheiden, ob – und wenn ja, was sie lesen sollten.
Die Heading Elemente existieren in sechs Leveln. Die Hauptüberschrift wird als h1, die Unterüberschriften
als h2, h3 ... und so weiter bis zur kleinsten Gewichtung h6 bezeichnet. Der Buchstabe „h“ dient dabei als
Abkürzung für das Wort „heading“. Aus SEO-Sicht ist das h1-Tag das wichtigste Tag, auch die h2-Tags
haben eine gewisse Bedeutung.
Im Zusammenhang mit der kompletten SEO-Strategie einer Webseite betrachtet, sind das h1 und h2 Tag
nur kleine Signale. Doch bei der Optimierung sollten auch kleinere Faktoren ernst genommen werden.
Heading Tag und Title Tag sind zwei Paar Schuhe
Es ist wichtig, zu verstehen, dass es sich bei der Hauptüberschrift (h1-Tag) und beim Seitentitel (Title-Tag)
um zwei verschiedene Dinge handelt. Der Seitentitel steht im Kopf der HTML-Datei, die Hauptüberschrift
hingegen im <body>.
Die sichtbaren Auswirkungen sind die, dass das Titel-Tag in den Suchmaschinen angezeigt wird. Im
Grunde ist das der blau hervorgehobene Hyperlink, auf den Besucher klicken. Das Title Tag (bzw. der
Seitentitel) wird auch in der Titelleiste oben im Webbrowser angezeigt, erscheint jedoch nicht auf der
eigentlichen Webseite. Suchmaschinen geben dem Seitentitel mehr Gewicht als der Hauptüberschrift.
Im Gegensatz dazu ist das H1-Tag ein Element, das (sofern nicht anders programmiert) sich dem Leser als
Hauptüberschrift des Artikels präsentiert. H1-Tags erscheinen normalerweise nicht in den
Suchmaschinen.
So sieht ein Title Element in HTML aus:
<title>...</title>
So sehen Heading Tags in HTML aus:
<h1>...</h1>
<h2>...</h2>
Wie viele Keywords verträgt ein Heading Tag?
Solange Sie die Überschriften mit Keywords optimieren, die sich natürlich anhören und nicht, als wären
sie für Roboter geschrieben, trägt das zur besseren Leserlichkeit der Seite bei. Wenn Sie die
Hauptkeywords in den Überschriften nicht so integrieren können, dass sie natürlich klingen, dann lassen
Sie die Keywords besser weg. Insbesondere werden Heading Tags ab h3 und tiefer von den
Suchmaschinen nicht wirklich betrachtet. Denken Sie also an den Leser, anstatt auf Teufel komm raus Ihre
Keywords in das h3-Tag zu stopfen.
Wie viele Überschriften sind das Optimum?
Es ist eine gute Praxis, genau eine Hauptüberschrift h1 pro Seite zu verwenden und dann h2-
Überschriften nach Bedarf einzusetzen. Fügen Sie keine unnötigen Überschriften nur um der Keywords
willen hinzu.
Verwenden Sie genau so viele Überschriften, wie Sie für einen gut strukturierten Text benötigen. Es sollte
nicht Ihr Ziel sein, der Suchmaschine so viele Heading Tags zu liefern wie sie braucht, sondern, einen
wohlstrukturierten Text für Ihre Leser zu schreiben. Allerdings werden Online-Texte häufiger mit
Zwischenüberschriften gegliedert als Texte für Printmedien. Das liegt daran, dass Bildschirmtexte für das
Auge anstrengender zu lesen sind als gedruckte Texte. Leser scannen deshalb die Webseite nach
„Ankerpunkten“ wie Grafiken, Aufzählungen - oder eben Überschriften.
Seitenstruktur analysieren
Welche Art Überschriften auf einer Seite verwendet wurden, zeigt Ihnen ein Blick in den Quellcode oder
ein Browser-Add-on. Oftmals werden Sie feststellen, dass ein Textteil, der wie ein h1- oder h2-Tag
aussieht, in Wirklichkeit keiner ist. Außerdem kommt es recht häufig vor, dass Zwischenüberschriften
unlogisch zugeordnet wurden.
Beispielsweise dürfen auf eine h2 Überschrift zwei oder mehrere h3-Abschnitte folgen, jedoch wäre es
nicht folgerichtig, gleich nach einem h2-Tag einen h4-Tag zu setzen.
Wie Sie eine Übersicht Ihrer Heading Tags erstellen
Es gibt verschiedene Wege, sich die Überschriften-Tags auf einer Seite anzuzeigen.
Wenn Sie wissen wollen, ob ein bestimmter Textbereich korrekt als Überschrift codiert wurde, markieren
Sie diesen Abschnitt und wählen als Mac-User per rechter Maustaste die Option Element-
Informationen, bzw. am PC die Option Element untersuchen. Dies wird Ihnen den spezifischen Abschnitt
des Quellcodes anzeigen.
Abbildung 23: Informationen per rechtem Mausklick
Sie können sich auch den gesamten Quellcode anzeigen lassen, indem Sie mit der Maus auf eine beliebige
Stelle der Seite gehen und dann mittels Rechtsklick den entsprechenden Befehl im Kontextmenü drücken.
Jedoch enthält der Quellcode so viele Informationen, dass Sie kaum das finden werden, was Sie suchen.
Weitaus einfacher ist es, ein Browser-Add-on zu nutzen.
Abbildung 24: Heading Tags mit einem Browser Add-on anzeigen lassen
Setzen Sie ein h1-Tag, um das SEO-Potenzial der Seite auszuschöpfen. Setzen Sie jedoch nur ein h1-Tag
pro Seite und achten Sie darauf, dass die Überschrift nicht mit dem Namen der Webseite übereinstimmt,
da Sie sonst „duplicate content“ erzeugen.
Weniger wichtig ist die Optimierung von Überschriften in der Sidebar oder im Footer.
Zusammenfassung
Schreiben Sie die Hauptüberschrift in erster Linie für den Leser.
Verwenden Sie nur ein h1-Tag pro Seite
Bestücken Sie Ihr h1-Tag mit dem Haupt-Keyword
Ordnen Sie die Überschriften-Tags in logischer, chronologisch absteigender Reihenfolge (auf h2
folgt h3, nicht h4)
Unterscheiden Sie zwischen Title Tag und h1-Tag. Die beiden Tags dürfen nicht identisch sein,
sollten inhaltlich jedoch zueinander passen.
So was von wichtig: Unique Content
Wie wichtig ist Unique Content? Wann sind Inhalte qualitativ hochwertig? Und wie schlimm ist Duplicate
Content?
Warum Sie Unique Content brauchen
Unique Content ist der Ranking-Faktor schlechthin! Oder mit den Worten von Searchmetrics zu den
Google Ranking-Faktoren: “Im Mittelpunkt sollte heute für SEOs und Online Marketer die Schaffung von
relevantem Content stehen, der sich an der jeweiligen Nutzerintention ausrichtet, die jedoch von
Suchanfrage zu Suchanfrage stark differieren kann.”
Belanglose Webseiten lassen sich im Ranking der Suchergebnisse schwer nach vorne bringen. Google
bewertet den Nutzen einer Seite beispielsweise anhand der Verweildauer der Besucher und anhand der
Links, die auf die Seite verweisen. Eine Webseite nur für die Suchmaschine zu optimieren, wäre zu kurz
gedacht. Viel wichtiger hingegen ist, die Besucher von der Qualität der Informationen zu überzeugen. Neu
gewonnene Besucher werden länger auf der Webseite bleiben, weitere Artikel lesen, diese verlinken – und
auch in Zukunft wieder einmal vorbeischauen.
Zielen Sie deswegen auf erstrangigen Inhalt zur Thematik der Webseite ab.
Neben dem „Haupt-Keyword“ soll der Text auch verwandte Keywords enthalten. Achten Sie zudem
darauf, dass sich diese organisch in den Text einpassen. Besucher mögen es nicht, wenn Schlüsselbegriffe
offensichtlich in den Inhalt hineingezwängt wurden.
Wie Generieren Sie Unique Content?
Texte mit Unique Content sind nicht nur für die Suchmaschinenoptimierung, sondern auch für die
Besucher Ihrer Webseite wichtig. Empfehlungen zur Verbesserung des Seiteninhalts hängen von der
Webseite ab. Jedoch gibt es einige allgemein gültige Tipps, wie zum Beispiel:
Themenbezogene Inhalte setzen
Dieser Hinweis ist eigentlich offensichtlich. Stellen Sie nur solche Inhalte ein, die auch zum Thema Ihrer
Webseite passen. Texte, die nicht mit Ihren üblichen Themen und Schlagwörtern übereinstimmen,
werden nicht als relevant angesehen und können deswegen nicht so gut ranken.
Unterverzeichnisse organisieren
Achten Sie außerdem darauf, den Inhalt der Unterverzeichnisse gut zu organisieren, so dass
Suchmaschinen und Benutzer die relevantesten Ergebnisse zu ihrer Suchanfrage finden.
Angenommen, Sie führten eine Webseite mit Filmkritiken. Anstatt sämtliche Filmkritiken an derselben
Stelle zu platzieren, wäre es geschickter, die Artikel zu ordnen – beispielsweise nach Genres. Besucher, die
Rezensionen über Dramen oder Komödien suchen, könnten diese so leichter finden.
Duplicate Content vermeiden
Seien Sie sich der Bedeutung einzigartiger Inhalte bewusst. Wenn Sie Inhalte anderer Webseiten
kopieren, verbessern Sie Ihr Ranking keineswegs. Im Gegenteil. Wenn im Web identische Inhalte
vorkommen, wird Google die Seite bevorzugen, die den Inhalt zuerst veröffentlicht hat. Natürlich dürfen
Sie Passagen von einer fremden Webseite zitieren, aber umgeben Sie das Zitat mit Ihren eigenen
Inhalten, um eine neue Perspektive anzubieten. Sehr gut macht es sich, einen Backlink zu der Seite
setzen, von der das Zitat stammt.
Hinter „Duplikate Content“ stecken aber nicht nur raubkopierte Texte. Sie sollten sich im Klaren darüber
sein, dass doppelter Content auch intern, also auf Ihrer eigenen Webseite entstehen kann. Wenn Ihre
Webseite beispielsweise ohne Weiterleitung sowohl über http://IhreWebseite.de als auch über
https://IhreWebseite.de erreichbar ist, liegt bereits eine Verdopplung der Seite vor.
Stellen Sie sicher, dass jede Ihrer Webseiten Unique Content bietet. Wenn Sie eine Seite kopieren und nur
ein paar Wörter ändern, wird Google das immer noch als Duplikat interpretieren.
Beispielsweise besitzen Sie eine Seite über Möbeltischlerei. Sie wollen Ihren Service in mehreren Städten
anbieten und möchten Ihren Webauftritt für das neue Einzugsgebiet optimieren. Es wäre nun keine gute
Idee, für die neue Webseite den Inhalt Ihrer bestehenden Seite zu kopieren und lediglich den
Standortnamen abzuändern. Die Duplikate würden miteinander konkurrieren, „Keyword-
Kannibalisierung“ genannt: Weil für denselben Suchbegriff mehrere Seiten gefunden werden, teilen sich
die möglichen Klicks auf die verschiedenen Einträge auf, da die Nutzer nicht wissen, worauf sie nun
klicken sollen. Im Endeffekt sinkt die Klickrate.
Mehrwert durch Unique Content bieten
Stellen Sie also sicher, dass Ihre Webseite etwas enthält, was andere Seiten oder Artikel in dieser Form so
nicht anbieten.
Überlegen Sie sich, wie Sie neue Informationen bieten, oder die Informationen zumindest anders als die
Konkurrenz darstellen können. Implementieren Sie ein Video, eine Reihe von Bildern oder anderes
Material, das Ihre Inhalte von anderen (ähnlichen) Artikeln abhebt.
Vergessen Sie nicht, dass Google gerne Ergebnisse liefert, die es für nützlich hält. Besteht Ihre Seite aus
einem einzigen riesigen Textblock, egal wie gut geschrieben, wird Google sie nicht so nützlich ansehen
wie eine Seite mit Bildern, Videos, Material zum Herunterladen oder Links zu anderen Ressourcen. Dabei
dürfen sich diese Ressourcen durchaus auf anderen Domains befinden. Womit wir zum nächsten Punkt
kommen:
Auf andere Webseiten verlinken
Zu Unique Content gehört auch, dass Sie sich mit anderen Domains verbinden. So zeigen Sie Google, dass
Sie Ihren Lesern passende Antworten zu ihren Nachfragen liefern. Natürlich sollten Sie sicherstellen, dass
Sie nur auf solche Seiten verlinken, die für Ihre Leser nützlich sind.
Keywords variieren
Neben der Verwendung von Synonymen ist es auch eine gute Idee, Keywords aufzusplitten. Das sollte
immer auf natürliche Weise beim Schreiben geschehen. Wenn Sie beispielsweise einen Artikel über
Filmkritiken verfassen, würden Sie in einigen Absätzen das Schlagwort „Film“, und in anderen Absätzen
das Schlagwort „Kritik“ verwenden. Sie müssen nicht immer das vollständige Keyword „Filmkritik“
benutzen, es sei denn, es fügt sich auf natürliche Weise in den Text ein. Verwenden Sie den Hauptbegriff
zu oft, könnten die vielen Wiederholungen als Spam interpretiert werden.
Lesen Sie Ihre Texte laut und achten Sie darauf, dass sie natürlich klingen. Hören Sie sich ruhig einmal die
Meinung von Freunden oder Bekannten dazu an.
Google achtet auch auf Synonyme. Verwenden Sie nicht nur den Begriff „Film“, sondern auch
themenrelevante Begriffe wie „movie“, „Kino“, „Unterhaltung“ oder „Popcorn“. Googles Algorithmen sind
inzwischen weit genug entwickelt, um die Zusammenhänge zwischen den Synonymen herzustellen.
Wenn Sie sinnverwandte Wörter einflechten, wird der Text zum einen natürlicher klingen und zum
anderen unterstützen Sie das Thema Ihres Artikels.
Relevante Ankertexte wählen
Wenn sich Ihre neuen Inhalte auf eine Ihrer bestehenden Webseiten beziehen, sollten Sie eine
Verknüpfung erstellen.
Indem Sie Leser auf diese Weise durch Artikel führen, die ihre Fragen beantworten, generieren Sie nicht
nur benutzerfreundliche Inhalte, sondern helfen auch den Suchmaschinen beim Crawlen der neuen Texte.
Achten Sie darauf, wo immer möglich beim Verlinken Ankertext zu verwenden. Der Ankertext sollte sich
auf das jeweilige Thema beziehen und Schlüsselwörter beinhalten, die auf die zu verknüpfende Seite
ausgerichtet sind. Vermeiden Sie inhaltsleere Ankertexte à la „klicken Sie hier“. Wenn Sie beispielsweise
von einer Seite über Comedy zu einer Seite über romantische Komödien verlinken, sollten Sie
beispielsweise die Textpassage „Kritiken romantischer Komödien“ als Ankertext wählen.
Zusammenfassung
Optimierte Inhalte sollten relevant, gut organisiert und einzigartig sein. Sie sollten Mehrwert
bieten, der auf ähnlichen Webseiten so nicht vorliegt.
Wiederholen Sie Ihr Keyword nicht zu oft, um Überoptimierung und Strafen für Keyword Stuffing
zu vermeiden.
Verwenden Sie Synonyme Ihres Schlagwortes
Achten Sie auf die Leserlichkeit Ihrer Inhalte. Es gibt nützliche Online-Tools, die Ihnen helfen, die
Lesbarkeit Ihrer Artikel zu verbessern.
Verlinken Sie zu anderen verwandten Webseiten oder zu eigenen Inhalten
Ergänzen Sie Ihre Inhalte mit Bildern und anderen Ressourcen.
Nun kennen Sie die grundlegenden Punkte, die Unique Content ausmachen. Natürlich ist das noch nicht
alles – aber mehr dazu später.
Kapitel 3 Off-Page-SEO
Worum wird es gehen?
Der Einstieg ist gemacht. Nun haben wir schon die grundlegenden Themen der On-Page-Optimierung
besprochen. Bevor wir uns an das Hauptthema Keyword-Analyse machen, sollten wir vorher aber noch
einige Worte über die Off-Page-Optimierung und über Technisches SEO verlieren.
Zu der OffPage- oder auch Offsite-Optimierung zählen die Aktionen, die außerhalb Ihrer Webseite
stattfinden. Das Ziel ist natürlich, die Bekanntheit Ihrer Marke zu stärken und die Sichtbarkeit Ihrer
Webseite zu verbessern. Bei Offsite-SEO geht es also darum, über den Tellerrand der eigenen Webseite zu
schauen. In der Welt da draußen gibt es einiges zu tun, um den Erfolg der eigenen Webseite zu pushen. An
erster Stelle steht der Aufbau von Backlinks, also solchen Links, die auf Ihre Domain oder eine ihrer
Unterseiten führen. Die zweite große Baustelle ist die Sichtbarkeit in Social Media.
Aus diesem Grund geht es in dieser Kategorie um folgende Fragen:
Was ist ein gutes Backlink-Profil?
Wie funktioniert Link Building?
Wie kann Social Media meiner Webseite helfen?
Der Google PageRank
Schauen wir uns zunächst einmal den Google PageRank Algorithmus an. Obwohl von ihm immer seltener
die Rede ist, wäre es falsch, ihn außer Acht zu lassen. Sicher, inzwischen wird die Relevanz einer Webseite
nicht mehr am PageRank festgemacht. Allerdings lohnt sich ein näherer Blick auf den Algorithmus, da
sein Konzept dem des OffPage SEO ähnelt.
Deswegen wollen wir folgende Fragen klären: Welches Prinzip steckt hinter dem Algorithmus? Und wie
weit passt er noch in das moderne SEO?
Was ist PageRank?
Der PageRank Algorithmus stammt aus den Anfangszeiten von Google. Damals fragten sich deren
Gründer Larry Page und Sergey Brin, wie die Suchmaschine die Reputation einer Webseite einschätzen
könnte. Sie entwickelten dazu einen Algorithmus, der die Links einer Webseite analysiert und das
Ergebnis als Zahlenwert darstellt.
Jedes Mal, wenn eine Webseite zu einer anderen Webseite verlinkt, wird dieser Link als eine Art
Abstimmung gewertet. Wenn also Webseite A einen Link zu Webseite B setzt, würde A damit die
Nützlichkeit und Wichtigkeit von B bestätigen. Je mehr Links eine Webseite hat, desto höher ihr Rang und
die Chance auf eine gute Position in den SERPs.
Googles PageRank Algorithmus zählt dabei nicht pauschal, wie viel Links eine Webseite hat, sondern
berücksichtigt bei der Rechnung auch die Qualität des verweisenden Dokuments. Je mehr PageRank eine
Seite hat, desto mehr „Linkjuice“ oder „Linkpower“ kann es an Ihre Webseite weitergeben.
Abbildung 25: Je höher der PageRank, desto schwerer wird es, ihn zu verbessern.
Basierend auf der Anzahl und Qualität der Links der Seite kann die Webseite einen Wert zwischen Null
und Zehn erzielen, wobei die Werte exponentiell steigen. Kurz gesagt, je höher Sie im Google PageRank
kommen, desto höher ist der Aufwand, das nächste Level zu erreichen. Nur sehr bekannte Webseiten, wie
beispielsweise CNN.com, TheEuropeanLibrary.org oder USA.gov, erreichten eine „zehn“. Viele
Universitäten und Forschungseinrichtungen erreichen einen PageRank von „neun“.
Wie kann ich den PageRank ermitteln?
Abbildung 26: [ Quelle: https://searchengineland.com/ ]
In der Vergangenheit war der Page Rank von einer Webseite einsehbar. Alles, was Sie tun mussten, war,
eines der kostenlosen Tools oder Browser-Add-Ons zu benutzen. Allerdings wurde die öffentliche
PageRank Toolbar unregelmäßig aktualisiert und lieferte deshalb nicht die verlässlichsten Ergebnisse.
Google gab zu, dass es parallel dazu eine interne PageRank-Bewertung hatte, die es öfter aktualisierte.
Im Jahr 2013 hörte Google auf, die Toolbar mit Daten zu versorgen. 2016 kam dann das endgültige Aus.
Insofern hat die PageRank Kennzahl Ihren Wert für Webmaster verloren.
Jedoch sind alternative Metriken verfügbar, die in der SEO-Community gut angesehen sind. Zum Beispiel
die Domain Authority Score von Moz.
Ist der Algorithmus überhaupt noch von Bedeutung?
Wenn etwas nicht sichtbar ist, heißt es nicht, dass es nicht da ist. Die SEO-Manager stellen natürlich ihre
eigenen Tests an und haben guten Grund zu der Vermutung, dass eingehende Links immer noch zu den
wichtigen Faktoren zählen. Jedoch ist heute von der Domain Authority die Rede, wenn es darum geht,
wie eine Webseite in den SERPs gut abschneiden kann. Die Domain Authority besteht aus vielen
Faktoren, wie Unique Content, Domain Trust und eben auch dem Backlink-Profil. Der Google PageRank
ist nur mehr ein Faktor unter vielen.
Wie auch immer hat die Bedeutung des Backlink-Profils etwas abgenommen. Das kommt wahrscheinlich
daher, dass sich solche Metriken wie PageRank in der Vergangenheit recht einfach manipulieren ließen.
Heute ist nicht die Zahl, sondern die Qualität der Links entscheidend. Wenn Sie noch auf altmodische
Weise versuchen, so viele eingehende Links wie möglich zu erhalten und nicht auf deren Qualität achten,
wird das der Glaubwürdigkeit Ihrer Webseite schaden. Außerdem bestraft das Penguin Update gekaufte
Links und Spamlinks.
Das erschwert natürlich das Offsite-SEO. Statt Linktausch-Programmen und Linkfarmen sind nun
Kreativität und Geduld gefragt.
Abbildung 27: Der Google PageRank ist nur noch ein Faktor von vielen.
Warum Sie Ihre Backlinks prüfen sollten
Wer verlinkt auf meine Seite? Was sind natürliche Backlinks, wie komme ich an sie heran - und wie werde
ich Spam-Links los?
Zu den Faktoren, anhand derer Google Ihre Webseite bewertet, gehört Ihr Backlink-Profil. Backlinks sind
Links von außerhalb, die auf Ihre Seite zeigen. Manche von ihnen sind sehr nützlich, während andere
Ihnen schaden können. Deswegen sollten Sie sich damit auskennen, wie man Spam-Links identifiziert und
entfernt.
Vor allem aber benötigen Sie organische Links, um eine Chance auf die vorderen Plätze in den SERPs zu
haben. Die Preisfrage ist natürlich, wie Sie an solche Links kommen.
Wir haben ein Problem
Google ist der festen Meinung, dass alle Links nur auf natürlichem Weg verdient werden sollten. Gekaufte
oder eingetauschte Backlinks wertet das Unternehmen als Verstoß gegen seine Richtlinien, weswegen es
seine Suchmaschinen-Algorithmen ständig verbessert. Seit dem Penguin Update verteilt es auch
Penalties für spammige Backlinks.
Google empfiehlt als erste Maßnahme, hochwertige Inhalte bereitzustellen, die eine exzellente
Benutzererfahrung garantieren. Jedoch ergibt sich daraus ein Problem, genau genommen zwei: Zum
einen ist es ein zeitaufwendiges Projekt, einen Blog oder ein Online-Magazin aufzubauen. So etwas kann
Wochen oder gar Monate in Anspruch nehmen. Zum anderen benötigt es selbst bei brillanten Artikeln
eine gute Portion Öffentlichkeitsarbeit, um überhaupt wahrgenommen und von den richtigen Leuten
verlinkt zu werden.
Kurz, Linkbuilding ist seit Penguin zu einer mühevollen Angelegenheit geworden.
Welcher Backlink ist ein guter Backlink?
Um die Qualität und Relevanz ihrer Webseite zu betonen, benötigen Webmaster also Backlinks, bei denen
kein Verdacht aufkommt, sie könnten manipuliert sein. Google achtet bei der Bewertung der Backlinks
auf mehrere Faktoren. Zu den wichtigsten Aspekten gehören dabei
• Qualität
• Relevanz und
• Position
Diese Faktoren wollen wir uns gleich einmal genauer anschauen.
Wie sieht ein mustergültiger Verweis aus?
Die Anzahl der Links war einmal das Nonplusultra, jedoch setzt Google inzwischen den Fokus auf Qualität
statt auf Quantität.
Ein Link guter Qualität ist ein Link, der von einer etablierten Webseite stammt. Links von Spam-
Webseiten werden Ihnen hingegen schaden, da Sie sich in „schlechte Nachbarschaft“ begeben. Nun
können Sie es meist nicht verhindern, dass eine Spam-Webseite einen Verweis zu Ihrer Webseite setzt. Zu
den Aufgaben eines Webmasters gehört es deswegen auch, die Backlinks zu prüfen und unerwünschte
Kandidaten zu entfernen. Gelingt Ihnen das nicht selbst, müssen Sie Googles Disavow Tool nutzen. Dieses
Tool befindet sich in der Google-Suchkonsole und dient dazu, Backlinks für ungültig zu erklären.
Relevante Links erhalten Sie von Webseiten, die mit Ihrem Thema zu tun haben. Wenn Sie beispielsweise
eine Webseite über Gewürze hätten und eine Webseite mit Kochrezepten würde zu Ihnen verlinken, dann
wäre das sehr relevant. Anders sähe es aus, wenn der Link von einer Seite käme, auf der es um
Mobiltelefone ginge. So etwas ist suspekt.
Die Platzierung des Links bezieht sich auf die Position auf der Webseite. Links in der Fußzeile oder der
Seitenleiste sind in der Regel weniger wertvoll und könnten als Spam angesehen werden. Beachten Sie
aber, dass das nicht per se geschieht. Google würde hierfür noch weitere Faktoren in Betracht ziehen,
beispielsweise, ob sich Begriffe wie „Sponsor“ oder „Partner“ bei dem Link befinden.
Andersherum machen zahlreiche Webdesigner den Fehler, ihre kostenfreien Templates in der Fußzeile
mit einem Link auszustatten, der auf ihre Webseite zurückverweist. So entsteht eine Menge irrelevanter
Links von irrelevanten Webseiten.
Der ideale Backlink befindet sich mitten in einem Text, der thematisch mit Ihrer Webseite verbunden
ist. Das könnte beispielsweise eine Erwähnung in einem Blog-Post sein.
Außerdem wichtig
Der Ankertext, also der anklickbare Text eines Hyperlinks, spielt ebenfalls eine Rolle. Manchmal besteht
der Ankertext nur aus einem hier. Besser wäre ein Ankertext aus geeigneten Keywords, wenn mit diesen
nicht übertrieben wird. So könnte der Ankertext eines Links, der auf eine Webseite über Gewürze weist,
beispielsweise Kurkuma oder Fair-Trade Gewürze lauten. Die Ankertexte unnatürlicher Links hingegen
bestehen oft aus dem Namen der Marke oder der direkte URL (also www.beispiel.de), oder einer
Handlungsaufforderung wie Klick hier.
Google wird sich zudem auch anschauen, ob sich Seiten gegenseitig verlinken. Wenn es den Anschein hat,
dass die Backlinks aus Linktausch-Programmen stammen, droht beiden Links die Abwertung.
Wie Sie Ihre Backlinks prüfen
Wie können Sie nun feststellen, ob sich auf einer Spam-Webseite ein Link zu Ihnen befindet?
Neben den Google Webmaster Tools gibt es dafür spezielle „Backlink Checker“, welche gleich von
mehreren Anbietern bereitgestellt werden. Einige der Backlink-Tools lassen sich kostenlos oder
zumindest mit eingeschränktem Funktionsumfang nutzen. Allerdings hängt die Qualität der Daten davon
ab, wie groß die Datenbank des Anbieters ist. Sie werden die Unterschiede selbst feststellen, wenn Sie ein
und dieselbe Webadresse von verschiedenen Tools prüfen lassen und die Ergebnisse miteinander
vergleichen. Das Beste ist deshalb, wenn Sie mehrere Quellen für Ihre Backlink-Analyse nutzen.
Tipp: Backlink-Tools, die von der Redaktion des Online-Magazin t3n empfohlen werden, sind
beispielsweise der Backlink Checker von Ahrefs oder der Openlinkprofiler aus dem SEOProfiler.
Einzelheiten dazu lesen Sie auf dem t3n-Listicle vom September 2018.
Alexander von der SEO-Agentur Evergreenmedia aus Innsbruck erklärt in seinem Video detailliert, wie Sie
Spamlinks entfernen:
Abbildung 28: Bei Klick auf den Screenshot geht es zum Video [Quelle: https://youtu.be/d9jvxEvT7CQ ]
Wie Sie legale Backlinks aufbauen
Linkaufbau ist eine mühevolle Disziplin und erfordert viel Geduld. Verständlich, dass so manch einem
Webmaster der Gedanke kommt, er könne dem Ranking-Glück nachhelfen und Backlinks kaufen.
Allerdings wäre das eine sehr riskante Abkürzung, da sich Googles Algorithmen immer weiter verfeinern.
Bei all den Tipps, die Sie im Internet über den Linkaufbau lesen, ist die Essenz folgende:
Sie brauchen richtig guten Content
Analysieren Sie Ihre Konkurrenz
Nutzen Sie Social Media wie beispielsweise Pinterest, Twitter oder Instagram.
Der erste Punkt ist jedoch der wichtigste: Content.
Sie brauchen brillante Inhalte, um Gastbeiträge über Ihr Thema anzubieten.
Sie brauchen brillante Inhalte, Produkte oder Dienstleistungen, wenn Sie Empfehlungs-Guides
kontaktieren und um Nennung in einer Top-10-Liste bitten. Auch dann, wenn Sie im Gegenzug mit
Rabatten für die Leser des Guides winken.
Sie brauchen brillante Kommentare, wenn Sie in Foren wie Reddit oder Quora auf sich aufmerksam
machen wollen.
Was können Sie noch machen?
Sie können Ihre Webseite in Firmen- oder Branchenregistern eintragen lassen. Vergessen Sie dabei nicht
die lokalen Verzeichnisse Ihrer Region. Achten Sie jedoch darauf, dass es sich immer um seriöse Seiten
handelt.
Gehen Sie die Webseiten Ihrer Konkurrenz durch und schauen Sie sich deren Backlink-Profil an. Das
funktioniert mit denselben Backlink-Tools, mit denen Sie Ihre eigene Webseite überprüfen. Bei der
Recherche stoßen Sie sicherlich auf Seitenbetreiber, mit denen Sie in Kontakt kommen und denen Sie
Ihre eigenen Beiträge anbieten können. Häufig gibt es auf Webseiten Artikel, die nicht mehr aktuell oder
nicht umfangreich genug sind – und Sie haben die fertige Lösung schon einsatzbereit in der Hand. Zu den
gern gesehenen Inhalten gehören dabei nicht nur Fallstudien, Statistiken oder innovative Beiträge,
sondern auch Fotos und Infografiken.
Schließlich können Sie auch Ihre Geschäftspartner ansprechen und um einen Backlink bitten. Eine
Fallstudie ist eine elegante Möglichkeit, sich gegenseitig ganz legal zu verlinken.
-----
Wie Sie sehen ist das Thema Backlinks nicht nur zentral, sondern auch umfangreich. Deswegen werden
wir im zweiten SEO-Tutorial auf einige Punkte zurückkommen.
Die Macht von Social Media
Wie weit kann Social Media die Sichtbarkeit einer Webseite beeinflussen? Wieso es sich lohnt, rechtzeitig
damit zu beginnen.
Besteht ein Zusammenhang zwischen Social Media und dem Google
Algorithmus?
Social Media eignet sich als Langzeit-Maßnahme für Ihre Aktionen außerhalb der Webseite. Um gleich
zum Punkt zu kommen: Neben dem Aufbau von Backlinks ist es die zweite Säule der OffPage SEO.
Die SEO-Profis, die gemeinhin viel analysieren und testen, meinen in ihren jüngsten Untersuchungen
einen Zusammenhang von Social Media-Nutzung und besseren Rankings festgestellt zu haben.
Was soll das konkret heißen?
Es soll heißen, dass sich Ihre SEO-Maßnahmen durch Einbindung von Social Media positiv beeinflussen
lassen.
Laut Google existiert jedoch kein Algorithmus, der bei der Kalkulation des Rankings berücksichtigt, wie
häufig Sie twittern oder wie viele “follower” Sie auf Facebook haben. Demnach könnten tausend Leser die
Zitate von Ihrer Webseite auf Twitter teilen, ohne dass sich dadurch Ihr Ranking in den SERPs ändert.
Hinter dem Zusammenhang zwischen sozialen Netzwerken und den Google SERPs steckt also ein
Mechanismus der anderen Art.
Wenn die sozialen Netzwerke einen Anstieg des Rankings bewirken, geschieht das wahrscheinlich auf
diesem Weg:
Inhalte, die häufig geteilt werden, werden häufig gesehen.
Inhalte, die häufig gesehen werden, werden mit größerer Wahrscheinlichkeit von anderen
Webseiten verlinkt.
Diese zusätzlichen Backlinks sind die Ursache für das bessere Ranking.
Das bessere Ranking wiederum führt zu mehr „Followern“ in den sozialen Medien.
Der Softwareentwickler Matt Cutts, der viele Jahre Googles Sprachrohr war, hat die Frage nach dem
Zusammenhang von Social Media und Google Ranking mit einem kurzen Video beantwortet.
Abbildung 29: Bei Klick auf den Screenshot geht es zum Video [Quelle: https://youtu.be/udqtSM-6QbQ ]
Unter anderem fällt darin die Bemerkung, dass Korrelation nicht mit Kausalität verwechselt werden dürfe.
Soll heißen, wenn ein Zusammenhang zwischen zwei Variablen besteht, heißt das noch lange nicht, dass
eine Auswirkung der einen auf die andere Variable vorliegt.
Hier ein schöner weiterführender Beitrag über Korrelation und Kausalität und hier das Thema von der
lustigen Seite betrachtet.
Abbildung 30: Eines von vielen schönen Beispielen auf der Website von Tyler Given.
Wie hilft Social Media bei der OffPage SEO?
Für Social Media gilt dasselbe wie für jede andere Webseite auch. Wenn sie einen Link enthält und über
Google erreichbar ist, wird dieser Link gecrawlt. Je mehr Menschen einen Link zu Ihrer Webseite auf
Twitter oder Facebook teilen, desto mehr Gelegenheiten bieten sich den Google Crawlern, Ihre Webseiten
zu finden und zu indexieren.
Nun sind Links und Tweets auf sozialen Profilen generell non-follow-Links. Das heißt, sie geben keine
„Linkpower“ weiter. Sie erscheinen zwar in Ihrem Backlink-Profil, ändern jedoch nichts am PageRank Ihrer
Webseite. Allerdings werden die Tweets gecrawlt und indiziert. Je mehr Leute also über Sie oder Ihre
Marke twittern, desto wahrscheinlicher wird es, dass in den Suchergebnissen ein Verweis auf Ihre Marke
mit einem Link zu Ihrer Website auftaucht.
Eine gute Social-Media-Strategie kann also Ihre Markensichtbarkeit steigern, Ihren Ruf verbessern und
mehr Besucher auf Ihre Webseite führen. Mit anderen Worten unterstützen Sie durch Social Media Ihre
Markenbekanntheit. Und die Verbesserung Ihrer Markenbekanntheit ist wiederum ein Eckpfeiler Ihrer
SEO Strategie.
Kurz, die Investition in soziale Netzwerke lohnt sich. Jedoch braucht es viel Zeit, ein Publikum in Social
Media aufzubauen. Deswegen ist es ratsam, Social Media so frühzeitig wie möglich in Ihre Werbestrategie
aufzunehmen.
Das soziale Leben außerhalb von FB
Sie sollten Ihre sozialen Profile so optimieren, dass Nutzer sie leicht auffinden. Das Ziel wäre also, dass
nicht nur Ihre Webseite, sondern auch Ihr Twitter-Profil und Ihre Facebook-Seite über die Google-
Suchfunktion zugänglich sind. Jedoch existieren weitere soziale Netzwerke, die im Zusammenhang mit
Ihrer Marke einen Sinn ergeben können.
Pinterest bietet beispielsweise viele großartige SEO Chancen, da viele der Pins und Boards in Google
indiziert sind und für verwandte Suchanfragen hoch ranken können. Die Plattform hat sich inzwischen von
einem Hobby-Treff zu einem Netzwerk entwickelt, welches für Unternehmen zunehmend interessant
wird (siehe offizieller Pinterest-Quartalsbericht 03/2019).
Wahrscheinlich haben Sie es auch schon erlebt, dass Sie bei einer Recherche ein Pinterest-Board-Ranking
zwischen den ersten fünf Google-Ergebnissen sahen. Für Ihr Geschäft kann das von großem Nutzen sein.
Hier ein Beispiel.
Ich suche nach Ideen, wie sich alte Möbel wieder herrichten lassen. Wie Sie sehen, rankt Pinterest in dieser
Nische sogar auf den ersten beiden Plätzen. Mit Long-Tail-Keywords erzielen Sie bei diesem Netzwerk die
besten Erfolge, weswegen sich der Aufwand lohnt, eine Pinterest-Pinnwand mit gut platzierten Beiträgen
und nützlichen Beschreibungen zu optimieren.
Abbildung 31: Suchanfrage „Ideen alte Möbel streichen“ [ Quelle: Screenshot ]
Der Vorteil von Pinterest im Vergleich zu Instagram ist nicht nur, dass Sie zu Ihrem Pinterest-Artikel
verlinken können, sondern die Inhalte auch längerfristig interessant bleiben. Hierbei fällt auf, dass Boards
mit vielen aktiven Followern bei der Suche besser zu ranken scheinen. Das zeigt die Bedeutung eines gut
gepflegten, aktiven Profils.
So viel zur Frage, inwieweit Social Media die Sichtbarkeit einer Webseite zu beeinflussen vermag. Es ist
also von Vorteil, wenn Sie ein Social Media Präsenz aufbauen. Es wird Ihrer gesamten SEO-Strategie
nutzen und als Bestandteil einer effektiven OffPage-SEO-Strategie Ihre Markenpräsenz und Bekanntheit
steigern.
Kapitel 4 Technische SEO
Technisches SEO. Ist das was Schlimmes?
Die technische SEO befasst sich mit den strukturellen Grundlagen einer Webseite. Ziel ist es, den
Crawlern das Suchen und Indexieren zu erleichtern. Letztendlich wird Ihre Webseite dadurch für Nutzer
auffindbar.
Kurz gesagt ist die technische SEO die Voraussetzung dafür, dass On-Page– und Off-Page-Optimierung
überhaupt Erfolg haben können. Ein SEO-Berater würde Ihre Webseite zuerst auf technische Belange hin
überprüfen, bevor er Empfehlungen für den Content abgibt und sich um die Keywords kümmert. Erst im
Anschluss daran ginge er die Off-Page-Optimierung an, um damit die vorangegangenen SEO-
Maßnahmen zu unterstützen.
Warum Sie technical SEO brauchen
Erstes Ziel der technischen Optimierung ist, dass die Inhalte der Website von den Crawlern reibungslos
erfasst und gespeichert werden können.
Generell bedeutet das zunächst, dass Ihre Website von einem Computerprogramm gefunden werden soll.
Das Programm muss zudem in der Lage sein, die Inhalte Ihrer Website in Kategorien einzusortieren. Das
ist die Voraussetzung dafür, dass Suchmaschinen die Inhalte bei passenden Suchanfragen überhaupt
finden und in den SERPs auflisten können. Jedoch schaut sich der Crawler die Website nur eine bestimmte
Zeitspanne an. Bei wichtigen Seiten bleibt er länger, bei weniger wichtigen wie auch bei fehlerhaften
Seiten ist das Crawl-Budget schneller ausgeschöpft. Deswegen sollte es Ihr Ziel sein, dass keine Crawl-
Zeit vergeudet wird und der Bot Ihre wichtigsten Seiten tatsächlich erfassen kann.
Aber Sie optimieren Ihre Website nicht nur für die Searchbots, sondern hauptsächlich mit dem Blick auf
den Benutzer. Diese mögen keine lange Ladezeiten und Fehlerseiten enttäuschen sie. Die meisten Nutzer
geben Ihnen höchstens drei Sekunden ihrer Zeit, bevor sie den Ladevorgang abbrechen. Und wenn Sie
schon einmal bei einer Suchanfrage den vielversprechendsten Link herausgesucht haben, nur um auf einer
Fehlerseite zu landen, dann wollen Sie das Ihren Nutzern ersparen.
Voilà, und genau deswegen sollten Sie sich mit technischer SEO beschäftigen.
Wie technisch ist Technical SEO?
Beim Einmaleins der technischen SEO geht es nicht nur darum, die Website für die Crawler zugänglich zu
machen. Außerdem ist die Geschwindigkeit ein wichtiges Kriterium. Die Seiten sollen schnell laden und
sich auf jedem Gerät optimal lesen lassen, gleich ob der Nutzer an einem 16”-Monitor sitzt oder ein
kleines Mobiltelefon in der Hand hat. Es hört sich komplizierter an, als es im Endeffekt ist. Oft lassen sich
bereits mit einfachen Hebeln spürbare Effekte erzielen, beispielsweise der Komprimierung von Bildern.
Schließlich spielt die Übertragungssicherheit eine Rolle, beispielsweise durch die Umstellung von HTTP
auf das verschlüsselte Hypertext Transfer Protocol HTTPS. Obwohl die SSL-Verschlüsselung auch nur eine
relative und keine absolute Sicherheit bietet.
Um die Grundlagen der technischen SEO zu verstehen, brauchen Sie keine Programmierkenntnisse. Wenn
Sie allerdings vorhaben, tiefer in das Thema einzusteigen, sollten Sie sich dann doch mit einer der
gängigen Programmiersprachen oder Auszeichnungssprachen beschäftigen.
Ideal wären Grundkenntnisse in den Auszeichnungssprachen HTML und CSS. Außerdem hat die
Skriptsprache PHP eine zentrale Bedeutung für Webanwendungen.
Gibt es sowas zum Selbermachen?
Ja. Zu den Basics, die Sie selbst in die Hand nehmen können, gehören beispielsweise
• Crawlbarkeit und Indexierbarkeit der Website unterstützen
• Ladezeiten optimieren
• auf HTTPS umstellen
• Redirects einrichten
Am anderen Ende der Fahnenstange steht die Optimierung von JavaScript-basierten Webseiten und die
manuelle Serverkonfiguration. Aber wenn Sie an dem Punkt sind, dass Sie sich für solche Fragen
interessieren, lesen Sie sicherlich keine SEO-Tutorials mehr, sondern verfassen selbst welche.
In den nächsten Beiträgen zu technischer SEO erwarten Sie also reine Grundlagenthemen. Dazu gehören
die Datei robots.txt, die verschiedene Arten von Sitemaps und die Behandlung von Redirects. Sprich,
neben HTML- und XML-Site-Maps schauen wir uns die verschiedenen Fehlercodes auf Webseiten genauer
an und klären, wie sich durch permanente oder temporäre Weiterleitungen die Benutzererfahrung
verbessern und die Autorität stillgelegter Seiten erhalten lässt. Hierfür benötigen Sie weder
Programmierkenntnisse noch großartiges technisches Verständnis. Zudem können Sie einen Großteil der
Arbeit bequem von Tools erledigen lassen.
Natürlich umfasst Technisches SEO mehr als diese Punkte. Zu dem Bereich gehört beispielsweise, dass
Sie sich Gedanken machen, wie Sie Ihre Inhalte in eine sinnvolle Baumstruktur ordnen. Weitere Themen
sind URL-Design und interne Links. Außerdem sollten wir uns Rich Snippets, Bilder-SEO und Caching
anschauen, nur um hier einige Stichworte hinzuwerfen. Aber alles zu seiner Zeit. Im Moment sind wir noch
bei den SEO-Basics.
Lehnen wir uns also entspannt zurück und schauen uns erst einmal an, was den Unterschied zwischen
HTML- und XML-Sitemaps ausmacht.
Sitemaps. Ein Hauch Technik
Beim Surfen im Internet sind Sie sicherlich schon einmal auf eine Sitemap gestoßen. Die Sitemap gibt
dem Besucher eine Orientierung über die URLs der Website. Sie sehen dort auf einen Blick, welche
Unterseiten bzw. Kategorien zu der Website gehören.
Abbildung 32: Beispiel für eine HTML-Sitemap [Quelle: https://www.zdf.de/sitemap-102.html ]
Aber wussten Sie, dass es spezielle Sitemaps für Suchmaschinenroboter gibt? Das sind Sitemaps im XML-
Format. Diese sollen die Crawler zu den wichtigsten URLs Ihrer Internetpräsenz leiten und sicherstellen,
dass die Bots beim Indexieren nichts übersehen.
Abbildung 33: Ausschnitt aus einer XML-Sitemap
Wir haben es also mit zwei Versionen der Sitemap zu tun. HTML und XML. Es gibt noch weitere Varianten,
beispielsweise das Textformat (.txt), oder die um den RSS Feed erweiterte XML-Datei (ror.xml). Jedoch
werden diese selten gebraucht und wir lassen sie im SEO-Basics-Tutorial deswegen links liegen.
Kleiner Exkurs
HTML wie auch XML sind Auszeichnungssprachen, keine Programmiersprachen. Das heißt, Sie können damit
Texte formatieren, jedoch keine Logik implementieren. Während die Tags von HTML festgelegt sind, bietet
XML dem Entwickler die Möglichkeit, sich seine Tags selbst zu definieren. Obwohl sich XML Dateien in jedem
Texteditor öffnen lassen, sind sie nicht dafür konzipiert, von Menschen gelesen zu werden.
Unterschied zwischen HTML- und XML-Sitemaps
Zurück zu unseren Sitemaps. Der Hauptunterschied zwischen den beiden Versionen ist, dass sich HTML-
Sitemaps leicht von Benutzern lesen lassen, während XML-Sitemaps für Suchmaschinen geschrieben
sind und eine Reihe von Hintergrundinformationen enthalten. Dazu gehört beispielsweise, wann die Seite
zuletzt aktualisiert wurde, wie oft sich die Seite ändert und welche Priorität die Seite im Vergleich mit den
anderen Unterseiten hat. Die Bots können den Inhalt so auf logischere Weise analysieren.
Eine XML-Sitemap ist zum einen bei sehr umfangreichen oder verschachtelten Websites nützlich, um dem
Bot auf direktem Wege zu den wichtigsten URLs zu leiten. Zum anderen hilft sie neuen oder wenig
verlinkten Websites von den Bots gefunden zu werden. Das liegt in der Art und Weise begründet, wie die
Suchmaschinenroboter arbeiten: diese crawlen sich durch das Internet, indem sie Links folgen. Neue
Websites haben von Natur aus keine Backlinks, da sie sich diese erst verdienen müssen. Wenn Sie Google
nicht Bescheid geben, dass Ihre Website existiert, kann es also eine Weile dauern, bis der Bot
vorbeikommt.
Nun brauchen Sie aber nicht lange auf den Bot warten, denn Sie erstellen sich mit einem Sitemap-
Generator sehr unkompliziert eine XML-Sitemap. Danach melden Sie sich kostenlos in der Google Search
Console oder in den Bing Webmaster-Tools an und laden Ihre Sitemap hoch. Damit haben Sie die
Suchmaschinen von der Existenz Ihrer neuen Website informiert.
Weiter unten in diesem Artikel bekommen Sie mehr Informationen dazu, wie das mit dem Erstellen und
Hochladen genau funktioniert.
Brauche ich Sitemaps? Und wenn ja, welche?
Mit einer XML-Sitemap unterstützen Sie die Suchmaschinen-Roboter beim Crawlen. Deswegen lauten
die Empfehlungen der SEO-Manager normalerweise, dass Sie eine XML-Sitemap erstellen sollten, zudem
das ein simpler Vorgang ist.
Jedoch gibt es auch einige negative Aspekte von XML-Sitemaps:
Wenn eine Suchmaschine Ihre Website crawlt und bestimmte Seiten nicht indiziert, sagt Ihnen
das, dass es eine Schwachstelle gibt. Sei es aufgrund von Problemen mit der Webseiten-
Architektur, unzureichendem Inhalt, usw. Mit einer Sitemap hingegen können Sie die
Suchmaschine auf sämtliche URLs Ihrer Website hinweisen. Auch auf solche, die ihr sonst
verborgen blieben. Und als Ergebnis übersehen Sie Ihre Schwachstelle.
Außerdem möchten Sie vielleicht nicht, dass Ihre Konkurrenz erfährt, welche Priorität die
einzelnen URLs für Sie haben. Denn auf die gleiche Weise, wie Sie einen Sitemaps-Generator für
Ihre eigene Website nutzen, können Sie ihn auch auf fremde Websites loslassen.
Ein weiterer Aspekt ist, dass Sie Ihre Sitemap aktuell halten sollten. Bei statischen Sitemaps hätten
Sie ein Problem, sobald sich eine URL ändert oder eine neue URL hinzukommt.
Letztendlich überwiegen jedoch die Vorteile deutlich, weswegen die Empfehlungen klar für eine XML-
Sitemap sprechen.
Bei der HTML-Sitemap sind die Gemüter gespalten. Google empfiehlt in seinen Webmaster Guidelines
neben der XML-Version auch einen Seitenindex „mit einer von Menschen lesbaren Liste mit Links“. Der
Vorteil ist, dass Nutzer bei einer unübersichtlichen Seite oder einem großen Webshop direkt zur HTML-
Sitemap gehen und dort suchen könnten. Der derzeitige Google-Guru Johannes Müller, Webmaster
Trends Analyst bei Google in Zürich, argumentiert hingegen: Der häufige Aufruf der HTML-Sitemap sei
ein Zeichen für mangelnde UX, da die Unterseiten über die normale Navigation bzw. die Suchfunktion
zugänglich sein sollten.
Kurz: Legen Sie gerne eine HTML-Sitemap an. Ein Nachteil wird Ihnen davon auf keinen Fall entstehen.
Jedoch dürfen Sie sich freuen, wenn Ihre Besucher diese Sitemap nicht benutzen.
Wie war das noch mit dem Erstellen?
Sie haben viele Möglichkeiten, zu einer XML-Sitemap zu kommen.
• Sie geben die URL Ihrer Website bei einem Online-Tool ein. Dieser Sitemap-Generator ist
einfach zu bedienen und wird häufig von SEO-Profis empfohlen. Auch rudimentäre Englischkenntnisse
reichen aus, um sich mit dem Tool zurechtzufinden. Allerdings fehlen der Seite die Impressumsangaben.
Man kann herausbekommen, dass die Website im Vereinigten Königreich registriert ist, aber ansonsten ist
nicht ersichtlich, wer hinter dem Tool steht. Vergessen Sie jedoch nicht, eine neue Sitemap zu erstellen
und einzureichen, wenn Sie etwas an Ihren URLs ändern! Wenn Sie wollen, können Sie den Job gegen
Bezahlung von der Pro-Version des Sitemap-Generators erledigen lassen.
• Variante Nummer zwei wäre ein Plug-in Ihres CMS zu nutzen. Sehr populär ist das Yoast
SEO-Plugin, welches unter anderem auf WordPress, Drupal und TYPO3 läuft. Für WordPress-Nutzer
könnte das leistungsfähige Rank Math die bessere Alternative zu Yoast sein, da es kostenfrei Funktionen
liefert, die bei Yoast nur in der Premium-Version zu haben sind. Wie auch immer, solche Plug-ins sind
leicht zu bedienen und für Einsteiger ideal. Wer trotzdem noch Unterstützung mag, findet im Internet
viele gute Schritt-für-Schritt-Anleitungen zur Bedienung solcher Plug-ins. Zudem haben Sie bei solchen
CMS-Plug-ins den Vorteil, dass Sie sich nicht um die Aktualisierung Ihrer Sitemap kümmern müssen und
davon ausgehen können, dass die Datei (normalerweise) keine Fehler enthält.
• Wenn Sie tiefer in SEO einsteigen wollen, lohnt sich die Arbeit mit dem Crawler Screaming
Frog, der bereits als kostenlose Version gute Dienste leistet. Beispielsweise beim Sitemap-Erstellen,
obwohl das Tool eigentlich für andere Zwecke gedacht ist. Screaming Frog läuft nicht im Browser,
sondern wird heruntergeladen und lokal installiert. Der Crawler entwickelt sich in der SEO-Branche immer
mehr zu einem Standard für OnPage-Analysen.
Der Backlink-Tool-Anbieter Ahrefs hält Sitemap Generatoren für unzuverlässig und empfiehlt in seinem
Blog, die Sitemap über ein CMS-Plugin oder das Tool Streaming Frog zu erstellen.
Danach: Sitemap auf die Website hochladen
Bevor Sie Google über die Existenz Ihrer XML-Sitemap informieren, müssen Sie diese auf Ihren Webspace
hochladen.
Da sich die Sitemap nur auf die untergeordneten Elemente des Verzeichnisses auswirkt, sollten Sie die
Datei also im Hauptverzeichnis Ihrer Website ablegen. Bei manuell generierten Sitemaps bemühen Sie
nun Ihr FTP-Programm. Für diejenigen, die ein CMS-Plug-in nutzen, entfällt der Schritt, weil das Plug-in
die Sitemap standardmäßig im Hauptverzeichnis ablegt.
Was Sie sonst noch wissen sollten
Nichts ist perfekt und auch in XML-Sitemaps schleichen sich manchmal Fehler ein. Unter anderem kann so
etwas auftreten:
Sitemap ist zu groß
Die unkomprimierte Sitemap darf höchstens 50 MB groß sein und nicht mehr als 50.000
URLs enthalten.
Ihre robots.txt Datei blockiert den Zugriff auf URLs
In der Sitemap sind 404- oder 410-Fehlerseiten oder Weiterleitungen aufgelistet
Es gibt widersprüchliche Inhalte
Wenn von einer Seite mehrere Versionen existieren, sollten Sie die kanonische Version
festlegen und nur diese in die Sitemap aufnehmen. Seiten, die mit einem Canonical Tag auf
eine andere Seite verweisen, haben in der Sitemap nichts zu suchen.
Es ist eine gute Idee, die Datei mit einem geeigneten Tool auf Fehler zu überprüfen, bevor Sie sie bei der
Google Search Console einreichen. Suchen Sie zu diesem Zweck nach einem Sitemap Validator oder
Sitemap Checker. Sie werden noch weitere gute Seiten finden, auf denen Sie die Validität Ihrer Sitemap
überprüfen können.
Noch ein kleiner Exkurs
Ein Konstrukt ist "kanonisch", wenn es zwar eine Auswahl unter mehreren Möglichkeiten gibt, aber eine
Möglichkeit als einfachste und natürliche Variante heraussticht.
Wie kommen die Sitemaps zu Google?
Die Sitemap ist erstellt und befindet sich im Hauptverzeichnis Ihrer Website. Nun ist es Zeit, Google
Bescheid zu geben. Auch hier haben Sie wieder mehrere Optionen:
Variante 1
Der Sitemaps-Bericht. Melden Sie sich dafür in der Google Search Console an. In der linken
Navigationsleiste finden Sie den Reiter “Sitemaps”. Der Rest ist selbsterklärend. Sie senden die Sitemap-
URL ab und können an Ort und Stelle überprüfen, wann die Sitemap das letzte Mal gelesen wurde und ob
dabei Fehler aufgetreten sind oder nicht.
Variante 2
Sie öffnen Ihren Browser und schicken Google einen “Ping”, indem Sie oben in der Befehlszeile folgendes
eingeben:
http://www.google.com/ping?sitemap=https://meinedomain.de/sitemap.xml
Wenn Sie beim Anpingen alles richtig gemacht haben, öffnet sich umgehend ein Fenster und Sie
bekommen die Rückmeldung “Sitemap-Benachrichtigung erhalten”.
Variante 3
Sie öffnen Ihre robots.txt Datei und schreiben die Adresse Ihres Sitemaps-Berichts hinein:
Sitemap: https://meinedomain.de/sitemap.xml
Achtung
Auch beim Eintippen Ihrer URL können Fehler unterlaufen. Damit diese Ihre Bemühungen nicht
zunichtemachen, beachten Sie insbesondere, dass die Crawler unterscheiden, ob eine URL groß- oder
kleingeschrieben wird.
Google führt in seinen Richtlinien für Sitemaps zudem an:
Abbildung 34: [Quelle: Google Webmaster Support ]
Nun sollten Sie die wesentlichen Informationen über Sitemaps an der Hand haben. Es gäbe natürlich noch
mehr zu sagen, beispielsweise über den Crawler Screaming Frog, über CMS Plug-ins oder einfach über
Sitemaps. Aber das muss erst einmal warten.
Für das SEO-Basics-Tutorial interessiert vielmehr die robots.txt Datei. Darum wird es im nächsten
Abschnitt gehen.
Wir zerlegen die robots.txt Datei
Neben der Sitemap gibt es noch eine weitere Methode, mit der Sie Searchbots steuern können. Bei
dieser Methode bedienen Sie sich der robots.txt Datei.
Die Bezeichnung robots.txt steht für ein Protokoll, mit welchem Sie definieren können, welche Ihrer
Webseiten der Bot crawlen soll und welche nicht. Jedoch gibt es bei der Datei auch einige
Einschränkungen. Was aber viel wichtiger ist: Man kann seine robots.txt leicht vermurksen.
Schauen wir deswegen einmal genauer hin.
Was ist eine robots.txt Datei?
Im Unterschied zu Sitemaps, die den Suchmaschinen mitteilen, welche Informationen in den
Suchergebnissen enthalten sein sollen, können Sie per robots.txt das Gegenteil erledigen. Soll heißen, die
Datei bietet Ihnen die Möglichkeit, Bereiche Ihrer Website explizit auszuklammern.
Das Protokoll stammt noch aus der Anfangszeit des Internets. Es sollte Roboter abhalten, in Verzeichnisse
vorzudringen, in denen sie nichts verloren hatten. Das Protokoll heißt heute einfach nur robots.txt und
steht für eine simple Textdatei, die Sie auf Ihren Webspace hochladen können.
Wenn der Bot den Quellcode einer Webseite auslesen möchte, sagen wir
www.SEO-Texte.de/Keyword-Ideen würde er vorher zu www.SEO-Texte.de/robots.txt gehen und
überprüfen, ob dort Anweisungen bezüglich der Unterseite Keyword-Ideen hinterlegt wurden. Wäre die
Unterseite per „Disallow“-Anweisung gesperrt, würde er sie nicht aufrufen.
Der Haken ist, dass es keine Garantie dafür gibt, dass der Bot den Anweisungen folgt.
Suchmaschinen wie Google, Bing oder Yahoo respektieren die Anweisungen der Datei normalerweise.
Jedoch werden viele Crawler auch zu bösartigen Zwecken konstruiert, beispielsweise um das Web nach
Sicherheitslücken zu durchforsten, damit sich Hacker Zugriff auf die Website verschaffen können. Andere
Roboter wiederum sammeln E-Mail-Adressen, um diese an Firmen oder Spammer zu verkaufen. Mit der
robots.txt werden Sie solche bösartigen Crawler nicht stoppen.
Vergessen Sie zudem nicht, dass robots.txt eine öffentlich zugängliche Datei ist. Das heißt, jeder kann
sehen, welche Verzeichnisse Ihrer Website Sie für Bots gesperrt haben. Schauen Sie sich doch
spaßeshalber robots.txt-Dateien verschiedener Websites an.
Wo liegt die Datei?
Die robots.txt gehört in das Hauptverzeichnis einer Domain. Ob Sie solch eine Datei haben oder nicht,
können Sie am schnellsten mit dieser Eingabe herausfinden:
www.HierDerNameIhrerDomain.de/robots.txt
Wenn Sie noch keine robots.txt Datei haben und sich eine erstellen wollen, dann achten Sie immer darauf,
die Datei in das root-Verzeichnis hochzuladen. Also
www.MeineDomain.de/robots.txt statt www.MeineDomain.de/unterseite/robots.txt
Wenn Sie die Datei nämlich an einer anderen Stelle als dem Hauptverzeichnis ablegen, werden die
Anweisungen der robots.txt ignoriert.
Braucht man eine robots.txt?
Kurze Antwort: Nein.
Die Aussage ist so auch beim offiziellen Google-Support nachzulesen. Existiert keine robots.txt,
interpretieren die Bots dies als Erlaubnis, alle URLs Ihrer Domain zu crawlen. Die Wahrscheinlichkeit, dass
eine fehlende robots.txt-Datei zum Problem wird, ist sehr gering, denn dazu müsste außerdem der Server
falsch konfiguriert sein.
Längere Antwort: Die Meinungen, ob die robots.txt der Website tatsächlich nutzt oder nicht, gehen
etwas auseinander.
Einige SEOs finden die Datei überflüssig. Wenn eine Website gut strukturiert wäre, sodass Benutzer jede
Unterseite finden, dann könnte man das auch Crawlern zutrauen, argumentieren sie. Zum Verstecken von
Verzeichnissen eignet sie sich die robots.txt auch nur bedingt, wie wir gesehen haben.
Jedoch sprechen sich die meisten SEO-Profis für die Datei aus, da sie die “Crawlability” verbessere.
Insbesondere bei größeren Websites sei die Verwendung ratsam. Mit der robots.txt können Sie nicht nur
doppelte Inhalte, sondern auch interne Suchergebnisseiten oder Ressourcendateien vom Crawlen
ausschließen. Schließlich hilft Ihnen die Datei, das begrenzte Crawl-Budget des Bots optimal
auszunutzen, weil Sie mit ihr das Crawlen steuern können.
Wie erstelle ich eine robots.txt?
Es gibt unterschiedliche Wege, die zu einer robots.txt Datei führen. Der einfachste ist, die Datei mit einem
CMS-Plugin wie Yoast oder Rank Math zu erstellen. Diese Plug-ins liefern bereits bei der Erstellung von
Sitemaps zuverlässige Dienste.
Eine andere Möglichkeit wäre, einen robots.txt Generator zu nutzen. Die Google Suche liefert Ihnen
hierzu gleich mehrere Varianten, unter anderem den von Ryte, einem in München ansässigen SEO-
Unternehmen.
Der Vorteil von einem robots.txt Generator ist, dass er Syntaxfehler reduziert. Wie wir weiter unten sehen
werden, lässt sich eine Anweisung durch einen einfachen Schrägstrich in ihr Gegenteil verkehren.
Es ist sehr leicht, beim Schreiben der Datei gravierende Fehler zu machen.
Um eine robots-Datei detailliert zu konfigurieren, sollten Sie also genau wissen, was Sie tun. Wenn Sie
genau wissen, was Sie tun, brauchen Sie im Prinzip auch keine Plug-ins oder robots.txt-Generatoren,
sondern können die komplette Datei von Hand erstellen.
Benutzen Sie dafür jedoch einen Texteditor statt dem Programm Word, da die Datei im reinen
Dateiformat UTF-8 geschrieben sein muss.
Wie sieht die robots.txt aus?
Für die Datei gelten einige Format- und Syntaxregeln.
Zuerst einmal muss der Dateiname robots.txt kleingeschrieben werden.
Die Crawler unterscheiden zwischen Groß- und Kleinschreibung und würden die Datei bei einer
abweichenden Schreibweise nicht finden. Innerhalb der robots.txt gilt diese Unterscheidung auch für die
Pfadangaben. Es macht also einen Unterschied, ob das Verzeichnis “Urlaubsfotos” oder “urlaubsfotos”
heißt.
Generell sollte jede neue Anweisung in einer neuen Zeile stehen.
Der Vollständigkeit halber füge ich hier den Link zu Googles offiziellen robots.txt-Spezifikationen hinzu.
Dort finden Sie die vollständige Syntax. Allerdings wird sich das Dokument für SEO-Einsteiger wohl eher
wie ein Telefonbuch lesen.
https://developers.google.com/search/reference/robots_txt
Diese Online-Dokumentation ist nutzerfreundlicher:
https://wiki.selfhtml.org/wiki/Grundlagen/Robots.txt
Um Ihnen einen kleinen Einblick zu verschaffen, stelle ich Ihnen nun einige simple Grundregeln vor:
Die Raute # aka Hashtag aka Schweinegatter
Die Raute leitet einen Kommentar ein.
User Agent:
Innerhalb einer robots.txt-Datei muss mindestens eine Zeile mit User-agent: beginnen. Mit User Agent ist
der Name des Bots gemeint, beispielsweise Bingbot oder Twitterbot. Hiermit lassen sich abweichende
Anweisungen für unterschiedliche Suchroboter definieren, wofür es meistens jedoch keinen wirklichen
Grund gibt.
Wollen Sie Regeln für mehrere bestimmte Bots hinterlegen, können Sie die Bots nur einzeln ansprechen.
Sie brauchen dann für jeden Bot eine separate Zeile, die Sie mit User-agent: einleiten.
Hier ein Beispiel:
Disallow: und Allow:
Disallow weist die Searchbots an, bestimmten Inhalt nicht zu crawlen.
Bleibt Disallow leer, heißt das so viel wie „kein Disallow“. Die folgende Anweisung erlaubt den Bots also
den vollständigen Zugriff, obwohl sie „Disallow“ heißt:
Hier ist das Verzeichnis “privater-ordner” mit Ausnahme des Unterverzeichnisses “Gruppenfoto” für alle
Bots gesperrt:
/Wie Sie einen Pfad korrekt auszeichnen/
Ein Pfad beginnt mit einem Schrägstrich und endet mit einem Schrägstrich. Hier geschieht es häufig, dass
Nutzer den zweiten Schrägstrich vergessen.
Fehlt jedoch der schließende Schrägstrich, interpretiert der Bot die Angabe „weiträumig“.
Sitemap:
Die robots.txt eignet sich gut dafür, Crawler auf die Sitemap einer Website hinzuweisen. Eröffnen Sie den
Verweis mit der Anweisung “Sitemap:” gefolgt von der vollständigen URL.
Sie können die URL an einer beliebigen Stelle in der robots.txt angeben.
Meine erste robots.txt )
Eine einfache robots.txt lässt sich im Handumdrehen schreiben. Die simpelste aller Varianten besteht aus
zwei Zeilen. Indem Sie die Anweisung “Disallow:” leer lassen – frei übersetzt mit “wir verbieten nichts” –
erlauben Sie allen Searchbots, die komplette Website zu crawlen. Um der Datei etwas mehr Sinn zu
verleihen, als den, dass sie im Hauptverzeichnis herumliegt und gut aussieht, weisen Sie in einer dritten
Zeile noch auf die Existenz Ihre Sitemap hin. (Wie Sie eine Sitemap erstellen, stand im vorangegangenen
Beitrag). Damit sieht Ihre robots.txt-Datei so aus:
Die Sache mit der Noindex-Anweisung
Die Datei robots.txt wird manchmal mit der Noindex-Anweisung in Verbindung gebracht. Allerdings
haben die beiden Methoden, bestimmte Verzeichnisse vor den Crawlern zu sperren, nichts miteinander zu
tun.
Zuerst einmal ist es wichtig, zwischen Crawlen und Indexieren zu unterscheiden. Die Unterscheidung
spielt eine große Rolle. Während Crawlen so viel bedeutet wie Quellcode auslesen und Daten sammeln,
bezeichnet Indexieren das Sortieren der Daten und das Einordnen in das Register. Und die Aufgabe der
robots.txt ist ganz klar, das Crawlen zu steuern. Ein Disallow einer URL in der robots.txt hat zur Folge,
dass der Crawler die Inhalte nicht anschauen würde.
Noindex hingegen verhindert nicht das “Anschauen” der Inhalte, sondern nur, dass die Inhalte im Index
gelistet werden. Ein Roboter kann die Seite jedoch weiterhin crawlen, was bedeutet, dass er auf den Inhalt
der Seite zugreifen und den Links folgen kann.
Das Lustige an der Sache ist nun, dass es eine Seite trotz einer Disallow-Anweisung in den Index schaffen
kann. Wie das möglich ist? Weil bereits andere Webseiten einen Link zu dieser Seite gesetzt haben.
Searchbots kriechen doch von Link zu Link durch das Internet. Natürlich wird die Seite in dem Fall nicht
schön optimiert in den Suchergebnisseiten erscheinen, da der Bot die Seite nicht crawlen durfte und
deshalb nichts über sie weiß. Alles, was von ihr zu sehen sein wird, ist das, was sich der Bot aus anderen
Quellen zusammenklauben konnte, meist also nur URL und Ankertext.
Also Noindex und Disallow gleichzeitig benutzen?
Die Probleme entstehen, wenn Sie Disallow und Noindex gleichzeitig anwenden möchten. Meistens
steckt dahinter die Absicht, eine Website, die bereits in den Suchergebnissen erscheint, aus diesen zu
entfernen. Wenn der Roboter aber wegen der Disallow-Anweisung nicht zu dieser URL crawlen darf, kann
er die Seite nicht anschauen und sieht deswegen nicht, dass sich dort im Meta-Robots-Tag eine Noindex-
Anweisung befindet. Richtig wäre, die Seite zuerst nur auf noindex zu setzen und abzuwarten, bis Google
sie aus dem Suchindex entfernt hat. Erst danach kann das disallow angewendet werden.
Die Noindex-Anweisung gehört übrigens in den Kopfbereich des Quelltextes einer Webseite, also dort, wo
die Meta-Angaben stehen. Einige SEOs benutzten die Noindex-Anweisung in der robots.txt, aber laut
Google wird die Anweisung an der Stelle nicht mehr beachtet.
Es gäbe noch mehr über die robots.txt zu sagen, auch im Zusammenhang mit der Noindex-Anweisung.
Das würde aus dem Beitrag über SEO-Basics jedoch einen über fortgeschrittene SEO machen, weswegen
das erst einmal warten muss. Wichtiger ist, sich als nächstes solche Dinge wie 404-Fehlercodes und
Redirects, auf Deutsch, die Weiterleitungen anzuschauen.
Fehlerseiten
Error 404 – Seite nicht gefunden. Wer ist ihr beim Surfen noch nicht begegnet, der 404-Fehlerseite?
Den Besucher Ihrer Webadresse ärgert es. Doch das ist nur das eine Problem, denn Fehlercodes haben
daneben auch Konsequenzen für die Suchmaschinenoptimierung. Darum soll es im Folgenden gehen.
Wozu dient ein Fehlercode?
Hinter jedem Fehler steht ein bestimmter dreistelliger Code. Der Code gibt Suchmaschinen und
Entwicklern nähere Informationen darüber, was beim Laden der Webseite schief lief. Diese Codes werden
als HTTP-Statuscodes bezeichnet.
Wenn eine Suchmaschine oder ein Nutzer eine bestimmte Seite auf dem Webserver anfordern, aber der
Webserver nicht in der Lage ist, diese Seite zurückzugeben, liefert er einen Fehlercode aus. Von diesen
gibt es zwei Arten. Die einen beginnen mit 4xx, die anderen mit 5xx. Erstere bezeichnen Client-Fehler,
letztere serverseitige Fehler.
Im Gegensatz zu den Fehlermeldungen steht der HTTP-Statuscode 200. Das heißt „OK“ und bedeutet,
dass der Server die Anfrage des Clients erfolgreich bearbeiten konnte. Dieser Code ist der am weitesten
verbreitete.
Schauen wir uns einmal die häufigsten Fehlercodes an, auf die ein Benutzer im Internet stoßen kann.
Abbildung 35: Kreative 404-Fehlerseite. [ Quelle: https://t3n.de/news/404-error-in-kreativ-333407/ ]
Die 404-Fehlerseite und wie Sie mit Ihr umgehen
Der Code 404 bedeutet, dass eine Seite nicht mehr existiert oder noch nie existiert hat. 404-Fehlerseiten
sind weit verbreitet. Wenn Suchmaschinen auf eine 404-Seite stoßen, erkennen sie, dass diese Seite nicht
mehr verfügbar ist und werden sie nach einer gewissen Zeit aus ihrem Index löschen.
So eine 404-Fehlerseite wird automatisch generiert. Allerdings fehlt der Meldung jeglicher Charme,
weswegen Sie gut daran tun, wenn Sie sich eine eigene 404-Fehlerseite erstellen. Erstens können Sie ein
hübsches Bild einfügen. Zweitens haben Sie die Chance, den Nutzer auf Ihrer Website zu halten. Bieten
Sie ihm beispielsweise eine Suchfunktion an.
Auch aus SEO-Sicht ist das von Vorteil, da ein Suchmaschinenroboter ebenfalls diesen Weg nehmen und
der Verlinkung auf andere Inhalte Ihrer Website folgen wird.
Liefern Sie dem Benutzer auch eine kurze Erklärung, warum die Seite nicht verfügbar ist. Hilfreich ist auch
ein Call-to-Action, der ihm die nächste Handlung vorschlägt. Kurz, je mehr nützliche Inhalte Sie auf dieser
Seite anzeigen, desto wahrscheinlicher ist es, dass ein Benutzer auf Ihrer Webpräsenz bleibt.
Es gibt eine Vielzahl von Tools oder Plug-ins, mit denen Sie eine eigene 404-Fehlerseite basteln können.
Hier ein Beispiel einer sehr eigenen 404-Fehlerseite:
Abbildung 36: [ Quelle: https://t3n.de/news/404-error-in-kreativ-333407/ ]
Tückisch: Der Soft 404-Fehler
Ein “normaler” 404-Fehler hat keine negativen Auswirkungen auf das Ranking der Website. Allerdings gibt
es neben diesem “harten” 404-Fehler noch den Soft 404-Fehler. Hier sendet der Server statt der
Fehlermeldung einen Code “200 / ok”, obwohl die betreffende URL leer ist. So etwas tritt häufig in Online-
Shops auf, wenn ein Produkt nicht mehr im Sortiment ist, jedoch die zugehörige Produktseite weiter
existiert. Ein anderer Kandidat für Soft 404-Fehler sind Immobilienseiten, die ein Angebot aus ihrem
Katalog entfernt haben, jedoch nicht dessen URL.
Das Szenario bei einer Soft 404-Fehlerseite kann sich unterscheiden. Entweder wird dem Nutzer eine
blanke Webseite, eine 404-Fehlermeldung, oder die Startseite gezeigt. Auf jeden Fall sieht er nicht das,
wonach er gesucht hat und ist verärgert. Die Quittung kommt in Form einer hohen Absprungrate.
Seiten, die einen Soft 404-Fehler verursachen, dürften eigentlich nicht mehr vorhanden sein. Aber sie sind
noch da und machen Ihrer SEO Probleme. Der Grund ist, dass die Suchmaschinen das „OK“ des Servers
sehen und diese URLs als normale Seiten mit Content einordnen. Die Crawler verschwenden bei
derartigen Seiten ihr Crawl-Budget.
Auch Soft 404-Fehlerseiten, die eine kurze Nachricht wie „Produkt nicht mehr lieferbar“ ausspielen, sind
aus SEO-Sicht negativ. Suchmaschinen sähen die Nachricht bei jedem Produkt, welches nicht mehr auf
Lager ist. Überlegen Sie sich einmal, dass jede dieser Produktseiten einen Statuscode 200 „ok“ meldet.
Das ergibt eine Menge Duplicate Content.
Wie Sie Soft 404-Fehler beheben
Zuerst einmal: Behalten Sie die Möglichkeit von Soft 404-Fehlern im Auge, wenn Sie beispielsweise eine
Immobilien- oder eine E-Commerce-Site aufbauen. Überlegen Sie sich im Vorfeld, wie Sie Seiten über
Produkte behandeln, welche nicht mehr im Sortiment sind.
Wenn das Problem schon im Haus ist, haben Sie mehrere Optionen, wie Sie so einen Soft 404-Fehler
beheben können.
• Wenn Sie eine URL für eine Seite haben, die nicht mehr vorhanden ist, konfigurieren Sie sie
so, dass eine richtige 404-Fehlerseite zurückgegeben wird. Mit anderen Worten: Richten Sie eine
ordentliche 404-Weiterleitung ein. Zum einen riskieren Sie im Gegensatz zu Soft 404 keine Einbußen im
Ranking (siehe Google Support) und zum anderen werden Suchmaschinen die fehlerhafte URL nach einer
gewissen Zeit aus ihrem Index löschen.
• Eine zweite Möglichkeit, einen Soft 404-Fehler zu beheben, ist eine Weiterleitung auf eine
funktionierende URL. Kommen Sie aber bitte nicht auf den Gedanken, hierfür die Startseite zu nehmen.
Der Nutzer ist schließlich auf der Seite gelandet, weil er nach etwas Bestimmtem gesucht hat. Sie sollten
ihn deswegen zu etwas leiten, was seiner ursprünglichen Suche am nächsten kommt, wie eine ähnliche
Produktseite oder, wenn es diese nicht gibt, die Kategorieseite. Weiterleitungen eignen sich vor allem,
wenn die betreffende Seite bereits Backlinks bekommen hat. Auf diese Weise können Sie versuchen, sich
die Autorität der Seite zu bewahren.
Als dritte Variante könnten Sie den Soft 404-Fehler beheben, indem Sie die Seite mit neuem
Content füllen. Doch arbeiten Sie wie bei der vorherigen Lösung darauf hin, dass der neue Inhalt
dem alten möglichst ähnelt.
Wie Sie 404-Fehlerseiten erkennen
Eine einfache Möglichkeit, Fehlercodes zu erkennen, ist über die Google Search Console. Diese
informiert Sie über alle erkannten Fehlerseiten, inklusive möglicher Soft 404.
Nutzen Sie einen SEO Crawler wie Screaming Frog oder Xenu‘s Link Sleuth, um „harte“ 404-
Fehlerseiten zu erkennen
Onpage-Analysen über die klassischen SEO-Tools wie Xovi, Sistrix oder Searchmetrics zeigen
Ihnen ebenfalls die Schwachstellen Ihrer Website
Seiten mit einem Soft 404 Fehler sind schwierig zu entdecken, da sie optisch wie ein normaler 404 Fehler
aussehen, aber den Server-Status „200“ übertragen. Crawling-Tools erkennen „harte“ 404-Fehlerseiten,
jedoch keine Soft 404s. Sie können Crawling-Tools aber verwenden, um etwas anderes zu erkennen.
Etwas, was zum Soft 404-Fehler in direktem Bezug steht: Duplicate Content und Thin Content.
Thin Content, also „dünner Inhalt“, sind Seiten geringer Qualität. Sie bieten dem Nutzer keinen Wert.
Google straft solche Seiten ab, jedoch nicht ohne den Webmaster über die Google Search Console zu
warnen.
Wenn Sie sichergehen wollen, alle Soft 404-Fehler auf Ihrer Website zu erfassen, dann nutzen Sie die
Google Search Console.
Zum Schluss kurz angerissen: 5xx Fehler
Ein weiterer häufiger Statuscode ist 500, der Serverfehler. Dies ist eher eine allgemeine Bezeichnung, da
der Server keine genaueren Angaben darüber machen kann, was den Fehler verursacht hat. Oft sind
solche Fehler nur vorübergehend und lösen sich von alleine auf. Wenn der Fehler allerdings weiterhin
besteht, wird sich der WebEntwickler die Serverprotokolle ansehen müssen.
Ein 503-Fehlercode spezifiziert einen vorübergehenden Fehler. Er tritt beispielsweise bei einem
Serverausfall, Wartungsarbeiten oder einer vorübergehenden Serverüberlastung auf. Mit dem Code 503
werden Suchmaschinen informiert, dass es sich um ein vorübergehendes Problem handelt.
Wenn Sie einen Server aus irgendeinem Grund herunterfahren, ist es wichtig, dass ein 503 statt eines 500
zurückgegeben wird.
Fazit
Wie Sie sehen, treten Fehlermeldungen häufig auf und sind nicht per se etwas Schlechtes. Eine Ausnahme
sind die Soft 404-Fehlerseiten. Diese gilt es zu vermeiden, da die Nutzererfahrung wie auch das Ranking
darunter leiden. Solche “falschen” 404-Fehler kommen oft bei Online-Shops vor. Wenn Sie Shop-Besitzer
sind, dann sollten Sie Ihre Webadresse mit Hilfe der Google Search Console regelmäßig auf Soft 404-
Fehler überprüfen.
-----
Nachdem wir die wichtigsten Fehlermeldungen angerissen haben, schauen wir uns im nächsten Abschnitt
kurz die 3xx-Statuscodes für Redirects an, vor allem die temporäre und die permanente Weiterleitung.
Weiterleitungen
In diesem Abschnitt geht es um drei Arten von Redirects – die permanente Weiterleitung, die temporäre
Weiterleitung und das Meta-Refresh-Element. Wir klären die Begriffe, die Anwendungsmöglichkeiten und
wir sprechen darüber, was es bei der 301-Weiterleitung zu beachten gibt.
Was ist eine Redirection?
Weiterleitungen zählen zu den HTTP-Statuscodes und werden als dreistellige Zahl dargestellt. Sie
beginnen mit der Ziffer 3xx.
Spätestens, wenn Sie eine Seite von ihrer Webpage entfernen oder die Seite durch eine aktuellere
ersetzen wollen, werden Sie sie schätzen lernen. Mit einem Redirect können Sie nicht nur Ihre Besucher
direkt auf die neue Seite weiterleiten. Vor allem nehmen Sie auch die mühsam erarbeitete Reputation mit
zur neuen Adresse.
Über den 3xx HTTP-Statuscode teilt der Server der Suchmaschine mit, wie sie die URL in Zukunft
behandeln soll. Das erfolgt automatisch, so dass die Benutzer meist nicht einmal etwas davon bemerken.
Es gibt viele Arten von Weiterleitungen. Die wichtigsten, die Sie kennen sollten sind
• permanente Weiterleitung, bzw. den 301 HTTP-Statuscode
• die temporäre Weiterleitung, bzw. den 302 HTTP-Statuscode
• die 307-Weiterleitung als neuere Version des 302-Codes
In der Regel werden Sie es aber mit dem 301-Redirect und dem 302-Redirect zu tun haben.
Permanente Weiterleitung
In den meisten Fällen werden Sie eine permanente Weiterleitung, die 301-Redirect verwenden. Diese teilt
den Suchmaschinen mit, dass die alte Seite nicht mehr existiert und die neue Adresse die alte dauerhaft
ersetzt. Suchmaschinen indexieren von nun an die Zielseite.
Die 301-Weiterleitung können Sie problemlos nutzen, ohne befürchten zu müssen, dass Google Ihre Seite
herunterstuft. Im Gegenteil, das Vertrauen, dass die alte Seite erworben hat, wird auf die neue URL
übertragen. Sie vererben sogar die Backlink-Power.
Das schlägt sich natürlich auch im Ranking nieder.
Temporäre Weiterleitungen
Eine befristete Weiterleitung würden Sie einsetzen, wenn Sie beispielsweise Wartungsarbeiten wie ein
Update oder einen Serverumzug durchführen. Da die Weiterleitung nur eine begrenzte Zeit dauert, soll
keine Seitenautorität weitergeleitet werden. Suchmaschinen indexieren weiterhin die ursprüngliche Seite.
Ein 302-Redirect kommt allerdings recht selten vor.
307-Redirect
Ein Sonderfall der temporären Weiterleitung ist der 307-Redirect. Dieser kann sowohl serverseitig als auch
im Browser erfolgen.
Die serverseitige 307-Umleitung ähnelt stark der 302-Umleitung. Der Unterschied liegt in der HTTP-
Anfragemethode. Bei der 307-Redirect bleibt sie gleich, beim 302-Redirect hingegen darf sie von der
sichereren auf die unsicherere Methode wechseln.
Die Browsermeldung erscheint, wenn eine URL, für die HSTS aktiviert ist, unter http:// aufgerufen wird.
HSTS erzwingt den Aufruf von https:// . Falls die Seite per http:// angefordert wird, greift der Browser
automatisch auf die HTTPS-Version zu und interpretiert das als 307-Redirect.
Meta-Refresh
Eine eher seltene Art der Weiterleitung, von der Sie aber zumindest gehört haben sollten, ist das Meta-
Refresh-Element. Diese Methode funktioniert in der Regel langsamer und den Benutzern wird es
höchstwahrscheinlich auffallen, dass sie umgeleitet werden. Oftmals erscheint eine Nachricht wie “Wenn
Sie in fünf Sekunden nicht weitergeleitet werden, klicken Sie hier”.
Im Gegensatz zu den 301- und 302-Redirects wird kein HTTP-Statuscode ausgeliefert. Dies liegt daran,
dass nicht der Server, sondern der Browser die Umleitung vornimmt. Meta Redirects sind clientseitige
Redirects.
Ein Meta-Refresh wird im Kopfbereich einer Internetseite definiert. Das folgende Beispiel zeigt die
Umleitung zu der URL wiki.selfhtml.org. Der Redirect wird durch die Anweisung refresh veranlasst und
erfolgt nach einer Zeitdauer von 5 Sekunden, ausgedrückt durch content=“5; .
Abbildung 37: [ Quelle: https://wiki.selfhtml.org/wiki/HTML/Kopfdaten/ ]
Meta-Refresh-Umleitungen sind nicht empfehlenswert, da sie den Suchmaschinen keine eindeutigen
Signale darüber übermitteln, was mit der ursprünglichen Seite passiert ist. Außerdem stellen sie keine
gute Benutzererfahrung dar. Hinzu kommt, dass das Meta-Refresh-Element gerne von Spammern
verwendet wird. In den Augen der Suchmaschinen hat der Ruf des Meta-Refresh-Tags deswegen ziemlich
gelitten.
Google rät statt dessen, serverseitige Weiterleitungen wie 301 redirect und 302 redirect zu benutzen. Ein
Meta Refresh sollten Sie nur verwenden, wenn es nicht anders geht, das heißt, wenn Sie keinen Zugriff
auf die Konfiguration des Webservers haben.
Was es bei der 301-Redirect zu beachten gibt
Der Hauptgrund, eine 301-Weiterleitung zu empfehlen ist, dass die permanente Weiterleitung die
Linkpower bzw. die Seitenautorität mitnimmt. Trotzdem können durch Nachlässigkeit einige
Prozentpunkte der Seitenautorität auf der Strecke bleiben. Folgende Punkte gibt es zu beachten:
Interne Links anpassen
Wenn Sie eine Weiterleitung eingerichtet haben, sollten Sie Ihre interne Verlinkung aktualisieren. Anstatt
weiterhin auf die alte Seite zu verweisen, sollten alle internen Links die Daten der neue URL enthalten. Die
301-Redirect muss selbstverständlich weiterhin bestehen bleiben, da sämtliche externe Links weiterhin
der ursprünglichen Seite gelten. Ihre interne Verlinkung sollten Sie jedoch immer entsprechend anpassen.
Redirect-Ketten vermeiden
Vielleicht haben Sie in der Vergangenheit von Seite A zu Seite B umgeleitet und später entschieden, dass
B ist nicht mehr gültig ist. Wenn Sie nun auf die Idee kommen, von Seite B auf Seite C umzuleiten, dann
entspräche das keiner guten SEO-Praxis. Nicht nur, dass das eine Verschwendung von Crawl-Budget
gleichkommt, sondern es entsteht durch die Weiterleitung auch eine gewisse Verzögerung. Das bedeutet,
dass die Ladezeit für die URL mit zunehmender Kettenlänge steigt. Ein bis zwei Redirects sind noch
normal. Wird es deutlich länger, hört der Searchbot auf, der Kette zu folgen.
Eine gute Praxis ist es deswegen, stattdessen direkt von Seite A auf Seite C umzuleiten und zusätzlich
ein Redirect von Seite B auf Seite C einzurichten. Weiterleitungs-Ketten treten häufig bei Websites auf,
die mehrere Redesigns durchlaufen haben und sind etwas, worauf Sie bei der Überprüfung einer Website
achten sollten. Hierfür gibt es beispielsweise Tools (“Redirect Checker”), oder Sie nutzen den Screaming
Frog SEO Spider.
Nicht auf die Homepage umleiten
Wählen Sie als Weiterleitungsziel eine Webseite, deren Thema und Inhalt der vorherigen am ehesten
entsprechen.
Machen Sie nicht den Fehler, auf Ihre Homepage umzuleiten. Aus der Sicht einer Suchmaschine ist diese
nämlich semantisch irrelevant. Darüber hinaus führt diese Praxis zu einer schlechten Benutzererfahrung,
da der Benutzer erwartet, auf einer Seite zu landen, die zu seiner Suchanfrage passt. Stattdessen findet er
sich auf der Homepage und soll selbst herausfinden, was als nächstes zu tun ist? Leiten Sie nur dann zur
Homepage, wenn es keine Alternative gibt.
Die erste Wahl ist immer eine konkrete Webseite, die der alten am ähnlichsten ist. Wenn solch eine Seite
nicht existiert, dann käme eine Weiterleitung zu einer Kategorieseite in Frage. Erst wenn auch diese nicht
vorhanden ist, könnten Sie an die Weiterleitung zur Homepage denken.
Redirect einrichten
Jetzt fragen Sie sich wahrscheinlich, wie Sie ein Redirect am einfachsten einrichten.
In WordPress gibt es dafür bedienerfreundliche kleine Plug-ins wie Simple 301 Redirects oder
Redirection. Oder Sie nutzen den Umleitungsmanager des SEO-Plugins Rank Math, der vor allem bei
großen Datenmengen sehr nützlich ist.
Wenn Sie selbst Hand an Ihre .htaccess Datei legen wollen, dann hilft Ihnen ein 301 Redirect Generator
dabei, den Befehl syntaktisch korrekt zu tippen. Die .htaccess Datei finden Sie im FTP-Server, im
Hauptverzeichnis Ihrer Domain.
Erstellen Sie aber bitte unbedingt ein Backup, bevor Sie Änderungen an der Datei vornehmen!
Ausblick
Das soll vorerst zu den Grundlagen der SEO genügen.
Es wird Zeit, sich einem ziemlich essenziellen Thema zuzuwenden: der Keyword-Recherche. Die wird uns
im zweiten Teil des SEO-Tutorials beschäftigen.
Das zweite Tutorial ist im Aufbau und wird nach Fertigstellung an gleicher Stelle zum Download
bereitgestellt. Bis dahin können Sie die Themen im Blog verfolgen.
Ich freue mich über Anregungen oder Fragen. Schreiben Sie mir direkt an
oder nutzen Sie das Kontaktformular auf meiner Website.