Seokomm 2016 Vortrag - Räume deine Website auf

Preview:

Citation preview

UNSER TEAM

Aufräumen ist angesagt: „Mach deine Webseite endlich sauber“

Aufräumen ist angesagt: „Mach deine Webseite endlich sauber“

Dein Gast ist Google: Du lädst Google praktisch zu dir nach Hause ein!

„Wo anfangen? “

„Ganz am Anfang: lerne deinen Gast kennen und verstehe, wie du ihn glücklich

machen kannst!“

„Crawling“

„Erste Hausaufgabe: verstehe wie Google crawlt“

Google Crawling Architektur

URL SUBMISSION

URL SCHEDULER

URL MANAGER 1

...

URL MANAGER N

URL SERVER

ROBOT 1

...

ROBOT Z

LOCAL DNSDATABASE

COOKIEDATABASE

BASEINDEXER

DAILYINDEXER

REAL TIMEINDEXER

ANCHOR MAPS

GLOBAL STATEMANAGER

LINKMAPS

CONTROLLER

PAGE RANKERS

CONTENT FILTERS

DUPSERVER

HISTORY LOGS

LINK LOGS

RTLOGREAL TIME

RTLOGDAILY

RTLOGBASE

STATUSLOGS

https://www.google.com/patents/US7725452

„Managing URLs Patent“

www.domain.com/index..html

www.domain.com/format.css

www.domain.com/category/artikel.php?id=4

..........

www.domain.com/category/artikel.php?id=2000

www.domain.com/category/javascript.js?id=4

URLS

CRAWL UNCRAWLED PAGES

IMPORTANCE

10

2

6

...

4

1

CRAWL TO SOFT LIMIT

DO ANY UNCRAWLED PAGES HAVE A HIGHER IMPORTANCE THEN ANY

CRAWLED PAGES

YES

NO

CRAWL EXISTING PAGES

https://www.google.com/patents/US7509315

„Google hat ein Elefantengedächtnis!“

RECORD

RECORD

...

...

...

RECORD

URL FINGERPRINT

TIMESTAMP

CRAWL STATUS

CONTENT CHECKSUM

LINK CHECKSUM

SOURCE ID

DOWNLOAD TIME

ERROR CONDITION

SEGMENT ID

PAGE RANK

...

...

...

RECORD

RECORD

...

...

...

RECORD

URL

PAGE RANK

CRAWL / REUSE FLAG

DAILY FLAG

HISTORY LOG HISTORY RECORD SCHEDULE OUTPUT FILE SCHEDULE RECORD

https://www.google.com/patents/US7725452

„Patente eingetragen 2004/5“

Crawling Indexmanagement

Interne Verlinkung„Sweet Spot“

„Crawling“

• Count auf URL Ebene• Pattern Detection • Grouping & Siloing Measurement• Parameter Detection• Googlebot Filterung

• Routine Prüfung machen• Sitecheck gegen die URLs laufen lassen• Search Bots Behaviour

Monitoring / Maintaining

Logfile Analyse

History CheckSoftware

„Crawling“

• Orphan Pages • History Pages

• Botify• Loggly• Screaming Frog Log File Analyzer• ELK Stack

„Indexmanagement“

Ideale Seitenanzahl (Google Index)

Überdimensionierte Domain

Unterdimensionierte Domain

Aufbau von Seiten

Abbau von Seiten

- Seiten löschen (410 nutzen, Search Console) - Links löschen / anpassen- Canonical möglichst vermeiden

- Keyword Recherche- Themengebiete in die Tiefe gehen- Kombination von Facetten, Filtern

Zusammenfassung: Seiten die eine Suchintension bedienen, kommen in den Index, alle anderen auf Noindex. Arbeite mit Rel Next / Prev für Paginierung (und setze Noindex, wenn die Paginierung

keine Suchintention abdeckt). Parameter URLs (order by, price, etc...) werden per Rel. Canonical abgefangen oder gar

nicht verlinkt. Denke bei Parameter URLs an die Google Search Console Konfiguration! Sinnvolle Querys (Faceted Search, z.B. Größe) bekommen eigene sprechende URLs,

werden verlinkt und auf Index, Follow gestellt. Suchintension dahinter ja/nein? Nutze die robots.txt nur im äußersten Notfall oder wenn es gar nicht anders geht.

„Interne Links“

Interne Verlinkungen

Reduktion Positionierung

Siloing Maskierung

- Jeden Link hinterfragen- (Unnötige) doppelte Links entfernen- Fehler 40x / Redirects 30x / Soft 404er

-

- Reasonable Surfer Model (Welche Links sind besonders wichtig?)

-

- Bei großen Seiten z.B. über Split-Footer Verlinkungen nachdenken

- Interne Verlinkungen innerhalb eines Silos bewusst steuern. Linkgraphen bedenken!

- Interne Ankertexte sind immer noch eine Waffe!

- Post Redirect Get (PRG)- JavaScript Maskierung

-

„Quelltext“

SSL Optimierte Title Tags URL

Klickattraktive Meta DescriptionStrukturierte Daten

(Schema.org)

Verschlanke deinen Quelltext: Saubere themenrelevante Keyword Headings (h1-h6) Klickattraktive Meta Descriptions Sprechende URL-Strukturen Strukturierte Daten (schema.org) Responsive Design (First Mover, z.B. AMP) Content sollte im Mobile Bereich ebenfalls ausgespielt werden Schlanker Quelltext (Minifiying z.B. Google Mod Pagespeed) SSL Zertifikat installieren HTTP2 umstellen (Speedboost um bis zu 20%)

„Content “

„Dein Content schimmelt!“

Content Update Cycle

Content Update Cycle

Content Update Cycle

Prio A ContentSollte z.B. alle 2 Wochen aktualisiert

werden

Prio B ContentSollte z.B. alle 4 Wochen aktualisiert

werden

Prio C ContentSollte z.B. alle 8 Wochen aktualisiert

werden

Prio D ContentSollte z.B. alle 24 Wochen aktualisiert

werden

Warum Content Pflege- Themenvielfalt- QDF Faktor- Dokumentenpflege (Wie gut pflege ich

meinen Content)- Dynamischer vs. Statischer Content

Anteil -

Wie sollte ich das Scoring einstellen?- Wettbewerb- Volatil - Traffic- Rankings-

Stockfotos

REVERSE IMAGE SEARCH

REVERSE IMAGE SEARCH

Meta Daten für Bilder optimieren!

CONTENT KONSOLIDIERUNG

Verschlanke deine Website: Header Canonical von PDF Versionen auf HTML setzen Internen Konkurrenzkampf abschaffen Allumfassender Content vs. Themen-Welten Produktvarianten zusammenfassen über Hashtags # (Achtung hier indexiert Google

diese auch schon!)

Dein Content Artikel ist die neue Homepage

Heutzutage werden die Webseiten über die LPs besucht.

„DEEP SOCIAL“ REFERRALS:

MAIL, MESSENGER

SOCIAL MEDIA SHARES UND LIKES

SUCHANFRAGEN

Home Artikel

Sprungmarke

Teasertext

H1

„Monitoring “

„Ergebnis “

Danke