Freitag, 21. Februar 2014

OM 13. Tag: Webmaster Tools

Dashboard Webmaster Tools:


Darstellung der Suche
Strukturierte Daten
-Einführung, wo die Quelle zum programmieren ist

Data Highlighter: für Rich (Such)snippets = positiv für die Klickrate
- Der Data Highlighter stellt eine sehr einfache Möglichkeit dar, die auf einer Webseite angezeigten  Daten maschinenlesbar in den unterstützten Datenformaten auszuzeichnen.
-wichtigste Informationen in den Suchergebnisse zeigen
- Bewertungen und Erfahrungsbreichte  (Sternchen)
- Daten für upcoming events
- je größer Suchsnippet desto besser

HTML-Verbesserung
Prüfen der eigenen Website auf Fehler: mit W3C Validator"Check the markup (HTML, XHTML..) of web documents"
- Fehlende Title-Tags
- Doppelte Title-Tags

Sitelinks (Links die auf Unterseiten führen: z.B Impressum, AGB's, Kontakt, etc.)
- Welche Seiten möchte man nicht im Suchergebnis anzeigen lassen
- Abwertung:  Sitelinks sind automatisch generierte Links, die unter den Suchergebnissen für Ihre Website erscheinen können. Weitere Informationen Wenn Sie nicht möchten, dass eine Seite als Sitelink erscheint, können Sie sie abwerten. Nur Website-Inhaber und Nutzer mit umfassenden Berechtigungen können Sitelinks abwerten.

Suchanfragen
Suchanfragen
- mit welchen Suchbegriffen haben Besucher die Website gefunden
- wie oft wurde Website angezeigt
- wie oft geklickt & CTR 
- Impression 215,  Klick 1, CTR 0%, Durchsch. Position 39 = 215 Leute sind bis auf die 4 SERP gekommen
  also ist dieser Suchbegriff interessant, obwohl es letztendlich nur 1 Klick gab
- ersteinmal mit Webmaster Tool -Suchanfragen dann mit der Keyword Density das Keyword erstmal pushen 
- cuterank als Alternative wenn man nicht mit Webmaster Tools arbeiten kann

Links zu Ihrer Website (Backlinks)

Interne Links (Verlinkungen auf relevante Pots innerhalb der eigenen Website)
- Mash-up
- related posts

Manuelle Maßnahmen 

Google Index
Indexierungsstatus 
 - wie viele Seiten sind im Google Index von Website zu finden


Content-Keywords
- Bedeutung der einzelnen Wörter für gesamte Website
- hier evtl Strategie ändern - Texte auf bestimmt Keywords zu vermindern oder erhöhen
URL's entfernen
-Entfernen von URLs aus den Google-Suchergebnissen

Crawling
Crawling-Fehler
- kann mit "URLs entfernen" gelöscht werden
Crawling-Statstiken
- wird die Website aktiv regelmäßig gecrawled und wie aktiv man mit der Website war
- regelmäßig neue Inhalte verfassen
- Dauer des Herunterladens einer Seite (in Millisekunden): Server hat lange gebraucht um Website zu eröffnen (Serverspitze 3,8 Sek. zu lang) Idealfall: unter 1 Sekunde Ladezeit
 Abruf wie durch Google
- den Crawler durch bestimmt Unterseiten schicken lassen als Test und "An Index senden"

Blockierte URLs
- Robots.txt wird ausgelsen und man kann Robots.txt dementsprechend bearbeiten  (z.B. Admit Anmeldeseite); dient quasi als Übersicht welche URLs durch Robots.txt nicht indexiert werden

Sitemaps
- eingereichte und indexierte Seiten
URL-Parameter
- Paramter im Link z.B: https://www.google.de/search?q=favicon+creator&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:de:official&client=firefox-a&channel=sb&gfe_rd=cr&ei=vTMHU5_hBM6KtQaHqIDQCg
- Parameter einfügen am besten von einem Webentwickler

Sicherheitsprobleme
- Ressourcen für gehackte Websites

Andere Ressourcen




Markup rel=author 
- kleines Foto mit Gesicht
- Google + Profil ist notwendig um ein kleines Foto hochzuladen

in HTML / Java Script Gadgte einfügen
Google + URL
Dann sieht das Such-Snippet bei Google so aus


Google Labs
Autorenstatistiken
Vorschau

Keine Kommentare:

Kommentar veröffentlichen