Dashboard Webmaster Tools:
Darstellung der Suche
Strukturierte Daten
-Einführung, wo die Quelle zum programmieren ist
Data Highlighter: für Rich (Such)snippets = positiv für die Klickrate
- Der Data Highlighter stellt eine sehr einfache Möglichkeit dar, die auf einer Webseite angezeigten Daten maschinenlesbar in den unterstützten Datenformaten auszuzeichnen.
-wichtigste Informationen in den Suchergebnisse zeigen
- Bewertungen und Erfahrungsbreichte (Sternchen)
- Daten für upcoming events
- je größer Suchsnippet desto besser
HTML-Verbesserung
Prüfen der eigenen Website auf Fehler: mit W3C Validator"Check the markup (HTML, XHTML..) of web documents"
- Fehlende Title-Tags
- Doppelte Title-Tags
Sitelinks (Links die auf Unterseiten führen: z.B Impressum, AGB's, Kontakt, etc.)
- Welche Seiten möchte man nicht im Suchergebnis anzeigen lassen
- Abwertung: Sitelinks sind automatisch generierte Links, die unter den Suchergebnissen für Ihre Website erscheinen können.
Weitere Informationen
Wenn Sie nicht möchten, dass eine Seite als Sitelink erscheint, können
Sie sie abwerten. Nur Website-Inhaber und Nutzer mit umfassenden
Berechtigungen können Sitelinks abwerten.
Suchanfragen
Suchanfragen
- mit welchen Suchbegriffen haben Besucher die Website gefunden
- wie oft wurde Website angezeigt
- wie oft geklickt & CTR
- Impression 215, Klick 1, CTR 0%, Durchsch. Position 39 = 215 Leute sind bis auf die 4 SERP gekommen
also ist dieser Suchbegriff interessant, obwohl es letztendlich nur 1 Klick gab
- ersteinmal mit Webmaster Tool -Suchanfragen dann mit der Keyword Density das Keyword erstmal pushen
- cuterank als Alternative wenn man nicht mit Webmaster Tools arbeiten kann
Links zu Ihrer Website (Backlinks)
Interne Links (Verlinkungen auf relevante Pots innerhalb der eigenen Website)
- Mash-up
- related posts
Manuelle Maßnahmen
Google Index
Indexierungsstatus
- wie viele Seiten sind im Google Index von Website zu finden
Content-Keywords
- Bedeutung der einzelnen Wörter für gesamte Website
- hier evtl Strategie ändern - Texte auf bestimmt Keywords zu vermindern oder erhöhen
URL's entfernen
-Entfernen von URLs aus den Google-Suchergebnissen
Crawling
Crawling-Fehler
- kann mit "URLs entfernen" gelöscht werden
Crawling-Statstiken
- wird die Website aktiv regelmäßig gecrawled und wie aktiv man mit der Website war
- regelmäßig neue Inhalte verfassen
- Dauer des Herunterladens einer Seite (in Millisekunden): Server hat lange gebraucht um Website zu eröffnen (Serverspitze 3,8 Sek. zu lang) Idealfall: unter 1 Sekunde Ladezeit
Abruf wie durch Google
- den Crawler durch bestimmt Unterseiten schicken lassen als Test und "An Index senden"
Blockierte URLs
- Robots.txt wird ausgelsen und man kann Robots.txt dementsprechend bearbeiten (z.B. Admit Anmeldeseite); dient quasi als Übersicht welche URLs durch Robots.txt nicht indexiert werden
Sitemaps
- eingereichte und indexierte Seiten
URL-Parameter
- Paramter im Link z.B: https://www.google.de/search?q=favicon+creator&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:de:official&client=firefox-a&channel=sb&gfe_rd=cr&ei=vTMHU5_hBM6KtQaHqIDQCg
- Parameter einfügen am besten von einem Webentwickler
Sicherheitsprobleme
- Ressourcen für gehackte Websites
Andere Ressourcen
Markup rel=author
- kleines Foto mit Gesicht
- Google + Profil ist notwendig um ein kleines Foto hochzuladen
in HTML / Java Script Gadgte einfügen
Google + URL
Dann sieht das Such-Snippet bei Google so aus
Google Labs
Autorenstatistiken
Vorschau
Keine Kommentare:
Kommentar veröffentlichen