Donnerstag, 20. Februar 2014

OM 12. Tag: Google Webmaster Tools

Keyword Density
mit Seo Quake ermitteln

- hohe Keyword Dichte = Indikator für zu wenig content / text
- hier "keyword" - density= 13,54%
- 'unwichtige' contens evtl weiter nach unten bauen
- keyword density von 3-4 % = gut


für blindtext um content auf website 
lorem ipsum

nach text einfügen - Keyword density nur noch 3,99 %


  Spider Simulator : wie lesen Suchmaschinen eine Website aus

 Suchmaschine liest diesen Text aus, wird aber nicht auf Website angezeigt
- (noch) eine Möglichkeit um Website nach vorne zu bringen
- allerdings grey hat
- "keyword -stuffing"  nicht sinnvoll, Suchmaschine erkennt das und straft ab

<body>  
        <!-- <div>Keyword Keyword Keyword Keyword Keyword Keyword Keyword Keyword   Keyword </div> //-->

(Suchmaschinen können auch noch nicht CSS auslesen - H1 Überschriften transparent)



Google Webmaster Tools

Crawling-Fehler = der Suchmaschinen-Roboter arbeitet nicht richtig


sitemap.xml  -  .htaccess  -  robots.txt
 - im Root Verzeichnis: index.php, robots.txt, sitemap.xml, .htaccess

------ Sitemaps  ---------------------------------------------------------------------------------------------------
- ist die sitemap.xml nicht im Root Verzeichnis, dann mit FTP client in dieses Verzeichnis hochladen
  (vorher mit Sitemap Generator sitemap für website erstellen)
- Filezilla (Datei Explorer) für FTP Client (file transfer protocol), Datein auf Server hochladen
- dann Webmaster Tools -> Sitemap hinzufügen
- Sitemaps Generator 
- mit Hilfe von XML-Sitemaps kann Google Seiten auf Ihrer Website finden, die andernfalls unter Umständen übersehen werden
- eine XML-Sitemap ist eine Liste der Seiten Ihrer Website
- XML Sitemap damit Suchmaschine jede einzelne Unterseite schnell sehen kann

- Word Press z.B hat ein Plugin, welches automatisch die XML Datei erstellt
- bei Word Press :Einstellungen -> Permalinks umstellen dass diese Suchmaschinen tauglich sind 
  (auf Beitragsname einstellen - nicht in der Free Version)




für Blogspot: 
RSS (ist auch mit XML programmiert) Feed Adresse kopieren und einfügen
und Sitemap einreichen / indexieren:




------ .htaccess  ---------------------------------------------------------------------------------------------------
- Zugriffsschutz: einzelne Verzeichnisse und Datein Passwort schützen
- www - Klärung -> Request-Umleitung: RewriteCondition
- soll website mit www / oder ohne www angezeigt werden? sonst duplicate content! Suchmaschine  weiss nicht, dass das eine website ist
- http respons 301- permanente Weiterleitung

 .htaccess 301

 modrewrite muss aktiviert sein beim Host!
- Code in text editor kopieren und modifizieren nach www-Wunsch-Klärung


Datei abspeichern unter: 
 Dateityt:       alle Dateien
 Datei Name: htaccess


.gz / gzip Komprimierung
= wesentlich schnellere Ladezeiten für Mobilgeräte
= optimierte Ladezeiten = besseres SEO !!





------ robots.txt  ---------------------------------------------------------------------------------------------------

* = egal welcher crawler / alle crawler




=  alle Robots die auf website kommen, dürfen die gesamt Website nicht auslesen (nicht im Index)
= Website ist gerade im Aufbau / noch nicht fertig
= Anmeldeseiten ausschliessen (Dissallow: /wp-admin)



Klausur:

1.)
.haccess
robots.txt
sitemap.txt

2.) www-Klärung

3.) Keyword density: idealer Fall 3% - 4%
    2% - max. 6%

4.) Was sollten Sie bei On-Page-optimierung möglichst nicht tun?
    - weisse Schrift auf weissen Hintergrund

5.) nur eine H1

6.) Unterscheidung On-Page- / Off-Page-Optimierung

7.) Robots: nicht sinnvoll NoIndex/NoFollow für SEO





Keine Kommentare:

Kommentar veröffentlichen