mit Seo Quake ermitteln
- hohe Keyword Dichte = Indikator für zu wenig content / text
- hier "keyword" - density= 13,54%
- keyword density von 3-4 % = gut
für blindtext um content auf website
lorem ipsum
nach text einfügen - Keyword density nur noch 3,99 %
Spider Simulator : wie lesen Suchmaschinen eine Website aus
Suchmaschine liest diesen Text aus, wird aber nicht auf Website angezeigt
- (noch) eine Möglichkeit um Website nach vorne zu bringen
- allerdings grey hat
- "keyword -stuffing" nicht sinnvoll, Suchmaschine erkennt das und straft ab
<body>
<!-- <div>Keyword Keyword Keyword Keyword Keyword Keyword Keyword Keyword Keyword </div> //-->
(Suchmaschinen können auch noch nicht CSS auslesen - H1 Überschriften transparent)
Google Webmaster Tools
Crawling-Fehler = der Suchmaschinen-Roboter arbeitet nicht richtig
sitemap.xml - .htaccess - robots.txt
- im Root Verzeichnis: index.php, robots.txt, sitemap.xml, .htaccess
------ Sitemaps ---------------------------------------------------------------------------------------------------
- ist die sitemap.xml nicht im Root Verzeichnis, dann mit FTP client in dieses Verzeichnis hochladen
(vorher mit Sitemap Generator sitemap für website erstellen)
- Filezilla (Datei Explorer) für FTP Client (file transfer protocol), Datein auf Server hochladen
- dann Webmaster Tools -> Sitemap hinzufügen
- Sitemaps Generator
- mit Hilfe von XML-Sitemaps kann Google Seiten auf Ihrer Website finden, die andernfalls unter Umständen übersehen werden
- eine XML-Sitemap ist eine Liste der Seiten Ihrer Website
- XML Sitemap damit Suchmaschine jede einzelne Unterseite schnell sehen kann
- Word Press z.B hat ein Plugin, welches automatisch die XML Datei erstellt
- bei Word Press :Einstellungen -> Permalinks umstellen dass diese Suchmaschinen tauglich sind
(auf Beitragsname einstellen - nicht in der Free Version)
für Blogspot:
RSS (ist auch mit XML programmiert) Feed Adresse kopieren und einfügen
und Sitemap einreichen / indexieren:
------ .htaccess ---------------------------------------------------------------------------------------------------
- Zugriffsschutz: einzelne Verzeichnisse und Datein Passwort schützen
- www - Klärung -> Request-Umleitung: RewriteCondition
- soll website mit www / oder ohne www angezeigt werden? sonst duplicate content! Suchmaschine weiss nicht, dass das eine website ist
- http respons 301- permanente Weiterleitung
.htaccess 301
modrewrite muss aktiviert sein beim Host!
- Code in text editor kopieren und modifizieren nach www-Wunsch-Klärung
Datei abspeichern unter:
Dateityt: alle Dateien
Datei Name: htaccess
.gz / gzip Komprimierung
= wesentlich schnellere Ladezeiten für Mobilgeräte
= optimierte Ladezeiten = besseres SEO !!
------ robots.txt ---------------------------------------------------------------------------------------------------
* = egal welcher crawler / alle crawler
= alle Robots die auf website kommen, dürfen die gesamt Website nicht auslesen (nicht im Index)
= Website ist gerade im Aufbau / noch nicht fertig
= Anmeldeseiten ausschliessen (Dissallow: /wp-admin)
Klausur:
1.)
.haccess
robots.txt
sitemap.txt
2.) www-Klärung
3.) Keyword density: idealer Fall 3% - 4%
2% - max. 6%
4.) Was sollten Sie bei On-Page-optimierung möglichst nicht tun?
- weisse Schrift auf weissen Hintergrund
5.) nur eine H1
6.) Unterscheidung On-Page- / Off-Page-Optimierung
7.) Robots: nicht sinnvoll NoIndex/NoFollow für SEO
Keine Kommentare:
Kommentar veröffentlichen