Dienstag, 27. Mai 2014

Tag 14

SEO Onpage Optimierung

Wie lesen Spider (Robote, Crawler) eine Seite?
- Text ist das wichtigste einer Seite (wird komplett ausgelesen)
- CSS (Seitengestaltung) als ausgelagerte Datei auf dem Server besser als im HTML bei Head und Body integriert (der Crawlet kann dann schneller arbeiten)
- Tabellen und Frames sind ebenfalls nicht gut auslesbar
- bei "Baukästen" Programmierer drüber schauen lassen, um das auseinanderzuziehen (sind häufig nicht optimal angelegt), Anbieter verankern sich gerne selbst z.B. in der Metadeskription
- die wesentlichen Keywords müssen natürlich vorkommen
- in der Google-Suche wird überdies die Deskription angezeigt, die entsprechend formuliert sein sollte
- Crawlet geht 5-6 Ebenen tief, Keywords sollten so weit wie möglich vorne stehen (dazu Variationen/ Synonyme, um Keyword-Stuffing zu vermeiden)
- das Alter einer Domain spielt auch eine Rolle beim Ranking
- Bilder können nicht gelesen werden, jedoch Alternativtext (wird Blinden vorgelesen) > Daher unter Bildeigenschaften Titeltext und Beschreibung eingeben

Snippet Optimization Tool (Optimierung der Google Suchergebnis Anzeige):
- hier können Titel, Deskription und URL direkt eingegeben werden
- http://www.seomofo.com/snippet-optimizer.html


weitere Parameter:
- Fehlerseite (mit z.B. Link zur Hauptseite > User halten)
- erster Contant (nicht duplicate Content)
- interne und externe Links
- Keyword in Top Level- und Subdomain
- Density, Contentlänge
- Überschriften, Zwischenüberschriften und Text als solche definieren
- Überschriften: h1, h2 … zzt. ist die h2 die wichtigste, weil sie spezielle Contentinformationen enthält (sie wäre also inkl. Keywords optimal)
- Permalinks verändern (Keywords einbringen)
- Schnelligkeit: Ladezeiten, sauberes HTML (z.B. Style in ausgelagerte CSS)
- Alter der Domain
- Struktur für den Crawler: Sitemap
- robot.txt nutzen, um dem Crawler zu sagen, was erlaubte und was nicht erlaubte Bereiche sind

Praxis > Blogger.com:
- bei Posts die Posteinstellungen bearbeiten (Label/ Keyword vergeben, Zeit eingeben, Permalinks ändern (Nicht im Nachhinein, wenn schon veröffentlicht wurde! Erzeugt eine zweite URL zu der eine Umleitung geschaltet werden müsste (im Blog unter Sucheinstellungen> benutzerdefinierte Weiterleitungen). Die alte Seite muss dann aus dem Crawlet heraus genommen werden > siehe robot.txt)
- robot.txt: allow: /.…  disallow: /... Anweisungen, z.B. Bilder zu durchsuchen oder bestimmte Seiten nicht zu durchsuchen (z.B. gelöschte Seiten, weil: URLs sind für die Ewigkeit, auch wenn die Seiten nicht mehr existieren!)

Nicht indexieren/ nicht folgen: Metainformation "no index" "nofollow" > bedeutet keine Indexierung/ Bewertung, wenn man das mal nicht möchte

Beispiele für Spider:
- www.webconfs.com/search-engine-spider-simulator.php
Website-Analyse-Tools:
- www.seitenreport.de (komplette Analyse von Websites)
- www.woorank.com

Seoquake-Anzeige > Alter anklicken > waybackmachine zeigt an, wann die Seite das erste Mal online ging und wie sie zu bestimmten Zeitpunkten aussah

Die 200 Google-Ranking-Faktoren (Onpage + Offpage):
http://jaypeeonline.net/seo/google-200-ranking-factors/
Infos verfolgen: über den Google-Webmaster

https://www.youtube.com/watch?v=PM9TTbYJ1Ck&list=UUWf2ZlNsCGDS89VBF_awNvA&index=2

- Crawling im Google Webmaster anstoßen (Google Analytics Property)

Keine Kommentare:

Kommentar veröffentlichen