Montag, 2. Dezember 2013

Tag 11

Hinweise:

Penalty = (engl.: Strafe, Sanktion) bei Google, wenn deine Seite nicht ok ist, z.B., zu hohe Keyword-Density, zu viele Back-Links, im schlimmsten Fall fliegt man ganz bei Google raus, oder man wird aus der SERP 30 Plätze nach hinten gesetzt

Startseite ist nicht so wichtig, Amazon ist Vorreiter mit guten Landing-Pages, auch eRecht24.de mit seinem Impressums-Generator ist sehr gut, schönes Freebie

Aufgabe:
Wir bauen uns eine Web-Site, Start mit einer Keyword-Recherche
z. B., "grafikdesign", "graphikdesing" im GoogleAdWords beim Keyword-Planer und mit Hilfe des Keyword-Filters




Follow-Links = Vertrauenslinks
Starseite interessiert keinen, sondern die Unterseiten, Landing-Pages aufbauen und dort die Keywords einbauen, pro Landingpage nur 2-3 Keywords, aber immer Keyword-Denstiy (nicht über 6%) beachten!
Das Keyword als Domain sichern! Nur 1 Punkt von vielen

Konkurrenzanalyse mit SEOquake: PageRank, Google Index und Keyword-Density prüfen
mit Anführungsstrichen "webdesign" kann man sehen, wo explizit das Wort auf den Seiten steht
Keywords sind das A und O bei einer Web-Site

1) neues Dokument im Texteditor
w3schools.com: Text-Dokument erstellen, dann w3school öffnen und HTML-Tutorial kopieren und in das Textdokument  kopieren, als UTF-3-Datei abspeichern und unserere erste Web-Site erstellen













http://validator.w3.org/ = überprüft die Web-Seite auf Fehler, schönes Kontroll-Tool

3) <meta name="keywords" content="HTML,CSS,XML,JavaScript"> Klausur!
Google hat diese Meta-Angabe aus ihrem Index gestrichen, zu viel Schindluder!!!
Bei der Onpage-Optimierung ist die Meta-Angabe "keywords" für Google nicht wichtig!

4) validator.w3.org: "Meta-Tags" eingeben und ins Textdokument kopieren


Die Beschreibung "description" ist wie eine Werbe-Anzeige
Keywords immer mit Komma trennen

5)  validator.w3.org: "robots" (ist auch ein Meta-Tag = Zusatzinfomationen, die der User nicht sieht) eingeben und den Text ins HTML-Dokument kopieren
(für das Indizieren der Seite wichtig, "nofollow" heißt, die robots von Google sollen den Link nicht beachten, nur bei Seiten die in Bearbeitung sind, sonst immer "follow"!!!)


Wenn er die Meta-Angabe "description" nicht findet, dann setzt Google automatisch Text von der Web-Site ein. Hinweis:
Die Meta-Daten beziehen sich immer auf das ganze Dokument.


Bei der Onpage-Optimierung sollten alle robots meta-Angaben sollten auf "noindex" stehen. FALSCH!!! Nur in der Bearbeitungsphase, danach wieder auf "index" und"follow" umstellen. Klausur!

Hinweis: Es gibt nur "nofollow"-Links immer bei dem Kommentaren auf Blogspot
"revisit-after" heißt, Crawler soll an bestimmten Tag wieder kommen (damit nicht arbeiten)

Immer erst mal die Keywords in einem Grundgerüst einbauen und dann kommt der Content um die Keyword-Dichte wieder aufzuweichen. Bei einem Bild soll das Keyword in der Benennung auftauchen.

Content-Management Systeme: gibt es z. B. "Relative Posts"
Ankertext für Verlinkungen,
externer Link = bei Verlinkugen nach Außen, immer am Anfang "nofollow" mit einbinden
interner Link = z. B. Impressum
target = Zielfenster, in welchem eine verlinkte Seite geöffnet wird

6) Immer ca. 5 externe Backlinks mit einbauen
Hinweis: der Link zu unserer Web-Site ist nicht geschützt

7) Struktur! ist ein Indiz dafür, ob eine Web-Site als gut empfunden wird oder nicht

Wir erstelle Struktur durch:
  • Textepassagen hervorheben <b> ...</b>
  • Listen erstellen <ol> ... </ol> mit Zahlen
  • Listen erstellen <ul> ... </ul> mit Bulletpoints
  • Tabellen erstellen <table> ... </table> , mit Rahmen  <table border="1">
  • Bilder einsetzen (keine Leerzeichen und Bildname einsetzen) <img src="Keyword-Koala.jpg"
Was würde ich bei der Onpage-Optimierung machen? Klausur!

Möglichst in allen HTML-Tags die Key-Words mitgeben

Trick am Anfang:
  • Slider mit Bildern bauen und die nichtsichtbaren Bilder mit Keywords füllen
  • spidersimulator = Simulation des Crawlers
  • Bei zu wenige Keyword-Dichte: Block mit <!-- <div>Keyword, das wir symbolisch vor einem Menü auslesen lassen würden. Keyword mit Bezug zur Universal Search.</div> --> einfügen, ließt der Crawler mit, erscheint aber nicht auf der Web-Site (Gray-Hat)

Schriften auf weiß (wie der Hintergrund) stellen, darf man eigentlich nicht machen!
CSS-Daten verschließe


Was ist Linkjuice? Der Begriff des Linkjuice (“Linksaft”) ist eine gerne gebrauchte bildliche Umschreibung dafür, wie sich die Verlinkung von Webseiten untereinander auswirkt. Die Angestellten von Google sprechen zum Beispiel gerne davon, dass Linkjuice durch einen Link zu einer Webseite fließt. Je mehr Webseiten auf eine andere verlinken, und je stärker die verlinkenden Webseiten selbst sind, desto mehr Linkjuice fließt letztlich zu dieser Seite. Prinzipiell gilt: je mehr, desto besser.


Black-Hat-SEO und Spam-Praktiken:
Grundsätzlich zielt Suchmaschinenoptimierung darauf ab, die eigene Webseite besser in den organischen Suchergebnissen ranken zu lassen, so einen besseren PageRank zu erzeugen und mehr Traffic zu erhalten. Black-Hat-SEO stellt quasi eine Übertreibung dieser Anstrengungen dar und zeichnet sich durch den Einsatz intensiver Spam-Praktiken und Techniken aus, wie etwa die Verwendung von Doorway-Pages, Russen-Links, Cloaking oder Weiterleitungen. So wird innerhalb des Black-Hat-SEO beispielsweise ein gesamtes Netzwerk erstellt, über welches Backlinks auf die Inhalte der entsprechenden Seiten gesetzt und so das Ranking verbessert wird.


Satellite-Pages sind ähnlich wie Backdoor (Doorway) - Pages Webseiten, die meistens nur aus einer oder zwei Seiten bestehen. Diese Seiten sind besonders für einen bestimmten Zweck optimiert und daher sehr Keyword-lastig. Satellite-Pages stehen aufgrund der optimierung weit oben in den SERPs (Search-Engine-Result-Page).

1 Kommentar:

  1. Hi Kathrin, muss ich das verstehen ;-) ? Ich versuche mal klarzustellen: Ich bin männlich (also keine NachbarIN), sitze in DO . . . und wieso Entschuldigung. Ganz liebe Grüße aus Dortmund.

    P.S.: ich finde deinen Blog super!!!

    AntwortenLöschen