Dienstag, 3. Dezember 2013

Tag 12

Wie würden Sie bei einer Keywordrecherche vorgehen? Welche Fragestellungen würden Sie berücksichtigen? Nennen Sie wenn möglich behandelte Tools aus dem Unterricht.

 Die erste Frage ist grundsätzlich: Welche Ziele verfolge ich und wie viel Budget besitze ich?

Dann würde ich den Keywordplaner bei Google Adwords benutzen um viele ähnliche Wortgruppen/Wörter zu finden und zusätzlich den Keyword Filter um die entsprechenden Keywords auszufiltern (z. B. durch die monatliche Suchanfrage können die Wörter eingegrenzt werden).
Auch der Traffic Estimator hilft, die Kosten für das Keyword zu definieren. Google Trends kann auch noch mit eingeschaltet werden um die am häufigsten im Netz eingegeben Wörter zu sehen.

Dann recherchiere ich zwischen 200-500 Wörter und gebe diese bei Google ein. Ich würde mich immer in die Lage des Users versetzen und aus der Sicht des Users die Wörter, bzw. Wortgruppen eingeben, also wie z. B. "Fahrrad gebraucht kaufen" oder "gebrauchte Fahrräder". Gleichzeitig starte ich eine Konkurrenzanalyse mit Hilfe von SeoQuake und beurteile die Konkurrenzseiten nach dem PageRank (definiert aus über 200 Kriterien, Herr Page von Google hat es erfunden, kann zwischen 0-10 liegen), dem Google Index und den Alexa Rank (Weltrangliste der Websites). Die Keyword-Dichte spielt auch noch eine Rolle, diese sollte nicht über 6 % betragen, ideal zwischen 2-4%. Ein weiteres Tool zur Konkurrenzanalyse ist auch noch WooRank und MarketSamurai. Auch ob die Web-Site in der dmoz-Gruppe erwähnt wird, ist nicht unentscheident.

Auch über ein Tool zur Nischenfindung kann man sein spezielles Keyword definieren, z. B. im Internet zu finden bei der Ragazzi Group. Zum Schluß überlege ich, ob ich per Keyword-Advertsing entsprechende Key-Words bei GoogleAdwords als Anzeige kaufe oder mich auf den organischen Bereich spezialisiere.



Hinweis:
Der Traffic Estimator erstellt Prognosen sowohl für Keyword-Zugriffszahlen, als auch zu die zu erwartenden Klickkosten.
Nach dem Kurs: immer z. B. Online-Marketing ansehen

Noch mal anschauen: http://ragazzi-group.de/2010/08/online-marktforschung-wie-sie-profitable-nischen-markte-finden-und-ihre-chancen-bewerten/

Keywords-Stuffing
Unter Keyword-Stuffing (deutsch: vollstopfen, füllen) versteht man eine, aus Google Sicht, unerlaubte SEO-Technik. Bei dieser Technik werden Suchbegriffe in den Meta-Daten, in textlichen Inhalten oder als Linktexte sehr häufig wiederholt.

Ein Content-Management-System (kurz: CMS, deutsch „Inhaltsverwaltungssystem“) ist eine Software zur gemeinschaftlichen Erstellung, Bearbeitung und Organisation von Inhalten (Content) zumeist in Webseiten, aber auch in anderen Medienformen. Diese können aus Text- und Multimedia-Dokumenten bestehen. Ein Autor mit Zugriffsrechten kann ein solches System in vielen Fällen mit wenig Programmier- oder HTML-Kenntnissen bedienen, da die Mehrzahl der Systeme über eine grafische Benutzeroberfläche verfügen.

Verweildauer ist immer gut für unsere Seite

Absprungrate, Bounce-Rate nicht so gut



1) Schauen, ob mein Keyword auf einer Domain noch frei ist: checkdomain.de 

2) Domain gefunden, dann Content-Management-Systeme einsetzten ( z. B. www.strato.de, all-inkl.com), Hostingpakte im Content-Management-System kaufen, Host ist ein Server auf dem meine Web-Site liegt, Starterpaket für 1,49 EUR reicht, man brauch: PHP, Datenbanken, FTP-Server (sind Anwendungsprogramme, welche den Zugang für FTP-Client-Programme bereitstellen) und eine Domain
Z. B. wordpress.org herunterladen, Datei: wp-config-sample.php ist wichtig für die Verschlüsselung!
http://wordpress.com/ Benutzerkonto ohne Kosten anlegen, aber mit Endung wordpress.com


3)  webmaster tools von Google aufrufen und eigenen Blog eingeben, wir haben keine Sitemap!











Sitemap (beispielhaft wie Inhaltsverzeichnis, Speisekarte) = Seitenübersicht, wird die vollständige hierarchisch strukturierte Darstellung aller Einzeldokumente (Webseiten) eines Internetauftritts bzw. einer Website bezeichnet (Seitenstruktur).

Zur Onpage-Optimierung gehören, damit die Seiten schneller vom Crawler gelesen werden können: Sitemap.xml, .htaccess, robots.txt Klausur!

Sitemap = Inhaltsverzeichnis, um für den Crowler die Daten optimal und schnell auslesen zu können

erstellen unter http://www.xml-sitemaps.com/
Sitemap = html ist für den Leser, Übersicht der Seitenstruktur
Sitemap = xml für den Google crawler, bekommt der Crawler den ganzen Inhalt ganz schnell erfaßt

Unsere Sitemap muß auf dem Host (z. B. strato) liegen, ist nur für den Google-Crawler gedacht

.htaccess (engl. hypertext access „Hypertext-Zugriff“) = ist eine Konfigurationsdatei, in der verzeichnisspezifische Einstellungen auf NCSA-kompatiblen Webservern (z. B. Apache) vorgenommen werden können.
um den Doublicated Content (2 URLs mit und ohne www) verhindern

robots.txt (kleine Textdatei, Inhalt nicht merken) =  In dieser Datei kann festgelegt werden, ob und wie die Webseite von einem Webcrawler besucht werden darf.


Nach der Übereinkunft des Robots-Exclusion-Standard-Protokolls liest ein Webcrawler (Robot) beim Auffinden einer Webseite zuerst die Datei robots.txt (kleingeschrieben) im Stammverzeichnis („root“) einer Domain. In dieser Datei kann festgelegt werden, ob und wie die Webseite von einem Webcrawler besucht werden darf. Website-Betreiber haben so die Möglichkeit, ausgesuchte Bereiche ihrer Webpräsenz für (bestimmte) Suchmaschinen zu sperren.



Trick: Bei Google vor der Web-Site site:.... eingeben, dann sieht man alle Unterseiten die im Index sind


HTTP- Severcodes:
200 ist alles in Ordnung
302 Found
403 Forbidden
404 Not Found
500 Internal Server Error

URLs entfernen
Bei fehlerhaften Sitemaps, die aus den Index gelöscht werden sollen, bitte nur die Unterverlinkung eingeben, sonst ist die Web-Site weg, immer "Verzeichnis entfernen" angeben.

Outbound-Marketing:
Nachrichten an Kunden gesendet werden, wie es per Postwurfsendung, Radiowerbung, Fernsehwerbung, Flyer, Spam, Telefonmarketing und klassischer Werbung üblich ist.



Inbound-Marketing (englisch inbound „ankommend“) ist eine Marketing-Methode, die darauf basiert, von Kunden gefunden zu werden:
  1. Traffic gewinnen
  2. Besucher in Leads umwandeln
  3. Leads in Verkäufe umwandeln
  4. Kunden in wiederkehrende Kunden mit höherer Marge umwandeln
  5. Optimierung durch kontinuierliches Analysieren
Im Webmaster-Tool mal die Keywords überprüfen, und die Impressionen, Klicks und durchnittliche Position entsprechend auswerten
Suchanfragen: Keyword und alle anderen Wörter (die vom User selbst) werden aufgelistet mit denen die Web-Site gefunden worden ist und können ausgewertet werden
Die neu gefunden Keyword können im Google AdWords noch mal getestet werden

Impression = eine Page Impression (Seitenabruf) im Internet

Perma-Link (siehe unten, nur www.ralf-wenda.de): Ein Permalink (von permanent und hyperlink, auch Permanentlink) im World Wide Web ist ein dauerhafter Identifikator in Form einer URL. Bei der Einrichtung eines Permalinks wird angestrebt, die einmal über ihn referenzierten Inhalte dauerhaft und primär über diese URL verfügbar zu machen. Bitte nie wieder ändern!

Linktiefe muß auf dem Perma-Link immer 0 sein

5) Domain gekauft, bekomme ich einmal eine www.Adresse.de und ohne www.Adresse.de
nur eine Web-Site ist relevant, sonst haben wir 2 Seiten im Index

Um nur eine Domain zu haben, eine .htaccess-Datei anlegen:
.htaccess 301 bei Google eingeben und 1. Suchergebnis öffen und folgenden Text (unten) in Editor kopieren und als .htacces (alle Dateien) abspeichern und für Host hochladen

Legen Sie im Hauptverzeichnis Ihrer Domain folgende .htaccess-Datei ab:
RewriteEngine On
Options +SymLinksIfOwnerMatch
RewriteCond %{HTTP_HOST} ^www.schobersonline.blogspot.de
RewriteRule (.*) http://schobersonline.blogspot.de/$1 [R=301,L]



1 Kommentar:

  1. Wie immer fleissig mitgeschrieben, Super!!! Danke! Ich habe mal copy/paste gemacht :-) Bis morgen :-)

    AntwortenLöschen