Ladezeit von Gambio GX2 optimieren

Die Ladezeit einer Internetseite und Onlineshops steigert nicht nur die Nutzerfreundlichkeit, sondern sie ist auch ein Kriterium für das Googleranking.

Weiterlesen

Suchmaschinenoptimierung, wozu?

Was ist Suchmaschinenoptimierung?

Suchmaschinenoptimierung (kurz SEO von Search Engine Optimization) ist die Optimierung einer Internetseite, um eine möglichst gute Position bei Suchmaschinen zu erreichen.

Welche Techniken gibt es?

Es gibt im wesentlichen zwei Arten von Suchmaschinenoptimierung. Zum einen gibt es die Onpage Optimierung und zum anderen die Offpage Optimierung.

Die Onpage Optimierung ist der Teil, der direkt an einer Seite vorgenommen werden kann.

Hierzu gehören:

  • URL umschreiben
  • gute Texte
  • eine Navigation die für Suchmaschinen gut lesbar ist
  • Ergänzen von title und alt Tags bei Bildern und Links
  • Eine möglichst gute Schlüsselworthäufigkeit (zwischen 3% und 5%)
  • Optimierung der Ladezeit
  • Duplicate Content vermeiden (Doppelte Inhalte)
  • Eine Sitemap und Robots.txt anlegen
  • Inhalt auf der Seite weit oben platzieren (das kann auch mit CSS erreicht werden)

Es gibt natürlich noch einige andere Aspekte, aber ich denke für eine kleine Übersicht, ist das schon ganz ordentlich.

Die Offpage Optimierung beschäftigt sich hingegen mit Techniken, die nichts mit der eigenen Seite zu tun haben, bzw die man nur bedingt selbst verbessern kann.

Zur Offpage Optimierung gehört:

  • Aufbau von Backlinks
  • Eintragen in wichtige Verzeichnisse
  • Social Media Netzwerke nutzen

Was ist das Ziel der Suchmaschinenoptimierung?

Die Suchmaschinenoptimierung soll natürlich die Seite auf einen möglichst guten Platz bringen. Der Sinn ist relativ klar. Es sollen neue Besucher generiert werden. Das ist besonders lohnenswert für Onlineshops oder Dienstanbieter. Eine bessere Position, wird häufiger angeklickt.

Infos zu Suchmaschinen

  • Google ist die größte Suchmaschine mit ca 90% Marktanteil
  • Die ersten 3 Suchergebnisse werden häufig angeklickt, oft wird dann schon eine neue Suchanfrage gesendet
  •  Ergebnisse auf der 2. Seite werden kaum geöffnet
  • Google berechnet die Position einer Seite mit einer Formel mit ca 200 Variablen
  • Diese Formel kennt niemand, außer Google selber

Woran erkenne ich einen vertrauenswürdigen Suchmaschinenoptimierer?

Es ist schwierig einen guten und vertrauenswürdigen Suchmaschinenoptimierer zu finden. Aber es ist oft nicht schwer, einen Betrüger zu entlarven.

Ein echter Suchmaschinenoptimierer kann keine genaue Aussage treffen, welche Position die Seite erreichen wird. Er kann auch nicht garantieren, dass die Seite auf den ersten Platz rankt.

Solche Slogans wie „Wir bringen Sie unter die besten 5 bei Google“ sind oft wahr, aber nicht das, was Sie erreichen wollen. Was meine ich? Jede Seite wird auf Platz 1 stehen, wenn man gezielte Suchanfragen eingibt. Gibt man ei Google „www.web-seiten-design.de“ ein, steht meine Seite auf Platz 1, wünschenswert wäre aber, dass die Seite unter „Webdesign Erfurt“ auf Platz 1 ranken würde 🙂

Ich glaube jetzt ist klar, was ich meine.

Wenn Sie Interesse an einer professionellen Suchmaschinenoptimierung haben, können Sie sich gerne bei mir melden.

Die besten Backlinkchecker Tools

Im Internet tummeln sich einige Backlinkchecker und jeder wirft andere Ergebnisse aus. Einige funktionieren gar nicht oder gar nicht mehr. Ein beliebter Backlinkchecker war zum Beispiel der von internetbaron.de leider funktioniert er nun auch nicht mehr.

Die Backlinkchecker sind ein wichtiger Teil in der Suchmaschinenoptimierung, schließlich möchte man doch gerne wissen, welche Seiten wirklich stark sind und welche man sich sparen könnte.

Ich möchte hier einfach mal meine Backlinkchecker kurz vorstellen nach meinem Beliebtheitsgrad.

1. Der Backlinkchecker von X4d.

Link: http://www.x4d.de/backlinkchecker/

Vorteile: Der Backlinkchecker ist schon etwas in die Jahre gekommen, aber er zeigt  eigentlich genau was man erwartet. Ob der Link noch vorhanden ist, ob es ein dofollow oder nofollow Link ist, den Pagerank und den Linktext. Dazu bietet x4d noch einige möglichkeiten zur grafischen Ausgabe.

Nachteil: Er ist leider etwas langsam

2. Der Backlinkchecker von http://www.seo-backlink-tools.de/

Link: http://www.seo-backlink-tools.de/

Vorteile: Sehr schnelle Analyse der Backlinks und sehr individuelle Analyse möglich. Neue Backlinks und gelöschte Links werden farbig gekennzeichnet.

Nachteil: Relativ wenig Backlinks werden angezeigt.

3. Der Backlinkchecker von http://backlinktest.com/

Link: http://backlinktest.com/

Vorteile: Flotte Analyse mit einigen Daten zu den Linkquellen. Sehr schönn ist, dass der Linktext mit angegeben wird. Eigentlich ist der Backlinktest eine kleine Seitenanalyse. Es wird auch angezeigt, ob eine Seite im DMOZ oder bei Wiki eingetragen ist. Die Diagramme sind zur veranschaulichung sehr schön.

 

Ich hoffe es beteiligen sich noch einige Leute und schreiben noch andere Empfehlungen.

 

Duplicate Content vermeiden mit .htaccess Weiterleitung (301)

Was ist die .htaccess und was macht sie, oder was kann man mit ihr machen?

Die .htaccess ist eine Datei, die den Zugriff auf die Website steuert und in der man den Server ein wenig manipulieren kann.

Permanente Weiterleitung 301

Die Weiterleitung ist sinnvoll, wenn eine Internetseite über mehr als eine Domain erreichbar ist. Das nennt Google dann duplicate Content. Kurioserweise ist das schon bei einer Adresse der Fall, da man auch unterscheiden kann zwischen

  • mit www
  • ohne www

Der Einsatz ist eigentlich recht simpel. Als erstes legt man eine Datei an mit dem Namen .htaccess und schiebt diese in den Root Ordner auf dem Server.

Beispiel:

Erklärung:

  1. Zeile schaltet das nötige Modul ein.
  2. Zeile ist die Bedingung, falls NICHT (!) www.web-seiten-design.de
  3. Zeile ist die Regel, leite um auf www.web-seiten-design.de mit 301

Für deine Seite musst du eigentlich nur „web-seiten-design.de“ durch deinen Domainname ersetzen. Allerdings übernehme ich keine Haftung, falls du etwas falsch angibst kann es sein, dass die Internetseite gar nicht mehr erreichbar ist.

Allerding kann man über diese Technik duplicate Content vermeiden, was wieder gut für Google ist 😉

VG der Daniel