Was ist der Grund für ein mieses Ranking? Haarsträubender Content, eine verwirrende Linkstruktur oder naives Keyword Stuffing? In diesem Artikel klären wir über die häufigsten SEO-Fehler auf und zeigen, wie sie mit wenigen Kniffen vermieden werden können.Wenn Sie diese Fehler vermeiden, haben Sie gute Chancen, dass sich Ihre Rankings in Suchmaschinen nachhaltig verbessern werden.

InhaltsverzeichnisToggle Table of Content

Bedeutung von SEO unterschätzen

Suchmaschinenoptimierung ist kein einmaliges Projekt, sondern ein langfristiger Prozess. SEO ist dauerhafte Arbeit und nur erfolgreich, wenn es kontinuierlich betrieben wird. Suchmaschinen sind die am häufigsten genutzte Anwendung im Internet. Stell SEO deshalb die Ressourcen an Zeit, Personal und Budget in deinem Unternehmen zur Verfügung, die es verdient.

Personalisierte Suchergebnisse

Als Besitzer deiner Website (Webmaster) erhältst du ein verzerrtes Bild deiner eigenen Website bei Google, denn die Suchmaschine liefert dir immer ein personalisiertes Suchergebnis. Wenn du also als angemeldeter Nutzer häufiger auf eine Seite klickst merkt sich die Suchmaschine das. Die Folge: Bei den nächsten Suchanfragen wird die eigene Website besser positioniert als sie eigentlich ist. Das Problem lässt sich jedoch zum Glück ganz einfach lösen, indem man die personalisierten Suchergebnisse deaktiviert.

Falsche Indexierung & Deindexierung

Da nicht immer alle Seite die im Internet sind auch von Suchmaschinen gefunden werden sollen, gibt es
Meta-Tags und den Robot.txt die verhindern das man bei Google indexiert wird.
Die Robot.txt schreibt den Bots vor was auf der Seite gelesen werden darf und was nicht, daher würde ein Disallow in der Robots.txt dem Bot zwar verbieten den Inhalt zu sehen, indexieren würde er bei guter Verlinkung trotzdem! Wenn du deine Seite deindexieren willst, dann auch hier mit NUR mit dem Meta-Robots-Tag und “noindex”. Nicht mit der Robot.txt und disallow und auch nicht mit beiden gleichzeitig. Denn beides gleichzeitig würde wieder zur Indexierung führen. Die Robot.txt würde verbieten, dass der Bot den Meta-Robot-Tag mit “noindex” lesen darf, wodurch die Seite doch indexiert wird.
Da wir jedoch bei Google in den Suchanfragen gefunden werden wollen, sollten wir darauf achten, dass in der HTML-Datei der Seite der Meta-Tag: <meta name=“robots“ content=“follow“> zu finden ist. 

Doppelter Content

Im SEO wird von doppelten Inhalten stark abgeraten, auch wenn es für dich einfacher und zeitsparender wäre, Text einfach von einer Seite zu kopieren. Wenn Texte sich zu sehr ähneln, die auf unterschiedlichen Seiten (URL’s) zu finden sind, kann es passieren, dass eine Webseite abgewertet wird, oder im schlimmsten Fall sogar ganz herausgefiltert wird. Also vermeide Copy & Paste und erstelle immer einzigartige Texte für all deine Seiten.

Häufige Fehler die zu doppeltem Content führen:

  • Die Inhalte ist sowohl über das „http“- als auch über „https“-Protokoll aufrufbar.
  • Die Inhalte ist mit und ohne “www” aufrufbar
  • Die Inhalte sind sowohl mit als auch ohne abschließendes „/“ aufrufbar
  • Inhalte sind auch mit Parametern aufrufbar.
  • URLs sind mit Groß- und Kleinschreibung aufrufbar.
  • Wildcard Subdomains sind vom Server akzeptiert.
  • Teilweise fehlender Canonical-Tag.

Undurchsichtige URL-Strukturen verwenden

Hast du über die URL-Struktur deiner Webseite nachgedacht oder sehen deine URLs eher so kryptisch aus wie diese: www.leckere-torten-kaufen.de/q=kfghit6741258 ?
Die URL-Struktur deiner Webseite ist wichtiger als man zu denken vermag, denn sie ist ein Ranking-Kriterium für Suchmaschinen. Genauso wenig wie du jetzt weißt, wo wir uns gerade befinden, genauso schwer tut sich Google. Alle verbreiteten Redaktionssysteme unterstützen suchmaschinenfreundliche Adressen, nutze diese auch oder lass dich von einem Experten hierbei unterstützen. Er wird die besten Keywords für dich zusammentragen und eine optimale URL-Struktur erstellen können. Diese zeichnet sich durch aussagekräftige URLs aus, bei denen der Nutzer direkt erfassen kann, welcher Inhalt ihn auf der Seite erwartet.
Hier nochmal ein paar Tipps für eine nutzer- und suchmaschinenfreundliche URL 

Schlechte interne Links

Welches ist deine am häufigsten verlinkte Seite?
Eine Landingpage? Oder die AGB, der Warenkorb, Kontakt und Impressum? Da fällt einem erst auf, dass es möglich ist,  unwichtige Seiten zu häufig zu verlinken. Das Lösen des Problems ist leicht, check mit einem Spider die Domain und verlinke, was wirklich wichtig ist am meisten. Achte bei den internen Verlinkung auch auf den Titel des Links(Anchor-Text). Für den Besucher mag es zwar logisch erscheinen, dass auf den Nachrichten-Teaser mit „mehr lesen“ die Detailseite folgt – für Google ist das aber nur ein Zeichen dass der Inhalt mit
„mehr lesen“ zusammengefasst werden kann. Verlinke die Seite mit einem passenden Begriff.

Zu wenig/schädliche externe Links

Wer seine Links zu wenig beachtet, verschenkt wertvolles Ranking-Potential. Vor allem die Kooperation mit Partnern bringt wertvolle externe Links, die von Google positiv bewertet werden und deiner Website eine höhere Gewichtung geben. Versuch also Linkpartner zu gewinnen, die thematisch zu deiner Webseite passen.
Von schlechten Links sollte man jedoch die Finger lassen!
Das sind zum Beispiel Links von Linktauschprogrammen, Linkverkäufern, Artikelverzeichnissen und
Websites von niedriger Qualität.
Auch die eigenen Links sollte man immer im Auge behalten, denn wenn einst vertrauenswürdige Seiten, die auf deine Website verlinken, ihre Rankings und somit an Qualität verlieren, vertraut Google wahrscheinlich auch nicht mehr den ausgehenden Links dieser Website. Am besten erarbeitet man sich gute Backlinks indem man originellen und auch relevanten Content für den Nutzer erstellt, damit andere Webmaster freiwillig auf deine Domain verlinkt. Das Ziel eines jeden Webseitenbetreibers sollte es sein, sich mehr Links zu verdienen, die den Google-Richtlinien entsprechen.

Keyword-Cannibalization

Die wichtigste Grundlage der Suchmaschinenoptimierung sind die sogenannten Keywords (Suchbegriffe) und Keyword-Cannibalization ist ein immer wieder auftauchender SEO-Fehler. Bei diesem Fehler handelt es sich um meist zwei oder mehrere Seiten die auf das gleiche Keyword optimiert wurden. Sei es durch ein falsches Filtersystem in Online-Shops, fehlende Paginierung oder Canonicals. Jedoch passiert dieser Fehler meist absichtlich. Man optimiert zwei Seiten auf das gleiche Wort um möglichst viel Content zum Thema zu haben, oder optimiert die eine Seite für Handy und die andere auf Smartphone, am Ende bleibt es das gleiche. Das funktioniert so nicht, weil die Maschine am Ende quasi nicht entscheiden kann: „Welche Seite soll ich zeigen?“. Statt gut optimiert, fehl optimiert. Auf ein und dasselbe Keyword sollten nie mehrere Seiten optimiert werden!

zu lange Ladezeiten 

Die Ladegeschwindigkeit deiner Seite ist ein entscheidender Rankingfaktor.
Niemand ist gerne auf einer Seite, die ewig lädt. Wieso auch? Es gibt genug andere Webseiten, wo ich die passenden Informationen bekomme. Doch häufig fällt die Ladezeit bei der Optimierung eher weiter nach hinten. Dabei kann es wirklich einfach sein, diesen SEO Fehler zu vermeiden. Dazu kann man zu Beispiel die Google internen Pagespeed Analyse verwenden.

Um deine Seite auf die Ladezeiten zu optimieren, könntest du folgedes machen:

  • Bilder komprimieren
  • Komprimierung von Dateien durch GZIP
  • große Dateien von der Seite löschen
  • ein guten/besseren Webhost wählen

versteckte Texte + Keyword Stuffing einsetzen

Wer heute noch versteckte Texte auf seinen Webseiten platziert oder seine Seiten mit möglichst vielen Keywords zukleistert, bedient sich längst veralteten und heutzutage sogar gefährlichen Tricks.
Diese SEO-Manipulationen konnten Google vor vielen Jahren täuschen, doch seit 2011 kamen mehrere Updates (wie Panda oder Penguin) wodurch du heute damit genau das Gegenteil erreichst und sogar eine Abmahnung riskierst. Weißer Text auf weißem Hintergrund ist inzwischen beispielsweise ein absolutes No Go.
Hier kannst du noch einmal die Allgemeinen Richtlinien für Webmaster nach lesen. 

Fazit

Diese Zehn häufigen Fehler zeigen, dass man bei der Suchmaschinenoptimierung einiges falsch machen kann. Das sollte jedoch kein Grund sein das Handtuch zu werfen. Wenn du diese 10 Fehler vermeidest, wirst du schon  viel Zeit sparen und nachhaltig deine Rankings verbessern.