Google SEO Elcommerce Blog Beitrag Titelbild Google Suchmaschinenoptimierung Google SEO Elcommerce Blog Beitrag Titelbild Google Suchmaschinenoptimierung
Elcommerce

Google SEO

BLOG BEITRAG
Elcommerce

Google SEO

Prestige Performance Service
Elcommerce Google SEO Blog, Google SEO Automatisiert, organisch, intelligent Elcommerce Google SEO Blog, Google SEO Automatisiert, organisch, intelligent
Elcommerce

Google SEO
BLOG

Automatisiert, organisch, intelligent
Elcommerce

Google AD´s / SEA

Die Maximale und schnellste Entfaltung des gesamten Potenzials funktioniert im Einklang
Google SEO Elcommerce, Blog Beitrag, Google Suchmaschinenoptimierung, innovatives exponentielles Wachstum

Google SEO Blog Beitrag

Google hat bis zum heutigen Zeitpunkt eine enorme Wichtigkeit für unser Leben entwickelt. Für die meisten Menschen ist Google die erste Anlaufstelle, um auf die verschiedensten Fragen Antworten zu suchen. Falls wir etwas nicht bei Google finden können, existiert es quasi für uns nicht und sollte es doch, hat es für uns trotzdem jegliches Vertrauen verloren. Für die Existenz aller Unternehmen mit Online Präsenz ist die allgemeine Zusammenarbeit mit Google durch das Mobile Zeitalter und durch die Digitalisierung zu einer unumgänglichen Pflicht geworden!

Neben der bezahlten Werbung auf Google (Google SEA / Google ADS), welche mit 80% der Einnahmen die Haupteinnahmequelle des Konzerns umfasst, wird uns als Werbetreibende angeboten, unsere Unternehmen in der weltweit größten Suchmaschine auch organisch zu platzieren. Heutzutage ist es quasi für jeden möglich, dank der Google Suchmaschine immer direkter und einfacher von der gewünschten Zielgruppe organisch (kostenfrei) entdeckt zu werden. Diese Platzierung wird durch spezielle Einstellungen und Optimierungen festgelegt, das bekannt ist als Google Suchmaschinenoptimierung (Google SEO).

Inhaltsverzeichnis

Vorwort
     A) Was ist Google SEO
     B) Die Entwicklung
     C) Die Möglichkeiten

Kapitel 1 - Wie funktioniert Google SEO?
     A) Crawling
     B) Index
     C) Ranking

Kapitel 2 - PageRank

Kapitel 3 - RankBrain

Kapitel 4 - Keyword Recherche
     A) Praktische Keyword Recherche
     B) Keyword Analyse Tools
     C) Keyword Suchvolumen
     D) Long Tail Keywords
     E) Strategische Keyword Recherche
     F) Platzierungs Kampf
     G) Saisonale Keywords
     H) Regionale Keywords
      I) Inhalts Formate
     J) Google Keyword Recherche von Elcommerce

Kapitel 5 - Keyword Platzierung & On-Page Optimierung

Kapitel 6 - On Page Optimierung
     A) Header Tags
     B) Interne Links
     C) Bildoptimierung
     D) Meta Tags
     E) URL Struktur
     F) Mobile Optimierung
     G) Content / Inhalt
     H) TOP Content
     I) Qualitative Webseiten Inhalte

Kapitel 7 - Vermeidbare Fehler bei der Onpage Optimierung
     A) Keyword verstreuung
     B) Duplicate Content
     C) Scraped Content
     D) Automatic generated content

Kapitel 8 - Keyword Platzierungen
     A) Seitentitel & URL
     B) Überschriften und Zwischenüberschriften
     C) Fließtext und Seiten Inhalt
     D) Header Tags (H1-H6 Überschriften)
     E) Internes Link Volumen und dessen Autorität
     F) Alt-Text Bildbeschriftung
     G) Title Tags
     H) Meta Beschreibung

Kapitel 9 - Webseiten Snippet

Kapitel 10 - Technisches SEO
     A) Domain
     B) Subdomain
     C) Umlaute
     D) Bindestriche
     E) Domainendung und Top Level Domains
     F) URL Strukturen
     G) SSL (Secure Sockets Layer) Zertifikat
     H) URL Naming
     I) Keywords in URLs
     J) Trennung in URLs
     K) Domain & Hosting
     M) Technische Webseiten Funktion
     P) SEO für CSS
     Q) SEO für JavaScript
     R) DOM - Document Object Model
     S) Crawlbarkeit & Erreichbarkeit der Seite
     T) Critical Rendering Path
     U) Technisches SEO - HTTP / HTTPs Latenz
     V) Technisches SEO - HTTP2

Kapitel 11 - Off Page SEO
     A) Interne Links
     C) Backlinks
     D) Art der Platzierung des Links
     E) Inbound Backlinks
     F) Featured Snippets
     G) Weitere Traffic-Quellen
     H) Lokales SEO

Kapitel 12 -  Weitere Off Page SEO Strategien
     A) Webseite organisch bewerben
     B) Netzwerke aufbauen und Beziehungen pflegen

Kapitel 13 - Analyse, Reporting & Berichte
     A) Analyse & Reporting
     B) Kundenziele
     C) Google Analytics
     D) Google Analytics Tracking Code
     E) Kennzahlen
     F) Links
     G) Ranking & Position
     H) Organische Conversion Rate
     I) Segmentierung der Daten
     J) PageSpeed und Leistung der Webseite
     K) Nutzer & Seiten
     L) Sessions / Sitzungen
     M) Lange Pausen
     N) Seitenwechsel
     O) Google Data Studio

Kapitel 14 - SERP Features
     A) Local Pack
     B) Local-Knowledge-Panel
     C) Featured Snippets
     D) Knowledge Graph (Info Box)
     E) Top Stories
     F) Site-Links
     G) Image Pack
     H) Nutzer Fragen auch
     I) Answer Box (Antwort Box)

Kapitel 15 - Google Penalties (Strafen)


 

Vorwort

Google SEO unterteilt sich in zwei Aufgabenbereiche

Onpage SEO & Offpage SEO

A) Was ist Google SEO?

Das erste sind, wie der Name bereits sagt, alle Optimierungen, die auf der Webseite vorgenommen werden müssen, das letztere sind alle Optimierungen außerhalb der Webseite. Vorträglich zusammengefasst bleibt zum Onpage SEO und Offpage SEO deutlich zu vermerken, dass es sich hierbei um einen langfristigen Prozess handelt und kurzfristige Ergebnisse in der Regel als ausgeschlossen und/oder als nicht zu beachten gelten. Bei Google SEO ist zusätzlich auch zu betonen, dass Ergebnisse nach Tagen oder Wochen nicht feststellbar sind, sondern erst nach Monaten, über mehrere Quartale hinweg und bei StartUps sogar auch mal erst über Jahren die gewünschten Erträge zur Ernte bereitstehen. Google SEO ist eine Art Sparbuch und gibt jedem Unternehmen die Möglichkeit, sich und seinen Platz im jeweiligen Markt mit den richtigen Einstellungen langfristig zu etablieren oder zu skalieren. 

 

B) Die Entwicklung

    Die Art und Weise wie Menschen im Internet nach Informationen suchen, ändert sich ständig gerade im mobilen Zeitalter und durch die Digitalisierung kommen einfach viele neue Faktoren dazu, die es ermöglichen Nutzern, Suchmaschinen und deren Algorithmen eine zuverlässige Quelle für die richtigen Antworten zu sein. Diese Algorithmen wachsen parallel mit den Menschen fortlaufend mit. Die ausgewogenstenAlgorithmen und künstlichen Intelligenzen in der heutigen Zeit, die mit Menschen am aktivsten interagieren, werden von Google verwaltet.

     

    C) Die Möglichkeiten

    Die quantitativen sowie qualitativen Möglichkeiten, die uns als Werbetreibenden der Technologiekonzern zur Verfügung stellt, scheinen nicht unvergleichbar, sie sind es tatsächlich. Neben den unzähligen Vorteilen zählen die massenhaften Webseiten Besucher und vor allem dessen Qualität zu den wertvollsten Eigenschaften, welche Google SEO bereithält. Warum Qualität? Jeder, der bei Google etwas sucht, hat eine klare Absicht (Suchgrund). Diese Absichten werden mehr oder weniger an die Werbebotschaften eines Unternehmens geknüpft. Über die komplexen Eigenschaften und unbezahlbaren Vorteile möchten wir im fortlaufenden Beitrag faktisch mit unseren eigenen Worten eingehen. 

    Die Komplexität dieser Thematik ist eindeutig, daher haben wir uns bemüht, die Wiedergabe dieses Beitrags mit weniger Fachbegriffen auszuführen. Wir bitten unsere erfahrenen Leser um Verständnis. Wir haben in diesem Beitrag ausschließlich nur die relevantesten und wertvollsten Informationen bezüglich fachgerechter Google Suchmaschinenoptimierung für Sie verfasst.

    Wir möchten jedem unserer Besucher viel Spaß und einen hilfreichen Fund bei ihrer Suche nach Informationen über Google SEO - unbezahlt organisch intelligente Werbung wünschen!

     

    Google SEO - unbezahlt organisch intelligente Werbung!

    Kapitel 1 - Wie funktioniert Google SEO?

    Die Hauptfunktionen der Google Suchmaschine teilt sich in drei Teile: 
    Crawling, Index und Ranking!

    A) Crawling 

    Alle verfügbaren Webseiten werden automatisch beim Crawling durchleuchtet. Suchmaschinen nutzen so genannte automatisierte BOTS, die täglich Millionen von neuen Seiten sowie deren Inhalte analysieren, filtern und spezifische Zuordnungen machen. Um den Überblick zu behalten und weiterhin die besten Ergebnisse zu liefern, ist eine Suchmaschine auf das Crawling angewiesen.

    Damit die Crawler der Suchmaschine mit maximaler Produktivität ihrer Arbeit nachgehen können, ist es wichtig, die Navigationsanzeigen auf der Seite so offensichtlich wie möglich zu gestalten, um diese zu fördern. Webseiten mit passwortgeschützten Seiten sind für den Crawler nicht zugänglich, auch Bild Dateien können vom Crawler nicht erkannt werden und werden daher nicht zum Indexieren weiter an die Suchmaschine gegeben, ein Crawler kann ebenso kein Suchformular nutzen. 

    Die effiziente Fortbewegung der Crawler auf einer Webseite kann durch ausgewogene interne Link-Strukturen drastisch gefördert werden. Im Umkehrschluss bedeutet das, dass die Suchmaschine viel schneller einen Einblick über die Webseite und seine Inhalte erhält und diese versteht, um somit die Indexierung in Gang zu setzen.

    Links sind für die Crawler in den meisten Fällen der einzige Weg, um andere Seiten zu entdecken und zu verknüpfen. Daher ist es wichtig den handelsüblichen Fehler zu umgehen und auf die Vernetzungen auf und außerhalb der Seite zu achten. Mit links zu Ihren Blogs, Seiten, Produkt, jeglichem Informativen oder wichtigen Content, übersichtliche Seiten Navigation mit allen wichtigsten Verlinkungen der Seite und externe Links innerhalb Foren, Kommentaren, anderen authentischen Webseiten, Social Media Beiträgen etc. ist jede Seite für das Crawling gut aufgestellt und gilt als vorbereitet.

    Fehler, die beim Crawling unbedingt vermieden werden müssen!
    • Eine Mobile Navigation die von der Desktop Navigation abweicht, Mobile Optimierung ist wichtig, aber nicht so, denn hierdurch wird der Crawler nur verwirrt und muss daher dringend vermieden werden.

    • Navigationen oder Menüs, die nicht in reinem HTML verfügbar sind. Die einzige Möglichkeit für den Crawler eine Seite und seinen Inhalt zu verstehen ist ein klarer HTML Code.

    • Personalisierte Anpassungen der Navigation je nach Besucheranpassung ist je nach Kunde wichtig, allerdings wird hiermit dem BOT eine Art Verschleierung vorgegaukelt welches als Strafe Google gemeldet werden kann und somit den Ruf der Seite sehr stark bei der Suchmaschine beeinträchtigt kann.

    • Navigationen mit Elementen ohne Text. Der Crawler hat keine Möglichkeit, wie ein Mensch den Inhalt eines Bildes oder seine Bedeutung zu erkennen, sondern ist lediglich auf die Analyse eines Textes ausgelegt. Navigationen müssen immer schriftlich betitelt werden, optimal sind z.B. bei Bilddateien Alt Texte, um zusätzliche Informationen an den Crawler zu vermitteln.

    • Nicht verlinkte, wichtige Seiten. Links sind die Wege, die ein Crawler benutzt, um sich auf Webseiten fortzubewegen. Erfahrungsgemäß bringen sehr viele SEOler diesen verheerenden Fehler mit, die wichtigen Unterseiten oder Blogartikel auf der Webseite oder zumindest in Unterkategorien der Navigation nicht zu verlinken. Bei vorhandenen Fehler Seiten, Updates, Wartungen empfiehlt es sich immer, diese nicht leer stehen zu lassen. Um durch zusätzliche Links zum einen eine verbesserte Nutzererfahrung zu schaffen, als auch die Möglichkeit zu gewährleisten, die BOTS problemlos weiterzuleiten, damit diese sich wie geplant weiter durch die Seiten klicken und stöbern können.

     

    B) Index

    Der Suchmaschinen Index ist eine riesige Datenbank, in der alle Seiten, die beim Crawling analysiert werden, mit ihren gesamten Informationen abgespeichert werden. Der Suchmaschinen Index bietet daher eine sortierte und durchsuchbare Sammlung, in der User-spezifisch gebundene Vorschläge innerhalb von Sekundenbruchteilen abrufbar und zuordnungsfähig sind. Um herauszufinden, ob Seiten bereits gecrawlt und indexiert wurden, lassen sich sogenannte Suchoperatoren nutzen.

    Beim Indexieren geht es darum, dass nach dem Crawlen alle Inhalte der Webseite tatsächlich zum Index der Suchmaschine hinzugefügt werden. Es bedeutet nicht, dass alle Seiten und Inhalte, die problemlos gecrawlt wurden, auch automatisch indexiert wurden. Beim Indexieren geht es auch darum, zusätzlich eigenständigen Einfluss mit einzubeziehen.

    Über einen Suchoperator kann man eine so genannte Sitemap einreichen, eine Sitemap ist ein Dokument im XML Format, welches alle entsprechenden Webseiten enthält, die gecrawlt werden sollen. Diese kann man selbst für die Website erstellen oder mit diversen Tools für die beliebtesten Baukästen generieren lassen. Wir empfehlen immer vor dem Einreichen den Inhalt der Sitemap noch mal zu begutachten, denn durch falsche Zeilen, Code Verschiebungen etc. können durch Fehlerhafte Kodierung ganze Seiten Fehler aufweisen. In manchen Fällen sind die Seiten für uns Menschen sichtbar, dennoch können sie für die BOTS Blockaden aufbringen. Der Vorteil einer Einreichung ihrer Sitemap ist simpel

    • Sie signalisiert dem BOT, dass Ihre Seiten genauer gecrawlt werden sollen, um sie einfacher zu indexieren. 

    • Das Einreichen der Sitemap gibt dem Crawler eine Art Navigationshilfe, so dass alle wichtigen Seiten und genauere Analyse unserer Webseite gefunden werden. 

    • Wenn einige Seiten Ihrer Webseite es in den Google Index geschafft haben, und Sie die Seiten in der Suche finden können, besteht die Möglichkeit, sich anzuschauen, wie Google Ihre Seite sieht und ob Ihre gewünschte Seite, über die Sie gefunden werden möchten, von der Suchmaschine korrekt erfasst wurde oder fehlerhaft.

    • Die regelmäßige Indexierung und Aktualisierung neuer Inhalte, weist den Google BOTS Aktivität nach, welches sich im Idealfall auch letztendlich sehr positiv auf das Ranking auswirken kann.

    • Ein weiterer wichtiger Ratschlag ist, wenn Ihre Webseite viele Unterseiten hat, müssen Sie Geduld mitbringen. Die Indexierung einer Seite funktioniert nicht von heute auf morgen, die Suchmaschine muss jeden Tag unzählige Informationen durchsuchen, einordnen, überprüfen, speichern, verändern und wiedergeben. Erfolgreiches Google SEO hat nach Umsetzung der gegebenen Möglichkeiten nur ein wirkliches Geheimnis, „Geduld“!

    DE-Indexierung

    Nach dem Idealfall, dass die gecrawlten URLs es in den Google Index geschafft haben, werden die URLs stetig von Zeit zu Zeit erneut gecrawlt.

    Inaktuelle oder Fehlerhafte Webseiten werden automatisch vom Crawler DE-Indexiert und aus dem Google Index entfernt.

    Weitere DE-Indexierungs-Möglichkeiten sind unzugängliche URLs, aktives Google Penalty für die entsprechende Webseite oder durch eine manuelle Crawler Anweisung.

     

    C) Ranking

    Beim Ranking sucht die Suchmaschine aus allen Indexierten Inhalten für einen bestimmten User die Inhalte, die es am aller relevantesten für den User hält.

    Diese Sortierung nach Relevanz bezeichnet sich als Ranking, dieses Ranking bestimmt, welche Websites auf welcher Position in den Ergebnissen der Suche angezeigt werden. Je früher eine Website in den Ergebnissen auftaucht und je besser der Rang der Webseite ist, desto relevanter wurde sie von der Suchmaschine für diesen User und seine Anfrage eingestuft. 

    Google erfüllt viele Aufgaben in diversen Bereichen, allerdings hat nur eine diese enorme Priorität, den Nutzern das bestmögliche Erlebnis und die bestmöglichen Antworten auf ihre Suchen zu geben. Nach dem Crawling und Indexieren kommt das Ranking, hierfür muss die Suchmaschine bei jeder Suchanfrage jegliche Seiten passend zu den Suchbegriffen aus dem Index raussuchen und die Relevanz für diesen Nutzer separat abwiegen / zu ordnen. Dementsprechend werden auch die Seiten platziert und gerankt. 

    Keywords sind für das Ranking sehr wichtig. Da die Suchmaschine sich der Entwicklung der Menschen im Verhalten und in der Sprache fortlaufend anpasst, haben Keywords nicht mehr die Relevanz für die selbe Suchmaschine wie früher. Die Suchmaschine legt heute zwar immer noch viel Wert auf die verwendeten Keywords, dennoch entscheidet letztlich der relevante Zusammenhang zwischen den Intentionen der Nutzer, der zur Verfügung gestellten Inhalte sowie den verwendeten Keywords. 

    Beim Ranking durch Backlinks, sind Links die von anderen qualitativen Webseiten, authentischen Foren, Blogs etc. Die auf Ihre Webseite verweisen, das Entscheidende. Backlinks, die Sie intern auf Ihren Webseiten verlinken, z.B. zwischen Blog Beiträgen und Produkten oder zwischen zwei Relevanz erzeugenden Nebenseiten etc. Sind zwar wünschenswert, dennoch sind sie aus der Algorithmus Sprache übersetzt vergleichbar, wie Ihre eigene Aussage, über die Qualität Ihrer eigenen Produkte. 

    Die Suchmaschine rankt die Qualitative Veräußerungen einer dritten Meinung enorm! Je mehr qualitative Backlinks Ihrer Webseite zugeordnet werden, desto höhere Ranking Platzierungen können Sie mit Sicherheit erwarten. Backlinks sind entscheidend über die Glaubwürdigkeit und Vertrauenswürdigkeit der jeweiligen Webseite. Diese hat man früher z.B. mit gekauften Bewertungen aufbereitet, so etwas ist durch die Intelligenz der Suchmaschinen heute nicht mehr möglich.

    Eine Herabstufung des Rankings tritt bei gekauften Bewertungen auf, da für die Suchmaschine diese Bewertungen vergleichbar mit Links von unseriösen Seiten ist. Hingegen dazu sind authentische Bewertungen in etwa vergleichbar mit Links von seriösen und autoritären Quellen und werden von der Suchmaschine höher gerankt. Eine Seite ohne Backlinks ist für die Suchmaschine genau dasselbe wie für Menschen keine Bewertungen zu einem Unternehmen. Ohne Links von externen Quellen kann Google zwar den Inhalt einer Seite analysieren, aber die Vertrauenswürdigkeit über die Korrektheit und Vollständigkeit, wie sie durch Verlinkung der Webseite entsteht, fehlt. 

    Google benennt die Analysen und das Bewerten der Links als PageRank, hierbei handelt es sich um eines der wichtigsten Teile des Algorithmus. Der PageRank überprüft links zwischen Webseiten und analysiert diese, um Schlüsse über die Qualität, Vertrauenswürdigkeit und Relevanz der jeweiligen Seite zu ziehen. Grundlegend gilt, je hochwertiger und vertrauenswürdiger eine Webseite ist, desto mehr Backlinks müssen sie verfügen, da andere Webseite stets auf gute Inhalte von qualitativen und vertrauenswürdigen Webseiten verlinken. Nach der Erläuterung der Backlinks, die für Ihre Vertrauenswürdigkeit bei der Suchmaschine stehen, steht im direkten Zusammenhang noch ein zweiter Teil offen, hierbei handelt es sich um die Inhalte auf der Webseite, die für die Suchenden Nutzer zur Verfügung gestellt werden. Im Idealfall wird der Inhalt ihrer Seite auch für andere Webseiten zur Verfügung gestellt.

    Qualitative Webseiten mit weiteren Infos oder relevanten Verknüpfungen zu verlinken, so dass diese darauf zurück verlinken, ist eine kluge und beliebte Strategie, mit der sie aus dem Inhalt heraus weitere Backlinks generieren können. (Weitere Informationen bezüglich des Link-Buildings finden Sie im fortlaufenden Beitrag im Bereich Offpage SEO.)

    Hauptsächlich muss der Inhalt der Webseite relevanten und „brauchbaren“ Content zur Intention der Nutzer und Zielgruppen bei ihrer Suchanfrage bereithalten. Die bestmögliche und hilfreiche Kundenerfahrung für Ihre Zielgruppe muss gewährleistet sein, um sich vom Großteil Ihrer Konkurrenz abzuheben. Der Inhalt sollte mit den jeweiligen Formaten u.A Texten, Bilder, Videos etc. so ausgelegt sein dass sie das relevanteste Ergebnis direkt liefert z.B so das der Nutzer anhand eines Erklärvideos schneller und einfacher an seine gewünschte Information gelangt oder anhand beigefügter Bilder der Nutzer Psychologisch den Inhalt Ihrer Webseite besser aufnehmen kann.

    Solche Formate bieten auch den Vorteil, in der Suchmaschine passiv von Nutzern entdeckt zu werden, worüber wir weiter unten im nächsten Absatz näher darauf eingehen.



    Kapitel 2 - PageRank

    Der Name von PageRank heißt nicht auf dessen , dass diese die Seiten rankt, sondern ist nach dem Google Mitgründer Lawrence Page benannt worden. Natürlich ist der PagRank Algorithmus auch dafür zuständig, die Seiten in der Google Suche zu ranken, jedoch nicht nur das! 

    Es gibt bei Google nicht nur einen einzelnen Algorithmus

    Es gibt zum Beispiel den Core Algorithmus, der aus verschiedenen Algorithmen besteht, beispielhaft dem PageRank sowie zusätzlich weitere kleinere Algorithmen, die stetig weiterentwickelt werden. 

    Der PageRank ist in keiner Weise mit den umfassenden und alleinigen Merkmalen mit dem Rang einer Webseite gleichzusetzen. Früher konnte man den PageRank als Kennzahl einsehen und somit feststellen, wie gut oder schlecht die Webseite eingeschätzt wird. Das funktioniert heute so nicht mehr!  

    Der PageRank hat ein Prinzip, dieses Prinzip ist, dass je mehr Links auf einer Webseite existieren, desto höher muss auch die Bedeutung dieser Webseite sein. Dabei ist nicht nur die Anzahl der Links entscheidend. Es spielt hier die Relevanz und Qualität der verlinkenden Webseiten eine Rolle. Vergleichbar ist das ganze mit der Mund zu Mund Propaganda, nur halt in digitaler Form. Wenn bei gleicher Themenrelevanz ein kleines und noch eher unbekanntes Unternehmen auf seinem Blog etwas empfiehlt, dann ist es einfach nicht so wirkungsvoll und aussagekräftig wie die direkte Empfehlung eines globalen Konzerns. So werden über die verschiedenen Etappen die Bedeutung, Qualität, Relevanz und Anzahl der Links vom PageRank kombiniert, um einen Anhaltspunkt festzulegen, wie beliebt eine Webseite ist.

    Hierfür wird das Random Surfer Modell benutzt, es wird lediglich ein Nutzer angenommen, quasi erschätzt, der zufällig bestimmten Links auf Webseiten folgt, die wiederum zu anderen Webseiten führen. Nachdem durchklicken wird sich dieser Random Surfer nach unbestimmten Abständen „langweilen" und einfach ganz neue Webseiten aufrufen und von dort aus wieder weiter Links folgen. Auch wenn hier die Auswahl völlig zufällig und ohne Wertungen erfolgt, ist es natürlich verständlich und logisch, das der Surfer eher auf Seiten landet die von vielen weiteren Webseiten verlinkt werden, als auf einer Webseite die im gesamten Netz nur von einer einzigen weiteren Webseite verlinkt wird. So kann man die Basis des Ganzen verstehen.

    Wie wirkt sich nun dieser PageRank auf die Seiten aus, die verlinkt werden? Jede Webseite, die zu einer anderen Webseite verlinkt, gibt mit diesem Link ein wenig „PageRank“ oder auch Autorität weiter, da es ja quasi eine Empfehlung ist. Wie viel Autorität jedoch abgegeben wird, hängt alleine davon ab, wie vielen andere Webseiten die Seite verlinken. Wenn eine Webseite zu 1000 weiteren Webseiten verlinkt, dann hat jede einzelne Verlinkung nicht so viel Gewicht, wie wenn eine autoritäre Webseite zu 10 ausgewählten Partnerseiten verlinkt, da die Relevanz und Qualität der Partnerseiten deutlich höher sind. 

    Die eigentliche Kennzahl von PageRank gibt es, wie bereits beschrieben, so nicht mehr, zumindest nicht mehr öffentlich.

    Wir vermuten, dass Google diesen Wert bewusst entfernt hat, da sich SEO und Webmaster darauf versteift haben, um den Wert zu steigern und die eigentliche Optimierung dadurch darunter gelitten hat.

    Anstatt eine Kennzahl zu jagen, sollte dafür gesorgt werden, dass über die Optimierung, die Nutzer, die auf der entsprechenden Webseite erwartet werden, das Ranking vorantreiben. Dazu gehört vor allem die Bereithaltung von sehr qualitativen Inhalten und die richtige technische Implementierung dieser Inhalte für alle Endgeräte, um so schließlich eine gute Nutzererfahrung auf der Webseite zu schaffen. 

    Zu viele SEOs und auch Agenturen konzentrieren sich auf Kennzahlen anstatt auf die Stellschrauben, die gerade erst dafür sorgen, dass sich das Ranking auf lange Sicht wirklich verbessert.



    Kapitel 3 - RankBrain

    Der RankBrain ist wie der PageRank ein wichtiger Teil des Algorithmus, welcher wie der Name hergibt das Gehirn der Suchmaschinen sein soll.

    Der RankBrain wird mit jeder Suche besser, schneller, größer, intelligenter und effizienter. Es geht darum, jegliche Suchen zu verbessern. Wenn 80% aller Nutzer in einer Suche auf das fünfte Ergebnis statt auf das erste klicken, wird der RankBrain mit Sicherheit diese Ergebnisse anpassen und das fünfte Ergebnis zu seiner Zeit an einer besseren Stelle platzieren. 

    Alle Suchen werden durch RankBrain analysiert und jedem User entsprechende Ergebnisse gezeigt. Bei einer Suche, die unklar formuliert wird nutzt das RankBrain alle möglichen Faktoren u.a Standort des Suchenden, Personalisierung über bekannte Daten, Analyse der verwendeten Wörter um der Suchanfrage das meist mögliche Verständnis entgegen zu bringen und dem User die Relevantesten Ergebnisse anzeigen kann. 

    RankBrain zielt darauf ab, das Verhalten der Nutzer zu analysieren, daher ist es enorm wichtig, dass die Nutzer, die auf der entsprechenden Seite landen, den besten und hilfreichsten Inhalt zu ihrem Anliegen finden können. Anhand des Aufrufs, Teilen und der Zeit, die Nutzer auf ihrer Seite verbringen, rankt das RankBrain dementsprechend die Relevanz der Webseite.

    Das RankBrain kann sogar feststellen, ob ein Nutzer nach dem Besuch Ihrer Webseite weiter sucht und ob die Suchanfrage auf Ihrer Webseite das Anliegen des Nutzers erfüllt hat oder nicht. Wenn die suchenden User auf Ihrer Webseite stets den hilfreichsten Inhalt finden können und Ihre Suchanfrage in den meisten Fällen zu einem erfüllten Anliegen bei trägt, ist Ihre Webseite für das RankBrain gut aufgehoben.



    Kapitel 4 - Keyword Recherche

    In dem Moment, in dem man versteht, wie sich Ihre Zielgruppe verhält und wonach sie suchen und vor allem wie ergeben sich Ihnen unglaublich viele Möglichkeiten für die Keyword Recherche. Der erste und meist unterschätzteste Fehler bei der Keyword Recherche lauten personifizierte und Zielgruppen abgestimmte Fragen aufschreiben und gegeben Möglichkeiten einzukreisen: 

    • Wer sind Sie im Markt?

    • Wer sind Ihre Zielgruppen und Kunden?

    • Was für Ziele und Interessen verfolgen diese?

    Das Problem ist, dass die Unternehmen wofür sie gerne ranken würden und das, was ihre Zielgruppen suchen, meist völlig verschiedene Sachen sind. Hier gilt es, sich auf sein Bauchgefühl zu verlassen, um die Ziele, Wünsche und Motivationen Ihrer Zielgruppe besser zu verstehen. Diese kostbare Erkenntnis lässt sich faktisch nutzen, um noch erfolgreicheres SEO zu betreiben.

    Beispiel

    Mark besitzt einen Burger Laden mit Lieferservice, in dem er exklusive Burger zum Verzehr für seine Kunden anbietet und möchte mit Google SEO das Dinner Angebot aus seiner Karte bekannter machen.

    Bevor er anfängt sollte er sich zunächst mit folgenden möglichen Fragen befassen:

    • Wird nach Angeboten für ein Abendessen in seinem aktiven Bezirk gesucht?

    • Wer sind die Personen, die nach diesem Thema suchen?

    • Welchen Tagesablauf haben diese Menschen und kommen Mittagsmenüs oder Feierabendangebote in Frage?

    • Wann suchen diese Personen allgemein danach?

    • Wie suchen diese Personen danach?

    • Welche Wörter, Schreibweisen, Ton oder Emotionen werden im Regelfall und im Ausnahmefall während der Suche verwendet?

    • Was ist der Ausnahmefall?

    • Sind gegebenenfalls Preisanpassungen notwendig, um das Angebot lukrativer zu gestalten und im Idealfall mehr Stammkunden aufzubauen?

    • Sind im Unternehmen aktuell die finanziellen Möglichkeiten gegeben, exklusive Angebote für Stammkunden einzubinden, wie z.B. nach jeder fünften Menü Bestellung ein Menü gratis?

    • Welche Fragen werden häufig von den Suchenden gestellt und gibt es Alternativen, um vorgefertigte Lösungen bereitzustellen, um für neue Kunden attraktiver zu wirken?

    • Passieren die Suchen am Computer oder am Handy?

    • Gibt es ortsbedingt eine erhöhte Nachfrage für z.B vegetarische oder vegane Angebote?

    • Wo befinden sich Personen, die Suchen?

    • Wie versorgt die ortsansässige direkte Konkurrenz den Markt, welche Nachhaltigkeit bieten Sie und welche idealerweise nicht ?

    • Gibt es strategische Lücken, um bestimmte Leute innerhalb der Zielgruppe zu erreichen, die zwar nicht so groß ist, aber dennoch vollständig für das geplante Vorhaben ausgeschöpft werden können?

    Durch diese Fragen kreisen Sie Möglichkeiten auf Möglichkeiten ein, bauen allgemeine Zielgruppen Strategien auf und richten Ihre Keywords nach diesen!

    Elcommerce Antwort an Mark

    Lieferdienste sind in der Regel schon ab 22 UHR zu! Das bedeutet, wenn Mark sich nun richtig positioniert, und statt z.B. von 15-23 UHR, sein gesamtes Unternehmenskonzept von 22-06 UHR verlagert und seine frischen Bürger nun an nur bestimmte Leute seiner Zielgruppe liefert, dann hat er mit nur einem umgesetzten Gedanken, quasi einen gesamten Markt für sich alleine erobert. Dieser „Markt im Markt“ ist zwar nicht so groß wie der eigentliche, jedoch muss Mark diesen mit „niemanden“ teilen und kann einem bestimmten Teil der Zielgruppe dann weiterhelfen, wenn seine Konkurrenz nicht verfügbar ist. 

    Hier ergreift Mark auf unseren Ratschlag lediglich eine ideale Initiative, um jedem Kunden mit seinem Angebot  dann zu helfen, wenn seine Konkurrenz „schläft“. Auch wenn es sich nur um einen Teil einer bestimmten Zielgruppe handelt, dürfen solche Strategien, die nur Ursache bestimmter und einfacher Fragen sind, niemals unterschätzt, geschweige vernachlässigt werden! 

    Anschließend kann nun Mark diesen Personen langfristig helfen, indem er Keywords, die innerhalb seiner Strategien verwendet werden, in seine Webseite und Werbungen einbindet und so auf sein außergewöhnliches Angebot fortlaufend aufmerksam macht. Natürlich sollten die besten und hilfreichsten Inhalte so bereitgestellt werden, dass die Fragen und Anliegen der Suchenden smart und auf direktem Weg beantwortet werden.

    Hier gilt es zu versuchen, alle wichtigen Fragen so gut und gewissenhaft wie nur möglich zu beantworten und den ersten Schritt einer strukturierten Keyword Recherche zu erledigen. 

    Dieser Verlauf wird es erlauben, wirklich gute Stamm-Keywords und auch relevanten Inhalt zu erstellen, der Ihre Zielgruppe da abholt, wo sie sich auch befindet!

     

    A) Praktische Keyword Recherche

    Der nächste Anhaltspunkt ist die praktische Recherche, bei der Sie die primären Keywords benutzen, die Sie für die SEO im Normalfall nutzen würden. Statt sie allerdings für die SEO zu benutzen, geben sie zunächst selbst in der Google Suchleiste Ihre im Regelfall nutzenden Keywords ein und versuchen festzustellen, ob dieselben Dienstleistungen, Produkte, Konkurrenz sprich Inhalte, die Sie als „Suchender“ erwarten, angezeigt werden oder nicht. 

    Durch das Nachahmen Ihrer Zielgruppe können Sie auf ganz natürlichem Wege den Weg begutachten, auf dem Ihre Zielgruppe anfängt, nach einem bestimmten Thema oder Lösung zu suchen und wie Sie Ihr Unternehmen in diesen Weg hinein implementieren können um so, das die Präsenz Ihres Angebots / Innovation / Lösung etc. unumgänglich ersichtlich ist, wenn nach bestimmten Anhaltspunkten, bei Google gesucht wird.

    Dementsprechend können Sie so Ihre Zielgruppe und vor allem die potentiellen Kunden unter diesen, viel direkter auf Ihre Webseite und weiteren Werbebotschaften lenken und somit auf effizientesten Weg Ihre Conversion sowie Traffic Rate, intelligent, still und umfangreich steigern. Durch das Aufrufen Ihrer Seite von Usern, die Interesse an Ihrem Unternehmen haben, steigern Sie auch passiv Ihr Ranking durch die längere Aktivität der User auf Ihrer Seite. Das Gegenteil ist auch dann der Fall, wenn die User umso schneller wieder die Seite verlassen, da ihnen eventuell nicht wirklich geholfen werden konnte oder sie mit anderen Aussagen auf die Webseite gelockt wurden und Ihr Suchgrund nicht ersichtlich werden konnte etc.

    Selbstverständlich versuchen Sie sich durch sämtliche Such-Vorschläge und kreisen somit Wort für Wort Ihre Keywords entsprechend der Ähnlichkeit zu den gefundenen Ergebnisse und dem Angebot Ihres Unternehmens immer weiter ein. 

    Die Recherche dauert eben wie es dauert, bis Sie die Keywords haben, die benötigt werden, um unverzüglich und auf direktem Wege für Ihre Zielgruppe aufrufbar zu sein.

     

    B) Keyword Analyse Tools

    Die nächste kostbare Strategie für die Keyword Recherche ist die Nutzung spezieller Keyword Analyse Tools. Elcommerce nutzt hauptsächlich die beiden kostenpflichtigen Tools:

    Nutzen Sie zunächst die handelsüblichen Keywords, die Sie im Normalfall für Ihre SEO benutzen würden. Die Vorschläge der Tools beinhalten sehr wertvolle Tipps, Daten, monatliches Suchvolumen, PPC, Zielgruppenverhalten sowie weitere wertvolle Anhaltspunkte, an denen Sie anknüpfen können, um Ihre handelsüblichen Keywords strategisch zu erweitern. Anhand der Tools und ihrer Vielzahl an Vorschlägen ergeben sich meistens Ideen, die vorher so nicht in Betracht gezogen worden sind. Entwickeln Sie durch die umfangreichen Vorschläge der Tools eine spezielle Keyword Strategie, die Ihrem Unternehmen und dessen Vorteile angepasst ist, Sie werden es einfacher haben!

     

    C) Keyword Suchvolumen

    Beliebte Keywords mit einem hohen Suchvolumen sind immer reizvoll, allerdings aufgrund der bestehenden Konkurrenz in den meisten Fällen nicht immer produktiv. Daher sind Keywords mit einem hohen Suchvolumen schwieriger im Ranking zu platzieren (In den Analytics Tools wird dieser Messwert als KD [keyword difficulty] bezeichnet). Keywords, die ein nicht so hohes Suchvolumen aufbringen, können zwar deutlich beliebter, direkter und gewünscht sein, diese bergen jedoch die Gefahr, dass sie kaum oder wenig Besucher auf die Seite ziehen, da die direkte Konkurrenz wahrscheinlich auch mit den selben Keywords arbeitet. 

    Oft ist der richtige Weg eine gute Kombination aus zu oft gesuchten Keywords und Keywords mit wenig Suchvolumen mit geringer Konkurrenz, die dafür auf ein bestimmtes Zielpublikum innerhalb der Zielgruppe ausgerichtet ist.

     

    D) Long Tail Keywords

    In den meisten Fällen ist es interessant, sich vor allem mit sehr spezifischen Variationen von Keywords zu beschäftigen. Bei der SEO werden solche z.B. als Long Tail Keywords bezeichnet. Um die hoch beliebten und gewünschten Keywords zu nutzen und gleichzeitig die bereits belegten Plätze der Konkurrenz zu umgehen, nutzt man die sogenannten Long Tail Keywords. Diese bilden sich anhand der primären Keywords und dem Kontext, z.B. statt: Smartphone Hülle, robuste Smartphone Hülle im Holzdesign.

    Long Tail Keywords sind keinesfalls an Produktivität zu unterschätzen! Sie haben ihren Namen nicht anhand eines längeren Textes, sondern der hauptsächliche Grund ist, dass die Verteilung aller Suchanfragen des Suchenden in einem Suchbild enthalten ist. Long Tail Keywords machen 80% des gesamten Traffics aus, während normale Keywords nur 20% statistisch belegen. Long Tail Keywords bedeuten weniger Konkurrenz und sorgen bei richtiger Anwendung eindeutig für ein höheres Suchvolumen innerhalb bestimmter Suchanfragen und somit auch für gute Ranking Möglichkeiten. 

    Verständlicherweise basieren für Long Tail Keywords weniger allgemeine Suchen im Vergleich zu primären Keywords, allerdings formulieren die Suchenden ihre Anfragen so deutlich, dass die Intention des Suchenden sofort ganz klar ist. Viele Webseiten-Betreiber, Webmaster und SEOler können sich von dem Gedanken nicht lösen, mit den primären Keywords Ihrer Branche zu ranken. Da diese zunächst den logischsten, einfachsten und relevantesten Bezug auf die Unternehmung und Marktteilnahme hat. 

    Wir möchten ausführlich erläutern, warum das nicht funktioniert. Niemand sucht bei Google unter Freizeit oder Aktivität, wenn der Nutzer bereits eine direkte Kaufabsicht für ein Fahrrad in Betracht gezogen hat. Egal ob ein Keyword Millionen Suchanfragen täglich nachweist, es schadet Ihrer SEO, wenn Sie allgemeine und uneindeutige Keywords nutzen, die keinen Aufschluss darüber geben, was die Suchenden eigentlich möchten. Richten Sie sich stets danach, welche Keywords in den Suchanfragen Ihrer Zielgruppe enthalten sind und wie diese letztendlich mit Ihrem Vorhaben in Relevanz zueinander stehen. Legen Sie immer einen enormen Wert auf eine ausführliche Zielgruppenoptimierung, Die Zielgruppe bestimmt die Branche! 

    Richten Sie sich stets nach Ihrer Zielgruppe statt willkürlich auf die Branche und Marktstatistiken! Wenn Sie die Anliegen, Probleme und Bedürfnisse Ihrer Zielgruppe vor Augen halten und sich für den Moment der Suche in ihre Lage hinein begeben können, können Sie ganz einfach eine Menge wunderbarer Strategien entwickeln, um die richtigen Long Tail Keywords auszuwählen und für gute Rankings zu nutzen. 

    Nach der Zielgruppenoptimierung wenden Sie sich der Optimierung bezüglich der effizientesten Vorteile Ihres Unternehmens zu, gestalten Sie Ihr Angebot und Ihre Werbebotschaften stets dementsprechend. Das ist neben der Recherche für ideale Long Tail Keywords, für die ganze SEO und darüber hinaus für das gesamte Online Marketing ein weiterer Goldener Elcommerce Ratschlag

    Wenn Sie andere exklusive Nebenangebote haben oder sich mit gewissen Punkten von Ihrer Konkurrenz abheben, bringen Sie diese klar zum Vorschein und denken Sie daran, diese Strategien bei der Long Tail Keyword Recherche mit einzubeziehen oder zumindest in Betracht zu ziehen. Durch diese Methoden erreichen Sie im besten Fall Ihre Zielgruppe durch Ihre Einzigartigkeit. Wenn Sie die effizientesten Vorteile Ihres Unternehmens, vorzüglich an den Problemen statt Bedürfnissen Ihrer Zielgruppe knüpfen können, generieren Sie Traffic mit ihrer Zielgruppe die zeitgleich nach einer Lösung für ein bestehendes Problem sucht und mit Dringlichkeit zu einer erhöhten Kaufabsicht oder weiteren Interaktion neigt.

    Dazu zählt im richtigen Moment eine Lösung oder Alternative anzubieten, die Relevanz erzeugend und produktiv im Bezug auf das Problem Ihrer Zielgruppe ist. 

    Beispiel 1

    Erik hat einen One-Product-Shop und bietet dort Badelatschen mit Akupunktur Funktion zum Verkauf an, diese kauft er für 3,55€ ein und verkauft sie für 39,90€ per Dropshipping System. Um über seinen Onlineshop automatisiert organische Einnahmen zu generieren, möchte Erik mit Google SEO seinen Online Shop ranken. Dafür informiert er sich auf unserer Seite. Statt allgemeine Primäre Keywords wie Badelatschen, Strand, Sommer, Lifestyle zu verwenden, hat Erik unseren Beitrag gelesen und verwendet eher Zielgruppen optimierte Longtail Keywords wie: 

  1. Kreislaufprobleme drastisch mindern
  2. Bluthochdruck natürlich senken
  3. Stoffwechsel anregen ohne Supplements  
  4. Suchanfragen der Nutzer: 

  5. Was hilft gegen drastische Kreislaufprobleme?
  6. Wie senkt man den Bluthochdruck?
  7. Wie regt man den Stoffwechsel natürlich an?
  8. Wenn Erik Badelatschen verkauft, dessen effizientester Vorteil das Design ist, dann muss er dementsprechend die Keywords aussuchen. Wenn der effizienteste Vorteil des Produkts gesundheitsfördernd ist und vorzüglich Probleme statt Bedürfnisse löst, dann muss er auch dementsprechend die Keywords aussuchen.

    Beispiel 2

    Nele hat einen Fahrradladen in München, sie nutzt das Keyword „Fahrrad“ und erhält im besten Fall trotz der geringen Wahrscheinlichkeit auch eine gute Platzierung in den Top 10. Nun wird das Keyword „Fahrrad“ von einem User in der Suchanfrage eingegeben…

    Das Problem bei primären Keywords mit hohem Suchvolumen, die so allgemein sind, ist, dass die eigentliche Such-Intention des Users nicht ersichtlich ist.

    Der Fahrradladen verkauft Fahrräder, aber ob der User unter dem Keyword „Fahrrad“ einen Fahrrad Reparatur-Service, Fahrradvermietung, Fahrrad Vergleiche, Fahrrad Zubehör, Fahrrad Helm sucht ist nicht bekannt. Daher werden dem User, der nach „Fahrrad“ sucht, alle diese Vorschläge angezeigt und das Ranking der Seite, sowie die Anzahl der erreichbaren potentiellen Kunden, wird minimiert. 

    Der Grund, warum der Fahrradladen gefunden werden möchte und die Suchintention des Kunden, müssen passend zueinander sein und so das Keyword ergeben. Neles Fahrrad Laden verkauft Fahrräder, die Zielgruppe von Nele möchte Fahrräder kaufen, das genutzte Keyword sollte nicht lauten „Fahrrad, Freizeit, Aktivität sondern stattdessen „neues Fahrrad kaufen in meiner Nähe, Moderne E-Bikes Ratenkauf, Sport Fahrräder Stuttgart, Fahrradfachhandel Köln, Fahrradladen in München-Süd“. 

     

    E) Strategische Keyword Recherche

    Inhaltliche Lücken der Konkurrenz nutzen.

    Durch die Identifikation von Inhaltlichen Lücken ihrer Konkurrenz und anhand der oben verlinkten Analysetools können Sie feststellen ob es für Ihr Unternehmen relevante Keywords gibt die von Ihrer Konkurrenz anhand des Fehlenden, weniger qualitativen oder unbeachteten Inhalts nicht genutzt werden.

     

    F) Platzierungs Kampf

    Ein weitere Option bezüglich Strategischer Keyword Recherche ist der direkte Kampf um die begehrten und handelsüblichen Keywords einer Branche, mit der direkten Konkurrenz. Hier versuchen Sie mit denselben Keywords, die Ihre Konkurrenz benutzen, die begehrten Plätze im Ranking Ihrer Konkurrenz abzunehmen. Anhand der oben verlinkten Analyse Tools haben Sie einen erweiterten Einblick in die verwendeten Keywords auf den Webseiten jeglicher Konkurrenten, durch das Suchvolumen des Keywords, KD, PPC etc. 

    Im direkten Kampf um Keywords entscheidet letztlich die Qualität der veröffentlichten Inhalte, diese Entscheidung trifft Google anhand der Reaktion und Verhalten der Nutzer auf einer Webseite zu einer bestimmten Suchanfrage!

     

    G) Saisonale Keywords

    Saisonale Keywords gelten immer zu beachten und zu berücksichtigen. Dazu gehören nicht nur die Jahreszeiten, sondern auch Feiertage, vor allem Weihnachten, Ostern, Valentinstag, Black Friday etc. Auch Umfangreiche Events, globale Ereignisse (z.B eine Pandemie, Weltmeisterschaften etc.) oder andere Branchen spezifischen besonderen Anlässen können produktive Ergebnisse mit sich bringen.



    H) Regionale Keywords

    Regionale Keywords sind eine zusätzliche Alternative um bessere Rankings zu erzielen. Es handelt sich um keine Stadt Bezeichnungen in den Keywords, hierbei handelt es sich um den  Aufenthaltsort der Zielgruppe bei dem über Lokale und Regionale Anpassung am Inhalt und an den Keywords in form von Sprache, Akzent, Synonyme für bestimmte Plätze, Orte etc. die nur innerhalb der Region bekannt sind, versucht wird bessere Ergebnisse zu erzielen.

    Beispiel

    Ein Eiscafe am Hauptbahnhof in Hannover steht neben einer Statue, die in der Stadt von Ansässigen bekannt und bezeichnet wird als Unterm Schwanz. Das Eiscafe passt den Inhalt der Seite oder die Keywords an. Denn während Hauptbahnhof Hannover evtl. von 65 Läden im Umkreis als Keyword genutzt wird, steht das Keyword Unterm Schwanz nahezu komplett frei. Die Suchmaschine kann das Synonym dieser Location anhand jeglicher vergangenen Veröffentlichungen diesbezüglich eindeutig identifizieren und feststellen, dass es sich um den Eingang des Hannover Hauptbahnhofs handelt.

     

    I) Inhalts Formate

    Es ist nicht nur wichtig zu wissen, was die eigene Zielgruppe interessiert, sondern auch mit welchen Themen sowie Inhalten sich diese auch beschäftigen. Daher spielt es eine Rolle, in welcher Form oder Format diese Inhalte der entsprechenden Zielgruppe zur Verfügung gestellt werden.

    Die Google Suchmaschine ist mittlerweile so intelligent, dass sie die Intention der Suchenden verstehen und ihnen die Inhalte anzeigen, die sie benötigen und auf sie zugeschnitten am relevantesten erscheinen.

    Was Ihre Zielgruppe sucht, sucht Sie in der Hoffnung auf Fund, ob bei Ihnen oder Ihrer Konkurrenz dieser Fund liegt, spielt für den Suchenden keine Rolle, aber für Ihr Unternehmen schon. Welches Format und welche Darstellung Ihrer Inhalte die richtigen sind, können Sie ganz einfach an den Inhalten der top platzierten Webseiten Ihres Markts erkennen. Diese Seiten haben Ihre Platzierung nicht ohne Grund. Diese Seiten werden so hoch gerankt, weil sie schlichtweg Ihrer Zielgruppe am nächsten das geben, was sie auch suchen. 

    Bei Google SEO gilt es vor allem das Rad nicht neu zu erfinden, denn die top platzierten Ergebnisse sind in der Suche deshalb so beliebt, weil die Nutzer diese Art der Inhalte bevorzugen und sehen wollen!

    Google selbst verweist in den Quality Rater Guidelines auf verschiedene Intents. Diese beinhalten die Gründe für die Suche der Nutzer.

    Wir haben die Top 5 der gängigsten Suchgründe für Sie zusammengefasst.

    • Informationsbezogene Suchen - der Nutzer benötigt konkrete Informationen.

    • Navigationsbezogene Suchen - der Nutzer sucht eine bestimmte Webseite oder dessen Unterseite.

    • Aktionsbezogene Suchen - der Nutzer möchte etwas bestimmtes tun, anschauen, anhören, kaufen.

    • Kommerzielle Recherche - der Nutzer möchte bestimmte Produkte etc. erkundigen und vergleichen

    • Lokale Suchanfragen - der Nutzer möchte etwas in der eigenen Umgebung finden.

    Wenn Sie nach der Keyword Recherche Ihre Keywords zusammengestellt haben und verwenden möchten, werfen Sie einen letzten Blick über die Suchergebnisse Ihrer ausgewählten Keywords und verfolgen Sie dabei das Ziel genaue Einblicke in die Absicht und Intention der Suchenden / Nutzer.

    Google agiert bereits sehr fortgeschritten darin, den Suchenden relevante Inhalte in den bestmöglichen Formaten anzuzeigen. Daher sind die Suchergebnisse ein optimaler Indikator für die Art von Inhalt, die sich die entsprechende Zielgruppe wünscht.

     

    J) Google Keyword Recherche von Elcommerce

    Statt wie handelsübliche SEO Agenturen übereilt direkt mit entsprechenden Tools nach Suchvolumen etc. zu schauen, beginnen wir zunächst damit, eine ausführliche und allgemeine Liste mit den bestmöglichen Keywords zu erstellen (Keyword Beispielliste). Wir beschäftigen uns in erster Linie mit dem Inhalt und Fließtexten der Seiten und suchen nun alle wichtigen Keywords heraus. Hierbei analysieren wir neben der Seite unserer Kunden hauptsächlich die Seiten der Konkurrenten unserer Kunden. Im Idealfall stellen uns unsere Kunden bereits eine kleine Liste mit den größten Konkurrenten Ihrer Branche vorab schon einmal zur Verfügung. Hier notieren wir nun jegliche Keywords, die von den Konkurrenten unserer Kunden im Inhalt, Überschriften, Fließtext und auch selbstverständlich für die Google Suche verwendet werden. So beantwortet man die Fragen, mit welchen Keywords die Top-Konkurrenz überhaupt in der Google Suche gerankt wird! 

    Gleichzeitig versuchen wir, verwandte Keywords und/oder spezialisierte Long-Tail Keywords zu diagnostizieren und vor allem auch die entsprechenden Fragen, die zu diesen Keywords von den Nutzern in der Google Suche gestellt werden könnten! 

    Wenn wir diese Liste an Keywords für uns zusammengesetzt haben, werden wir erst dann im nächsten Schritt überprüfen, wie die Kennzahlen dieser Keywords nun ausschauen! Dabei schauen wir zunächst auf die: 

    1. Suchvolumen - Das Suchvolumen in der Google Suchmaschine gibt die bestimmte Anzahl an Suchanfragen zu einem gewissen Suchbegriff im meist monatlichen Zeitraum an. Hier werden die Zahlen jedoch geschätzt und können durch saisonale, regionale oder thematische Faktoren schwanken.

    2. Schwierigkeitsgrad für das zu rankende Keyword (KD) - Diese Schwierigkeitsgraden sind nicht zu verwechseln mit dem Competition Score von Google Ads, auch wenn diese sehr ähnlich sind und auch bei den Keywords so auftauchen, Der Competitors Score von Google Ads bezeichnet die Konkurrenz für bezahlte Suchanzeigen und nicht wie schwierig es ist in der organischen Suche zu ranken. Bei dem Keyword Schwierigkeitsgrad - Keyword Difficulty(KD) handelt es sich um einen sehr wichtigen Wert, der angibt, wie stark ein Keyword umworben wird. Demnach lässt sich identifizieren, wie leicht oder schwer es anhand der bestehenden Konkurrenz sein kann, zu ranken.

    3. Klickrate beeinflussenden Faktoren - Unter den Klickrate beeinflussenden Faktoren, versteht man in der Regel die SERP Features. Im Vergleich zu früher, wo die Suchergebnis-Seite einfach nur zehn Links enthalten hat, gibt es heute viele neue Features wie z.B. Antwort Boxen, Featured Snippets oder lokale Ergebnisse. All diese Dinge werden über den eigentlichen Ergebnissen angezeigt und verringern dadurch in der Regel die Klickrate für die normalen organischen Ergebnisse. Rein theoretisch steht diese also über den eigentlichen Ergebnissen, welche in der Regel ab Ergebniss „EINS“ anfangen. Hier gibt es also die Möglichkeit, mehrere Ergebnisse „NULL" abzugreifen, also Ergebnisse, die quasi über den ersten Ergebnissen in der Google Suche angezeigt werden. Wenn man also Keywords anschaut, bei denen es große SERP-Features gibt, dann kann man davon ausgehen, dass man mit der Position eins noch unter den eigentlichen Suchergebnissen viele Klicks an die Position null (Antwort Box, Lokales Ergebnis etc.) verlieren wird. Diese Features bieten selbstverständlich Chancen und sind für die Konkurrenz, welche einfach nur in den normalen Ergebnissen positioniert sind, ein unübersehbarer Störfaktor. 

    Nach all dieser Datensammlung und gesammelten Informationen zu den aufgelisteten Keywords ist beim letzten Schritt für die Keyword Recherche die angefertigte Keyword Liste mit den Daten zu jedem einzelnen Term priorisiert.

    Die Gestellten Fragen der Priorisierung:
    • Wie wichtig ist dieses Keyword denn wirklich für das Unternehmen?

    • Wie leicht oder schwer ist es für dieses Keyword zu ranken?

    • Wie viel Traffic kann erwartet werden, wenn für dieses Keyword gerankt wird?

    In der Regel beantwortet die Kombination dieser Fragen das monatliche Suchvolumen sowie die Faktoren, um die Klickrate zu beeinflussen und um schließlich die Sortierung und Auswahl der Keywords abzuschließen.



    Kapitel 5: Keyword Platzierung & On-Page Optimierung

    Wenn man von klassischer SEO spricht, ist in der Regel die Onpage Optimierung gemeint. Da sich die künstliche Intelligenz der Google Suchmaschinen und auch Google selbst stetig weiterentwickeln und fortlaufend wachsen. Daher gibt es einige Dinge, die früher vermutlich Funktioniert haben, heute jedoch ignoriert werden können, unter anderem sind Backlink-Spamming oder das Meta Tag Spamming für Keywords gemeint. Auch Dinge wie die verschiedenen Variationen eines Keywords zu benutzen oder der Meinung zu sein allgemein ein Keyword x mal platzieren zu müssen. Das bedeutet jedoch nicht, dass sie nicht wichtig sind! Das entscheidende, was hier beachtet werden sollte, ist das wie und wo. Hauptsächlich in dem:

    • Titel der Seite (Text im title Tag Tag im Header Bereich der Seite steht)

    • Die URL der Seite (Pfad nach der Domain und Adresszeile im Browser)

    • Meta Beschreibung (Text im Meta Description Tag) entscheidet, wie die Webseite in der Google Suche auftaucht, und wird  dafür genutzt, um Nutzer anzulocken und sie vom Link zu überzeugen.

    • Überschriften im Body der Seite nach Priorität (H1 einmalig & H2-H6)

    • Ausgewogene Platzierungen der Keywords im Fließtext

    • Dateinamen und Alt-Texte von Bilddateien

    • Bei der Optimierung der Inhalte und Umsetzung der On Page Maßnahmen sollten alle genutzten Keywords im Sinne überprüft werden, ob diese auch bestimmte Intentionen eines Suchenden abdecken, selbst mit einem umfassenden Inhalt auf einer autoritären Seite sollte dies überprüft werden.

    • Allgemein strukturierte Platzierungen.

     

    Beispiel

    Besten Kochrezepte“ 

    Besten Rezepte zum selber Kochen“ 

    Top Kochrezepte für leckeres Essen zuhause

    All diese Suchbegriffe liegen letztlich einer Intention eines Suchenden zugrunde und enthalten potentielle Keywords, hier macht es ausschließlich keinen Sinn für jeden Begriff eine eigene Seite zu erstellen. Stattdessen sollten die Inhalte gebündelt und gesammelt zum entsprechenden Thema eingefügt, die Keywords sorgfältig in den verschiedensten Überschriften nach Priorität sowie im Fließtext platziert und als strukturierte Unterseite zusammen gesetzt werden um einen besseren Rang in der Google Suche erzielen zu können. 



    Kapitel 6 - On Page Optimierung

    Hier finden Sie alle relevanten Einstellungen & Optimierungsmöglichkeiten, welche Sie auf Ihrer Webseite vornehmen können.

    Nach ausführlichen Zielgruppen sowie Keyword Recherche, Analyse und Auswahl geht es nun an die umfangreichsten und wichtigsten Einstellungen, welche als Onpage Optimierung bezeichnet werden und die effektivsten Ergebnisse für Ihre Google SEO bieten. Mit der Onpage Optimierung beginnt die hauptsächliche SEO Arbeit, hier gilt dafür zu sorgen, dass die Crawler der Suchmaschinen nicht nur die Inhalte finden, sondern auch richtig verstehen und einordnen können. Die Onpage Optimierung sind Maßnahmen, die auf einer Webseite ergriffen werden, um die Inhalte optimal für die Suchmaschine und die Suchenden zu gestalten. Die Einführung und Basis der On Page Optimierung beginnt mit folgenden Komponenten:

     

    A) Header Tags

    Header Tags werden im HTML einer Webseite dazu benutzt, Überschriften zu erstellen, mit denen die Inhalte strukturiert werden können.

     

    B) Interne Links

    Wie beim Crawling erwähnt, haben Links für die Suchmaschine eine enorme Bedeutung. Bei der Onpage Optimierung werden lediglich interne Verlinkungen z.B zwischen Blogartikeln, Unterseiten, Produkten etc. innerhalb der Webseite, die im Zusammenhang stehen und eine Relevanz erzeugen, genutzt.

     

    C) Bildoptimierung

    Die Nutzung von Bildern und Videos auf Webseiten ist besonders wichtig. Es ist vor allem dabei sehr behilflich, den Inhalt besonders lebendig und visuell ansprechend zu gestalten. Leider bringt die Nutzung von Bild und Videomaterial Gefahren mit sich, die dafür sorgen können, dass die Performance der Webseite erheblich eingeschränkt wird. Bei jedem Abruf einer Webseite werden verschiedene Dateien zwischen Browser und Server versendet. Zu diesen Dateien zählen u.a HTML, CSS, JS sowie beliebte Bilddateien wie JPEG, PNG, GIF. Hochaufgelöste Bilder können zwischen 2-4 MB und sogar deutlich größer ausfallen. Zu viele große Bilder hemmen im erheblichen Ausmaß die Ladegeschwindigkeit der Seite. 

    Dies hat zur Folge, dass der Nutzer schnell die Geduld verliert und die Seite wieder verlässt. Selbstverständlich wird in diesem Fall die Suchmaschine aktiv und bezeichnet die Seite als irrelevant für gute Nutzererfahrung und schränkt das Ranking auch dementsprechend ein. Um dieses Problem zu umgehen, gibt es die Möglichkeit, die Bild Dateien vor dem Hochladen zu komprimieren. Nachfolgend bekommen Sie von uns Beispiel-Tools, mit denen Sie Ihre Bild-Datei komprimieren und die Dateigröße erheblich reduzieren können. Zeitgleich bleibt die Qualität für das menschliche Auge vollständig erhalten. Es gibt viele kostenlose Tools, die genutzt werden können. Es empfiehlt sich auch, für ein Bild hintereinander gleich mehrere Kompressor-Tools zu benutzen, um das hochauflösende Bild auf das Maximum reduzieren zu können. Tools die Sie benutzen können:

     

    D) Meta Tags

    Meta Tags sind spezielle Eigenschaften, die es ermöglichen, direkt zur Suchmaschine zu kommunizieren und dieser die Möglichkeit geben zu ermitteln, um was es genau auf einer Seite geht. Nicht alle Meta-Tags sind relevant oder wichtig. Wert legen, können Sie auf den Titel und die Beschreibung der Seite und welche Rolle diese für die Suchmaschine spielen.

     

    E) URL Struktur

      Auch bei der Formatierung und Optimierung der URL Struktur können positive Auswirkungen auf die Leistung einer Webseite erreicht werden.

       

      F) Mobile Optimierung

      Die Qualität der mobilen Ausrichtung einer Webseite und gute User (Nutzer) Erfahrung (Zeitvertreib, hilfreiche Infos, Interaktion & Conversion etc.) hat einen enormen Einfluss auch auf das Desktop Ranking. Heute gilt es vor allem, dass die Seite in der mobilen Ausrichtung für Smartphones und Tablets alles gut erkennbar und lesbar ist. Sollte die Webseite keine angepasste mobile Version verfügen, werden alle mobile User die Webseite schnell wieder verlassen, dadurch senkt der Algorithmus das Ranking. Suchmaschinen können bereits durch Analyse z.B anhand der Schriftgröße Ihrer Überschriften und Texte einschätzen, wie gut die mobile Erfahrung auf Ihrer Webseite für den User sein wird und zeigt im Zweifelsfalle die Seite dem User gar nicht an. Mobile Optimierung hat in jedem Fall zur Folge, ob die Seite hoch oder runter gerankt wird. Man kann hier nicht genug betonen, wie wichtig dieser Teil heutzutage ist, denn laut unseren Statistiken sind von allen aktiven Nutzer, 70% mobile Nutzer.

       

      G) Content / Inhalt 

      Webseiten Inhalte, SEO optimiert, erneuern u.a Blogartikel, Produktseiten, Verkaufsseiten oder auch allgemeine Informationsseiten mit Themenrelevanz und hilfreichen sowie produktivem Content. Ein häufiger Fehler, der gemacht wird, ist das drauf Losschreiben alle Inhalte sollten nach den Themenrelevanten Keywords geschrieben werden (zuerst beginnt die Keyword Auswahl und danach die Text optimierung). Passend zu diesem Punkt kann man klar und deutlich die Vermeidung von Scraped Content betonen: (Abgeschriebene Inhalte von anderen Google Seiten), auf welche wir in den nächsten Abschnitten genauer eingehen werden.

       

      H) TOP Content

      Für die Erstellung des Top Inhalts gibt es an sich nur eine Frage, die zu beantworten gilt. Was muss getan werden, damit der Inhalt der gewünschten Seite so gestaltet werden kann, dass den Nutzern immer noch das geliefert wird, was sie erwarten, aber trotzdem wertvoller, besser und aufschlussreicher ist als die aktuellen Top Seiten des Markts? 

      Nehmen Sie sich das Ziel vor, eine Seite zu entwerfen, die deutlich besser ist als die top platzierten Seiten Ihrer Branche. Gerade am Anfang kann es eine enorme Herausforderung sein, solch eine Seite zu entwickeln. Jede Top Seite auf Ihrer Webseite, die es schafft, durch ein Keyword auf der ersten Seite zu landen, ist ein Gewinn, der jegliche Anstrengung und Bemühungen zukünftig mit seinem Wert vermitteln wird. 

      Wir haben die Top-Anhaltspunkte zur Erstellung solcher Seiten für Sie zusammengestellt, mit welchen Sie gegenüber Ihrer Konkurrenz Vorteile erlangen können.

      • User Interface und User Experience Design - Die gesamte Webseite sowie alle Seiten und Inhalte müssen für alle Endgeräte u.a. Desktop, Tablets, Smartphones abgestimmt, optimiert und für den Nutzer leicht navigierbar sein. 

      • Unübersichtliche Informationsüberflutung oder komplizierter Aufbau der Inhalte sind nicht wünschenswert. 

      • Der eigentliche Inhalt - Der Inhalt jeder Seite sollte das Ziel verfolgen, den Suchenden oder die Zielgruppe so zufriedenzustellen, dass keine weiteren Fragen diesbezüglich mehr offen bleiben, nachdem der Nutzer die Website verlässt.

      • Die Suchmaschine kann selbstverständlich erkennen, ob ein User nach seiner Suche fündig geworden ist oder nicht. Dementsprechend steigert produktiver und hilfreicher Inhalt immer die Nutzererfahrung und somit das Ranking einer Seite.

      Emotionalität

      Im Bestfall ist der Inhalt einer Seite so gut entworfen, dass es bei den Nutzern und Suchenden einen „Wow“ Effekt auslöst. Erstaunung, Begeisterung, Bewunderung, Überraschung sind nämlich die Emotionen, die dazu führen, dass solche Inhalte als außergewöhnlich wahrgenommen werden. Auch hier kann die Suchmaschine anhand der Aufenthaltslänge der Nutzer, auf der Webseite und weiteren Faktoren die Nutzererfahrung einkalkulieren und rankt die Seite dementsprechend.

      Ein Top-Content bietet für Ihre Zielgruppe eine unerwartete und außergewöhnlich gute Erfahrung. Jede Zielgruppe hat immer bestimmte Erwartungen, mit ein wenig kreativen Einfall kann man der jeweiligen Zielgruppe zusätzliche Angebote, einzigartige Leistungen, sehr hilfreiche und Mehrwert schaffende Informationen, kostenlose Geschenke oder andere Aufmerksamkeiten entgegenbringen um somit die Erwartungen der Nutzer ungewohnt übertreffen

       

      I) Qualitative Webseiten Inhalte

      Die erste Frage die sich bei der Entwicklung von Qualitativen Inhalten gestellt werden sollte ist folgende:

      • Wie kann man Nutzern, die die angezielte Webseite besuchen, genau das bieten, was sie haben möchten? 

      Die Nutzerfreundlichkeit und qualitative Nutzererfahrung sind für Google die Priorität schlechthin. Denn sobald den Bedürfnissen der Nutzer die Konkurrenz besser entgegenkommen kann, wird Google das erkennen und diese Webseite höher ranken.

      Daher erweist sich die Strategie von Vorteil bereits von vornherein Inhalte zu erstellen die, die angezielte Zielgruppe sowohl targeten sowie völlig zufriedenstellen und ihnen alles geben wonach sie zu diesem Begriff suchen, statt mit späterer Überarbeitung und neu Entwicklungen des Inhalts erneut, in Zeit und Fleiß sowie weiteren Ressourcen zu investieren. 

      Bei einer existierenden Webseite der Konkurrenz lohnt es sich, immer zunächst einmal diese Inhalte zu prüfen und zu sehen, ob man daraus nicht schon einiges gewinnen und verbessern kann, denn oft ist es so, dass Inhalte einfach nicht optimal strukturiert sind. Damit sind an sich keine fehlenden Überschriften oder Keywords gemeint. Der vermutlich häufigste Fehler bei der Inhaltsentwicklung ist es, die Inhalte und Themen auf zu viele Seiten zu verteilen, dadurch entsteht ein deutlich schlechterer Text zum Code Verhältnis, was von Suchmaschinen nicht gerne gesehen wird. 

      Sehr oft lassen sich mehrere ähnliche Seiten zusammenfassen und umfangreichere sowie umfassendere Seiten entwickeln, die dann ausreichende und Zielgruppen intentions bezogene Inhalte bereitstellen. Selbstverständlich sollten die Platzierungen der ausgewählten Keywords nach der Recherche und sowie die interne Seitenstruktur beachtet werden.

      Die Strategien bezüglich der Neuentwicklung, Überarbeitung und Aktualisierung älterer Inhalte, können eine Webseite in diesem Bereich erheblich nach vorne katapultieren. Je nach Branche und Zielgruppe ist die Erstellung von Inhalten mal eher leichter und auch mal relativ schwieriger. Je nach Branche werden verschiedene und besondere Fachkenntnisse gebraucht, um einen wirklich guten Inhalt zu erstellen, gerade als SEO Dienstleister, Agentur oder Freelancer eignet es sich selbstverständlich nicht einfach wild drauf los zu schreiben, wenn man nicht die benötigten Fachkenntnisse hat wie nunmal der Kunde selbst. 

      Selbstverständlich kann man explizit einiges für die Inhaltsentwicklung anlernen, dies bedeutet jedoch nicht , dass man in kurzer Zeit mit angelernten Fachleuten aus einer beliebigen Branche mithalten kann, um letztlich auch wirklich aufschlussreichen Inhalt entwerfen zu können. Daher empfiehlt es sich als SEOler für eigentlich alle Branchen dem Kunden von vornherein das verständlich zu machen und Sie direkt von Anfang an darum bitten, aktiv bei der Inhalts- / Textentwicklung mitzuwirken. Schließlich ist es für jeden Beteiligten viel attraktiver, wenn die Inhalte wirklich authentisch, überzeugend, fachgerecht, verständlich und letztlich qualitativ sind.

      Solche Kooperationen funktionieren nur, wenn auch jeder Experte auf seinem Gebiet mit seiner Expertise seinen Teil zum ganzen beiträgt. Jede Agentur, Dienstleister, Freiberufler etc. der einem Kundem mit dem Aufgabenbereich XY nicht auf diesen Faktische Tatsache Aufmerksam macht und stattdessen anbietet: „wunderbare Texte und einzigartig sowie emotionen gebundene Inhalte zu erstellen mit welchen die Zielgruppen abgeholt werden sollen“, wird die Texte und Inhalte kopieren, Stichpunktartig verändern und ihnen für „schnelles Geld“ das Grab für Ihre Google Suchmaschinenoptimierung schaufeln!

      (Mehr Infos über den Scraped Content finden Sie in Kapitel 7 Vermeidbare Fehler bei der Onpage Optimierung im Abschnitt C.)



      Kapitel 7 - Vermeidbare Fehler bei der Onpage Optimierung

      In diesem Abschnitt möchten wir bezüglich der On Page Optimierung alle dringend zu vermeidenden jedoch leider gängigen Taktiken sowie Strategien erklären, die von Unternehmen und Dienstleistern auch heutzutage noch verwendet werden

      Da diese Strategien meist veraltet sind und die Suchmaschine sich stetig anpasst, behindern diese Methoden aktuell die Suchmaschinen Optimierung statt Leistung zu erbringen.

       

      A) Keyword verstreuung

      Die Vorgehensweise, denselben Inhalt für viele ähnliche Keywords umzuschreiben, so dass für jede Keyword Variante eine eigene Seite hergestellt wird, ist irrational und irreführend. Statt eine Seite mit allen wichtigen Informationen über ein Thema herzustellen (so wie es sein soll), wird hier versucht, mehrere Seiten zu erstellen und die Keywords auf verschiedenen Seiten zu verstreuen, um „besser gerankt“ zu werden. Tatsächlich jedoch stellt die Suchmaschine die Verstricktheit schnell fest und senkt die Qualität der Nutzer-Erfahrung und somit letztendlich auch das Ranking.

      Heutzutage ist diese Fehlinformation und Verwendung dieser Strategie sehr geläufig, dennoch ist es falsch und wir raten davon dringend ab, denn die ersten Plätze auf Google stehen dort nicht ohne Grund. Für die Nutzer wird der Inhalt hilfreich und umfassend wiedergegeben

       

      B) Duplicate Content

      Das nächste dringend zu vermeidende Problem ist der Duplicatet Content, also doppelte Inhalte. Hier gibt es zwei verschiedene Variationen, zumal ein Unternehmer, der mit einem Inhalt 10 verschiedene Seiten versorgt oder derselbe Inhalt auf mehreren Unterseiten in einer Webseite verwendet. Hier gilt ganz klar und deutlich, ein Thema braucht nur eine Seite.

       

      C) Scraped Content

      Hier wird der gesamte Inhalt oft auch mit demselben Wortlaut von einer anderen Seite übernommen. Diese Strategie ist extrem gefährlich und kann unter Umständen zu Penaltys von Google führen. Geklauter Inhalt kann von der Suchmaschine sehr leicht identifiziert werden. Google erkennt jede kopierte Zeile! Mittlerweile ist die Künstliche Intelligenz der Suchmaschine so weiterentwickelt, dass Google jede einzelne kopierte Zeile dem Original Verfasser zuordnen und den kopierten Beitrag problemlos identifizieren kann. Abgeschriebener Content rankt die Seite nach Feststellung dieser Handlung bewusst sehr weit runter! Selbstverständlich ist hiervon dringend abzuraten! Wir empfehlen ausdrücklich, jeglichen Content selbst zu verfassen und Formulierungen, Texte sowie weitere Inhalte einzigartig zu entwickeln und sich von der Konkurrenz mit qualitativer Eigeninitiative abzuheben.

      Umgehen Sie in Ihrem eigenen Interesse den Scraped Content sowie jegliche Dienstleister die damit arbeiten!

       

      D) Automatic generated content

      Automatisch generierter Content durch Bots kann von Google als Manipulationsversuch wahrgenommen werden. Google selbst beschreibt ihre Richtlinien zwar so, dass speziell generierter Content mit der Absicht, Suchen zu manipulieren, kritisiert wird und nicht jeder automatisch generierte Inhalt. Wir empfehlen dennoch, wie beschrieben unseren Kunden, mit Inspiration, einzigartige und einmalige Inhalte zu erstellen.



      Kapitel 8 - Keyword Platzierungen

      A) Seitentitel & URL

      Eine wichtige Rolle spielt die Keyword Platzierung in dem Seitentitel und in der URL. Der Seitentitel sollte den Namen des Unternehmens oder die Marke enthalten, je nachdem, mit was man assoziiert und gefunden werden möchte.

       

      B) Überschriften und Zwischenüberschriften

        Eine weitere wichtige Rolle spielt die Platzierung der Keywords in den Überschriften und Zwischenüberschriften. Diese bieten durch ihre Präsenz für die Suchmaschine eine erhöhte Wichtigkeit. Daher ist es sehr ratsam und empfiehlt, auf die Platzierung der Keywords in den Überschriften und Zwischenüberschriften Wert zu legen.

         

        C) Fließtext und Seiten Inhalt

        Auch die Keyword Platzierung über den Fließtext und im Seiteninhalt werden von den Suchmaschinen gefiltert, analysiert und dementsprechend gerankt. Suchmaschinen sind mittlerweile hochintelligent und können erkennen, wenn ein Keyword in verschiedenen Variationen genutzt wird. Das bedeutet im Umkehrschluss, dass man nicht wie früher dasselbe Keyword immer und immer wieder verwenden muss. Heute empfiehlt sich in den Content auf der Webseite, das Keyword immer wieder in verschiedene Varianten verstreut einzubauen und dem Algorithmus so die Position zu verdeutlichen.

         

        D) Header Tags (H1-H6 Überschriften)

        Neben überschaubarer Inhaltsstruktur auf einer Seite bieten die Überschriften eine Zuordnung der Priorität je nach Abschnitt. Die Header Tags zwischen H1-H6 werden von den Crawlern der Suchmaschinen erkannt und daher wird dem Inhalt dieser Tags eine bestimmte Bedeutung zugewiesen. H1 ist der größte sowie bedeutsamste Header-Tag, der meist zu Beginn die Hauptüberschrift darstellt und den gesamten Inhalt der Seite am aufschlussreichsten wiedergeben sollte.

        Es empfiehlt sich immer, die Header Tags strukturiert und Themen relevant einzusetzen. Die Header Tags in verschiedenen Formen sollten immer schlüssige Informationen darüber bereitstellen, was im Inhalt des entsprechenden Abschnittes erwartet werden darf. Der Schönheitsfaktor dieser Überschriften ist zweitrangig und sollte auf keinen Fall demnach angewendet werden!

         

        E) Internes Link Volumen und dessen Autorität

        Es ist bekanntlich richtig, dass Interne Links auf einer Webseite die Autorität bei Google steigern. Allerdings gilt stets zu beachten, wie relevant diese Links sind und ob sie den Nutzer tatsächlich helfen oder nicht.

        Daher gilt auch hier Qualität statt Quantität.

        Von einer Überflutung interner Links die irrational und irrelevant sind, ist also dementsprechend abzuraten.

         

        F) Alt-Text Bildbeschriftung

        Der Alt-Text gibt eine alternative Textvariante zum Bild an.

        Bilder können von einer Suchmaschine nicht erkannt oder verstanden werden, Alt-Texte bieten der Suchmaschine zusätzliche Unterstützung zum einordnen des Bildes. 

        Auf den Alt-Text kann von Nutzern zurückgegriffen werden, falls das Bild nicht lädt etc. Die eigentliche Einführung von Alt-Texten stammt aus der Barrierefreiheit. Menschen z.B. mit Sehbehinderung nutzen sogenannte Screenreader, um die Inhalte von Webseiten zu konsumieren, dabei werden die Inhalte vorgelesen. Die Aufgabe hierbei ist es, die Alt-Text Beschriftung so zu formulieren, dass es möglichst genau den Inhalt des Bildes beschreibt. Hierbei geht es lediglich um gute Nutzererfahrung. 

        Die Hauptpriorität beim Alt-Text liegt immer in der ausführlichen Beschreibung über den Inhalt einer Bilder Datei. Ziel ist es hierbei natürlich, eingefügte Keywords in den Alt-Text mit einzubeziehen. Dabei ist aber Vorsicht geboten, denn künstlich aufgestockte Keywords oder Stuffing können durch Spam verdächtige Eintragungen als gezielter Manipulationsversuch gelten und das Ranking entsprechend einschränken.

        Durch das Anpassen des Alt-Textes begünstigen sich parallel das Anzeigen der Webseiten Bilder in der Google Bildersuche, welches auch als nicht zu unterschätzende Traffic Quelle gilt.

         

        G) Title Tags

        Der Title Tag hat die größte Präsenz und gilt quasi als die Hauptüberschrift der Webseite. Platziert ist sie im Tab des Browsers, als Vorschau bei Teilen in verschiedenen sozialen Netzwerken und hauptsächlich in der Google Suche als blaue Haupt Zeile und Link zu einer anklickbaren Webseite. 

        Jede Seite braucht einen einzigartigen und aussagekräftigen Title Tag, der den Inhalt der Seite gut zusammenfasst. Es wird dringend davon abgeraten, denselben Title Tag für verschiedene Seiten zu benutzen, dies kann die Ursache haben, die Suchmaschine sowie die Nutzer zu verwirren. Feststeht das der Title Tag sehr klar den Inhalt der Seite wieder geben muss, zuzüglich nutzt man Im Idealfall eines der primären Keywords im Title Tag, so dass die Suchmaschinen die Seite noch effizienter ranken kann und Nutzer ganz klar erkennen das Ihr Suchgrund bereits im Title Tag wiedergegeben ist und dadurch eher zu einem besuch der Seite neigen.

         

        H) Meta Beschreibung

        Neben dem Title Tag gibt es einen weiteren HTML Tag, der ganz entscheidend für die Suche ist. Genau wie beim Title Tag geht es auch hier darum, ganz genau den Inhalt der Seite zusammenzufassen und eine Art Vorschau des Inhaltes, der auf der entsprechenden Webseite dem Nutzer angezeigt werden soll. Als Webseiteninhaber möchten wir den Besuchern zeigen, dass ihre Suchintentionen auf unserer Webseite enthalten sind, um letztlich dafür zu sorgen, dass auf unsere Ergebnisse geklickt wird. Es sollte ganz dringend vermieden werden, in die Meta Beschreibung, Inhalte reinzuschreiben, die nicht auf der Seite zu finden sind oder gar wenig bis vollständig von der Thematik abweichen. Schließlich möchte der Nutzer sein Anliegen erledigen und nicht seine Zeit verschwenden. 

        Die Meta Beschreibung wird als Nebentext unter dem Titel Tag platziert

        Der Vorteil hier ist, dass sich mehr Informationen wiedergeben lassen und man mehrere Wörter benutzen kann. Dadurch kann sich der Nutzer einen detaillierten und erweiterten Einblick verschaffen und klarer erkennen, ob dieser mit seiner Suche auf der entsprechenden Seite fündig werden könnte oder eher nicht. Hierbei ist die Balance zwischen einer aufschlussreichen Zusammenfassung und der Relevanz des Seiteninhalts sehr dringend zu beachten.

        Auf einer Domain sollten nicht mehrere Seiten dieselbe Meta Beschreibung haben! Einer der beliebtesten und gängigsten Fehler in Google SEO ist, dass eine Meta Beschreibung für die ganze Webseite verfasst und universell verwendet wird. 

        Eine gute Strategie ergibt sich, indem man die Primären Keywords in die Meta Beschreibung miteinbezieht, nachdem der Nutzer Sucht. Weitere Strategien bei der entwicklung der Meta Beschreibung sind, Rückgaberechte, Neukundenrabatte oder andere Leistungen die die Konkurrenz evtl. nicht anbietet auch Call to Actions sowie allgemeine Aufforderungen zu Handlungen wie z.b hier herunterladen, jetzt bestellen, Angebot hier sichern, Nur für kurze Zeit, Mehr Info usw. können den Nutzer zusätzlich dazu bewegen die Webseite zu besuchen.



        Kapitel 9 - Webseiten Snippet

        Das Webseiten Snippet im Allgemeinen ist ein sehr wichtiger Abschnitt im SEO. Durch fehlen einer klaren Zusammenfassung des Seiteninhalts, Keywords und Call to Actions ist die Wahrscheinlichkeit hoch, dass Nutzer eher zum Besuch einer anderen Seite neigen, bei dem diese Anhaltspunkte gegeben sind. Bekommt eine Seite keine oder wenige Klicks, wird das registriert und über die Zeit verschlechtert sich das Ranking dementsprechend. 

        Sollte ein Snippet falsche Versprechungen machen, generiert diese Webseite zwar Klicks, jedoch merkt die Suchmaschine sofort am Nutzerverhalten, dass diese nicht zufrieden sind und die Seite schnell wieder verlassen. Ob die Nutzer durch den Besuch einer Webseite ihr Anliegen lösen konnten oder nicht, wird dementsprechend das Ranking ebenfalls bewertet. 

        Durch die Beachtung unserer Webseiten Snippet Strategien sollten Sie nun auch in diesem Abschnitt gut aufgestellt und vorbereitet sein.



        Kapitel 10 - Technisches SEO

        A) Domain

        Mit der eigentlichen Domain ist das https://www.google.de in der URL gemeint. Eine gute Domain an sich beinhaltet im Idealfall folgende Vorteile und Kriterien, die zu beachten sind. Hauptsächlich und am wichtigsten sollte die Domain einzigartig, klar, prägnant, kurz, bedeutungsvoll und relevant sein.

        Keyword im Domainnamen - Wie bei der Keyword-Recherche im oberen Text erwähnt, lässt sich die Strategie, ein Primäres Keyword in die Domain mit einzubeziehen, meist sehr gut nutzen. Z.B. drückt „Cocktailbar-Düsseldorf.de" ganz klar den Inhalt und den Zweck dieser Website aus. Dadurch können sowohl den Suchmaschinen beim Indexieren und Ranken klare Anweisungen vermittelt werden, als auch den Nutzern, die nach entsprechenden Ergebnissen suchen. Außerdem können diese Keywords in der Domain direkter identifiziert werden und helfen dabei, Nutzer reizvoller zu einem Besuch der Webseite einzuladen

        Länder und Städte mit Kennzeichnen - Je nach Branche, Zielgruppe, Aufgabenbereich etc. empfiehlt es sich, das jeweilige Land oder die Stadt in die Domain miteinzubeziehen. Dies ist nicht immer produktiv, sondern ist sehr stark vom Unternehmen abhängig und kann dementsprechend Vorteile mitbringen.

         

        B) Subdomain

        Die Subdomain ist z.B das https://www.google.de. Dieselbe Problematik mit den verschiedenen Seitenversionen gibt es auch bei der Subdomain. 

         Z.B. www.google.de und google.de

        Auch hier erkennt die Suchmaschine zwei Seiten mit identischen Inhalten, welches natürlich für Verwirrung sorgt und für eine gute SEO unerwünscht ist. Bei jeder Seite sollte ein Canonical-Tag angegeben werden, um der Suchmaschine klar zu kommunizieren, dass z.B die Seite mit www.google.de eigentlich bei google.de in Originalform vorliegt. 

        Auch hier sollte mit einer 301 Weiterleitung gearbeitet werden und eine “bevorzugte“ Version haben, zudem wird die andere Variante einfach auf die bevorzugte weitergeleitet.

        In der Regel wird die Subdomain mit „WWW“ meist weitergeleitet, auf die ohne www, da diese kürzer und bequemer für die Nutzer und somit auch besser für die Suchmaschine ist.

         

        C) Umlaute

        Umlaute wie ue, oe oder ae werden oft verwendet da die Wunschdomain bereits vergeben ist und die gewünschten Umlaute bereits verwendet werden. Da diese sehr oft in Verbindung mit URLs für Probleme sorgen und sie eben nicht in jeder Sprache so normal sind, kann es leicht dazu führen, dass URLs extrem unseriös aussehen, da die Umlaute durch Codes ersetzt werden (z.B. beim Teilen auf Instagram). 

        Die Domain mit dem Umlaut kann im Schlimmsten fall trotzdem erworben werden, aber am Besten dann mit einem 301-Redirect auf die Domain ohne Umlaut weiterleiten

         

        D) Bindestriche

        Sehr häufig werden Bindestriche in der Domain benutzt, das kann viele Gründe und Ursachen haben. Lediglich ist davon abzuraten und immer zu empfehlen, Domains zu erwerben und zu verwenden, die keinen Bindestrich verfügen. Sollte es keine andere Alternative geben, wird höchstens die Verwendung von einem Bindestrich empfohlen, da die Domain sonst nach außen hin schneller nach Spam wirken kann. Ein Domainname ohne Trenner ist zudem einfacher zu sagen, schreiben und zu merken.

         

        E) Domainendung und Top Level Domains

        Bei der Domainendung geht es um das https://www.google.de

        Für Deutsche Unternehmen mit ihrem Sitz in Deutschland ist verständlicherweise das DE zu empfehlen. Während für global agierende Unternehmen das COM die erste Auswahl wäre.

         

        F) URL Strukturen

        Eine URL ist die Adresse für eine bestimmte Seite auf einer Webseite im Internet. Zu Beginn einer URL steht das HTTP oder HTTPS wie z.B https://www.google.de, HTTP steht für Hyper Text Transfer Protocol. 

        Ob ein S am Ende der URL steht oder nicht hängt davon ab ob ein SSL (Secure Sockets Layer) Zertifikat vorhanden ist.

        Alternativ wird heute von erfahrenen WebMastern etc. Das neueste und fortgeschrittenste Modell dieser URL Strukturen verwendet. Bekannt ist diese unter dem Namen HTTP2. Alleine durch die Veränderung dieses technischen Faktors kann die Ladegeschwindigkeit einer Webseite um eine deutlich beträchtliche Zeitspanne verkürzt werden.

        (Mehr Infos über HTTP2 finden Sie in diesem fortlaufenden Kapitel 9 Technisches SEO im Abschnitt V.)

         

        G) SSL (Secure Sockets Layer) Zertifikat

        Dieses Zertifikat ermöglicht eine verschlüsselte Übertragung der Daten zwischen Server und Browser, sodass die Daten nicht von Dritten eingesehen, gestört oder geklaut werden können. Das HTTPS Protokoll müsste von jedem Unternehmen eigenständig eingerichtet werden. 

        Sowohl die Suchmaschine als auch die Nutzer legen Wert auf verschlüsselte Seiten. Das  SSL Zertifikat müsste handelsüblich bei den jeweiligen Domain Anbietern erhältlich sein. Nach der Einführung des SSL Zertifikats sollte man eine 301 Weiterleitung als permanente Weiterleitung einrichten, um alle Nutzer, die manuell mit HTTP statt HTTPS nach der Webseite suchen, direkt auf die verschlüsselte Seite umzuleiten. 

        Diese Weiterleitung hat den Vorteil, dass es zum einen den Nutzern keine abschreckende Nicht Sicher Meldung anzeigt, wie es bei HTTP nunmal der Fall ist. Zum anderen muss vermieden werden, dass die Suchmaschine die HTTP als auch die HTTPS Version der Seite crawlen, denn dann existieren quasi zwei Seiten mit den Identischen Inhalten, was der Suchmaschine schlecht kommuniziert und diese letztlich nur verwirrt.

        Daher ist es wichtig der Suchmaschine klar zu kommunizieren, dass die HTTPS Version die sichere und richtige Weite ist, auf die die Besucher hingelenkt werden sollen.

        Das SSL-Zertifikat betrifft die gesamte Webseite und keine einzelnen Unterseiten.

         

        H) URL Naming

        https://www.google.de/Bilder

        Dieser Teil der URL ist verantwortlich, um jeder Unterseite einen einzigartigen Pfad zu erteilen, unter dem der Inhalt zu finden ist. Letztlich muss der Server wissen, welche Seite der Browser aufrufen und einsehen möchte. Durch die Eintragung der Branche, Kategorie, Produkt, oder anderen Merkmalen sowie Besonderheiten in den Pfad, kann man diesen strukturiert optimieren, um sowohl konformes Suchverhalten für Nutzer als auch eine aktive Suchmaschinen Kommunikation zu schaffen. 

        Eine gute Domain einer Unterseite könnte z.B so aussehen
        • „Beispiel1.de/Damenschuhe/Higheels/modelxy“ statt einer kaum aufschlussreichen und unseriösen Domain wie:„Beispiel1.de/products.php?id=2380034_sas/67_19027_290“.

        Dabei ist es natürlich enorm wichtig, dass die Struktur und Ordnung einen Sinn ergibt und relevant ist. So wird jede Unterseite Pfad für Pfad strukturiert, sinnvoll und Relevanz optimiert.

        Bei News, Nachrichten oder Blogs empfiehlt sich auch das Veröffentlichungsdatum, Jahr, Monat mit einzubeziehen. Hier gilt aber zu beachten, dass diese als zeitlich begrenzt gelten können und langfristig bestehen bleibende Themen, also Themen ohne Verfallsdatum nicht mit einbezogen werden sollten.

        Unter dem Strich ist diese Priorität im URL Naming die Nummer eins: Die URL muss genau und ausführlich beschreiben, was der Nutzer auf dieser Seite erwarten darf.

         

        I) Keywords in URLs

        Während es im allgemeinen auch eine sehr gute Idee ist Primäre Keywords in die URLs mit einzubeziehen und so den Suchmaschinen und Nutzern die Relevanz der Seite zum Thema direkter zu vermitteln darf man es natürlich nicht übertreiben so das es nach Keyword Stuffing oder Spam aussieht. Vor allem bei doppelt erwähnten Keywords innerhalb eines URLs kann schnell der Anschein von Keyword Stuffing erregt werden.

        Am besten zu umgehen ist dieses Problem indem man sich die persönliche Frage beantwortet, ob man selbst auf so einen Link klicken würde, dieser seriös aussieht oder eher nach Spam?

         

        J) Trennung in URLs

        Suchmaschinen können aus einem zusammengeschriebenen Text keine einzelnen Wörter erkennen genauso wie unklare Trenner unter anderem: 

        • Slashes

        • Komma

        • Leerzeichen

        Diese werden in der URL mit %20 ausgefüllt.

        Des weiteren ist dass Bindestrichzeichen sehr wichtig für die Abtrennung der Wörter im Pfad und hilft dabei direkter, zur Suchmaschine zu kommunizieren.

        Während der Bindestrich in der Domain eher unerwünscht ist, wird es für die URL Trennung ganz klar empfohlen.

        Ausgeschlossen ist hier der Trailing Slash, dieses Slash Zeichen bedeutet am Ende einer URL, dass diese beendet ist.

         

        K) Domain & Hosting

        Eine Webseite hat zwei Grundvoraussetzungen, zu denen gehören die Domain sowie der Server, auf dem die Dateien einer Webseite gespeichert und verarbeitet werden.

        Im Deutschen Sprachraum sind die größten und beliebtesten Anbieter: www.ionos.de, www.strato.de, www.hosteurope.de, www.df.eu oder www.godaddy.com

        Im Gegensatz zu den Domain & Hosting Anbietern sollte die Auswahl der Server wirklich gut durchdacht werden, vor allem bei lokal gebundenen Unternehmen. Je weiter weg der Server von den Nutzern steht, die die Seite aufrufen möchten, desto weiter müssen die Daten über das Internet transportiert werden.

        Dadurch entsteht ein überflüssiger Zeitverlust, der vermeidbar ist und dadurch das Ranking stärkt. Die Server sollten in dem Land sein, von dem aus auch arbeiten. Wenn Ihr Unternehmen lokal gebunden ist und Ihre Zielgruppe im Überfluss in Ihrer Stadt ist, ist selbstverständlich zu empfehlen, einen Server idealerweise in Ihrer Stadt oder in der Nähe auszusuchen. Bei Ihrem Hoster der Wahl gibt es die Möglichkeit, entweder einen Server oder Webhosting zu buchen.

        Beim Server ergibt sich die Möglichkeit, mit Root Zugriff sämtliche Logins vom Anbieter zu erhalten, um alle möglichen Konfigurationen am Server selbst vornehmen zu können, dies ist jedoch nur zu empfehlen, wenn man mit der Thematik wirklich gut vertraut ist. Beim Webhosting fehlt der Root-Zugriff und der Server wird von den Professionellen Teams der jeweiligen Anbieter vollständig administriert, verwaltet und aktualisiert. Fest steht, man sollte immer, je nachdem wie viel Traffic man auf einer Seite erwartet, sich auch die dem entsprechenden Preis und Qualitäts Pakete beschaffen und nicht am falschen Ende sparen! 

        Wichtig

        Ob Sie sich einen Server zulegen oder nicht, hängt immer von Ihrem Vorhaben ab. Es ist wichtig zu verstehen das man mit einem eigenen Server vollständig unabhängig ist dafür die gesamte Verantwortung als Unternehmen etc. selbst tragen muss, während beim Web Hosting wie z.B die Buchung eines Shopify Pakets einem jegliche Content Management Systeme (CMS) sowie WebMaster Aufgaben abgenommen werden da sie lediglich eine Art Miete, für die Verwaltung dieser, an die Anbieter zahlen. Beides hat seine Vor- und Nachteile, welche je nachdem was man machen möchte, sollte man entscheiden was individuell effektiver und ratsamer ist!

         

        L) Domain Name System (DNS)

          Die DNS haben neben anderen Aufgaben, die eine wichtige Funktion, einen Domain Namen in die zugehörige IP-Adresse zu übersetzen. Durch diese Übersetzung kann das Internet den richtigen Server finden. Diese Eintragung werden bei dem Domain und Host-Anbietern selbst vorgenommen oder in Auftrag gegeben. 

          Es gibt mehrere DNS Einträge, zwei sind vor allen Dingen von besonderer Bedeutung: 

          • Mit dem A-RECORD Eintrag wird angegeben, auf welche IP-Adresse diese Domain verweisen soll.

          • Ein CNAME RECORD ist eigentlich ein Alias. Ein Beispiel für die Produktivität der DNS Einstellungen: Beispiel1.DE & www.Beispiel1.de sollen beide dieselbe Webseite anzeigen. 

          Für das Beispiel1.DE wird ein A-RECORD mit der IP-Adresse des Servers angelegt. Statt dasselbe auch nochmal für www.Beispiel1.de machen zu müssen, wird hier ein CNAME RECORD erstellt, um von www. Beispiel1.de auf Beispiel1.de zu verweisen. Das bedeutet, die www. Variante bekommt über die ohne Variante den selben A-RECORD automatisch.

          Ein wichtiger Hinweis, ein CNAME Record wird oft fälschlicherweise als Redirect oder Weiterleitung bezeichnet, das ist ein Irrtum und nicht korrekt! Durch das Erstellen eines CNAME Eintrags bedeutet das nicht, dass die Variante mit www automatisch zur Variante ohne weitergeleitet wird.

           

          M) Technische Webseiten Funktion

          Der Nutzer gibt in den Browser eine bestimmte URL ein:-

          1. Als erstes wird das DNS den Domain Namen in eine IP-Adresse übersetzen, um zu wissen, wo der Server sitzt, der die Anfragen beantwortet. 

          2. Nun wird die Anfrage des Nutzers an diesen Server übermittelt.

          3. Alle Anfragen werden vom Server beantwortet und auf demselben Weg zurückgeschickt.

          4. Wieder zurück beim Browser werden alle Inhalte zusammengefügt, um die Webseite ersichtlich zu machen, hierbei wird überprüft, ob einige Daten noch nicht angekommen sind. 

          5. Auch dafür werden wieder Anfragen an den Server geschickt, auf die der Server mit den fehlenden Inhalten antwortet. 

          Es werden der Norm entsprechend innerhalb von einer Sekunde ca. 50-100 Anfragen bei der Öffnung einer durchschnittlich optimierten Webseite gesendet, bei stark optimierten Seiten auch deutlich unter einer Sekunde.

           

          N) HTML, CSS, JavaScript
            Sind die drei hauptsächlichen Inhaltstypen einer Webseite.
            • HTML ist für den eigentlichen Inhalt einer Webseite erforderlich. Jeglicher Text, Überschriften, Bilder , Videos werden in HTML strukturiert. Der HTML Teil einer Webseite gilt als die Hauptquelle, die von den Crawlern durchsucht wird. 

            • CSS-Dateien sind hauptsächlich dafür verantwortlich, dass die Webseite gut aussieht. Während eine reine HTML Seite für das menschliche Auge eher wie eine veraltete Software aus den 90ger Jahren aussieht, können durch CSS-Dateien die verschiedensten Elemente, Buttons, Schriftarten, Formen, Farben etc. eingefügt werden.

            • JavaScript ist eine Programmiersprache, die es erlaubt Webseiten zu entwickeln, mit denen interagiert und auf bestimmte Dinge reagiert werden kann, sowie ziemlich komplexe Programmabläufe durchzuführen. Der JavaScript Code wird direkt im Browser ausgeführt und kann das Aussehen der Webseite beträchtlich verändern. Z.B. durch das Betätigen eines Buttons kann sich ein Pop-Up Fenster, eine Sprechblase, eine Warnmeldung oder Ähnliches angezeigt werden. Das besondere am JS ist, dass die Verarbeitung des Button-Klicks direkt im Browser ausgeführt wird und keine zeitaufwendigen Anfragen an den Server gestellt werden müssen.

            Durch JavaScript ergeben sich viele Möglichkeiten, Webseiten komfortabel und bedienerfreundlich zu gestalten.

             

            O) SEO für HTML

              Mit dem HTML Code werden die Inhalte einer Webseite strukturiert. An allererster Stelle gilt es zu beachten, dass auf einer Webseite mehr Inhalt als Code stehen muss. Um von Google für ein bestimmtes Thema als relevant und hilfreich eingestuft zu werden, muss auf dieser Seite ein ausreichend qualitativ hochwertiger Inhalt vorhanden sein. Sollte der Crawler während der Durchsuchung mehr Codes in Form von HTML, CSS, JS vorfinden als Text und Informationen, wird die Seite deutlich herabgestuft. Daher gilt es immer zu beachten, dass jegliche Codes & Inhalte in einem gesunden Maß zueinander stehen.

              Zu den Top Umsetzungen im SEO für HTML gehören:

            1. Nicht mehr als ein H1-Tag pro Seite.
            2. Zwischenüberschriften mit Strukturierten H2 - H6 Tags.
            3. Optik mit CSS anpassen, anstatt mit HTML-Struktur.
            4. Strukturelle Mittel nutzen, Inhalte klar und verständlich erläutern.
            5. Bedeutung von Tags beachten (z.B Fett Schrift = wichtig, schiefe Schrift = Info, für Crawler usw.)
            6. Gültiger HTML Code ohne Fehler entwerfen.
            7. Fehler über die Search Console diagnostizieren und Störfaktoren beseitigen.
            8.  

              P) SEO für CSS

              Mit CSS ist es möglich, das Aussehen und die Optik einer Webseite zu verändern und zu verbessern. Auch dazu haben wir für Sie die produktivsten Einstellungen aufgelistet:

              Durch das Reduzieren überflüssiger Zeilen sowie Dateien aus dem CSS Code kann dieser deutlich kleiner gemacht werden, um letztlich Anfragen schneller bearbeiten und versenden zu können. 

              Der normale CSS Code ist für den Menschen „eher“ einfacher zu lesen und zu verstehen, der reduzierte CSS Code hingegen ist nur für die Bots und Crawler ausgelegt und sorgt durch den eingesparten Speicherplatz für eine deutlich flüssigere und schnellere Webseite. Diese Komprimierung ist bekannt als CSS Minify oder Minifier bezeichnet.

              Durch das Nutzen verschiedener Plug-ins kann es dazu führen, dass jede Komponente mit einer eigenen CSS Datei kommt, welche am Ende zu vielen kleinen CSS-Dateien im Code führt. All diese Dateien werden immer separat einzeln an den Browser hin und zurück gesendet, was zu einer deutlichen Verzögerung der Ladezeit führen kann. Hier empfiehlt sich, alle kleinen CSS Dateien zu einer einzigen großen CSS Datei zusammenzufügen.

              Die nächste Möglichkeit ist GZIP, eine allgemeine Komprimierung von Inhalten und ergänzt sich Ideal mit HTML, CSS, JS. GZIP erkennt Muster in einer Datei, die sich überflüssig wiederholen, z.B wie die selben Wörter oder Buchstaben und ersetzt diese durch kürzere Elemente.

              GZIP muss auf dem Server konfiguriert und aktiviert werden, dann können alle Assets komprimiert vom Browser an den Server ausgeliefert werden. Die direkte Einsparung kann in der Search Console sofort mitverfolgt werden.

               

              Q) SEO für JavaScript

              JavaScript sorgt dafür, dass statische Webseiten interaktiver werden und ermöglicht es auch, ohne erneute Kommunikation mit dem Server Elemente zu laden. 

              JavaScript bietet den Vorteil, dass nicht bei jeder Interaktion eines Nutzers, z.B durch das Klicken eines Buttons, eine neue URL geöffnet werden muss, sondern die Inhalte direkt durch JavaScript zur Verfügung gestellt werden. Bei der Nutzung z.B von Google Maps kann der Vorteil von JavaScript ganz klar verdeutlicht werden. Jede Interaktion wird sofort ausgeführt, es sind keine Öffnung weiterer Unterseiten erforderlich. 

              Durch diesen Prozess wird ebenfalls deutlich Zeit eingespart.

              Da der JavaScript Code keine Verbindung zum Server herstellt und die Elemente direkt geladen werden, kann die Bedienung und direkte Nutzererfahrung auf einer Webseite, einer App sehr ähnlich sein. Vor allem bei der Nutzung eines Smartphones bietet dies eine enorm gute Nutzererfahrung.

              Wie beim CSS besteht auch beim JavaScript die Möglichkeit, Codezeilen zu komprimieren, um die Webseiten Performance deutlich zu verbessern. Die Komprimierung der JS Codes kann durch JS Minify oder JS Minifier Tools erfolgen.

              JavaScript Probleme

              Die hauptsächlichen Probleme, die mit JavaScript entstehen können, sind unter anderem die Crawlbarkeit der Seite, die Erreichbarkeit der Seite und die Verzögerung durch den Critical Rendering Path. Wir empfehlen immer, für ein ausgewogenes Code Verhältnis zu sorgen und auf die gesunde Einteilung der HTML, CSS und JavaScript Codes besonders Wert zu legen.

               

              R) DOM - Document Object Model

              Das DOM ist eigentlich eine API für HTML- oder XML-Dokumente. 

              Das Document Object Model beschreibt immer den aktuellen Zustand einer Webseite mit allem, was angezeigt wird. Änderungen werden hier gleich reflektiert. Im Vergleich zum HTML Code ist das DOM Dynamisch und nicht statisch und kann Änderungen an der Webseite live abbilden.

               

              S) Crawlbarkeit & Erreichbarkeit der Seite

              Der Crawler durchsucht Webseiten nach Informationen, folgt diversen Links, analysiert somit auch alle Unterseiten sowie Pfade und im Idealfall wird die gewünschte Webseite im Index gespeichert. 

              Mit JavaScript kann es sein, dass der Crawler nicht auf die JS Dateien zugreifen kann, da Sie mit einer robots.txt Datei oder über Meta-Anweisungen blockiert werden. Gerade bei Javascript Dateien passieren solche Blockaden häufig unbeabsichtigt, wenn man die Anweisungen für die Suchmaschine  gut einsetzen kann, kann es dazu führen, dass die ein oder andere JS Datei blockiert wird, damit wichtigere Teile der Webseite zuerst durchsucht werden. 

              Dabei entsteht häufig eben der Fehler, dass eine Datei mit blockiert wird, die aber doch wichtig für das korrekte Anzeigen der Webseite ist. Das nächste Problem hierbei ist, dass die Nutzer etwas anderes sehen als die Suchmaschine. Im schlechtesten Fall fehlt dann etwas am Design, dem Indexierbaren Inhalt oder im schlimmsten Fall kann diese Differenz als Google Cloaking interpretiert werden. Dadurch kann Google unter schlechten Umständen von einer manipulativen Absicht ausgehen.

              Das nächste große Crawling Problem mit JS hat mit internen Links zu tun. Es besteht die Möglichkeit, interne Verlinkungen in JavaScript-Funktion herzustellen und z.B. über einen Button eine neue URL im Browser aufzurufen. 

              Während das Technisch einwandfrei funktioniert, sollte man das nicht auf einer Webseite einsetzen, auch wenn die Links durch das Pathesen der Webseite gefunden werden, der Crawler ihnen folgt und diese entdeckt, nimmt man letztlich trotzdem einen integralen Teil der entsprechenden Seiten Hierarchie und Navigation, weg! Denn die JavaScript Links sind oft nicht mehr mit der Navigation oder Struktur der Seite assoziiert. Während eine Reihe von Links in einer Navigationsleiste von Crawlern leicht erkennbar ist und die verlinkten Seiten die entsprechende Bedeutung zugewiesen bekommen, sind Links in einem JavaScript Fall einfach alle gleich. Dadurch kann der Crawler nicht erkennen, ob hier eine wichtige Seite verlinkt ist oder ein einfacher Artikel Absatz.

              Links mit einem A-Tag im HTML Code oder DOM sind immer vorzuziehen, denn sie senden starke Signale an die Suchmaschine. Es ist absolut kein Problem einen Link durch JavaScript hinzuzufügen, wenn dieser Code im Document Object Model einen solchen A-Tag erzeugt, dieser Link im DOM gilt als ganz normaler interner Link und ist nicht in einer JavaScript Funktion versteckt. Google und andere Suchmaschinen verwenden ein sogenanntes Headless Browsing, um das DOM zu rendern und so einen besseren Überblick über die Erfahrung der Nutzer und den Inhalt der Seite zu bekommen.

              Das Headless Browsing ist einfach erklärt das benutzen einer Webseite ohne die grafische Benutzeroberfläche, hier wird lediglich das Document Object Model gerendert. Google kann heutzutage einiges an JavaScript verarbeiten und mit den DOM arbeiten anstatt nur mit dem normalen HTML Dokument das der Server zurück schickt, dadurch wird z.B ein Link, der über JavaScript zum DOM hinzugefügt wird aber im HTML Dokument erst einmal nicht steht, möglicherweise schon gefunden. 

              Möglicherweise bedeutet das, dass Google nicht zwangsläufig jeden der Links oder andere Inhalte findet, die nachträglich ins DOM eingefügt werden.

              Auch wenn sich die Möglichkeiten stetig mit der Entwicklung der Suchmaschine erweitern, empfiehlt es sich, klar und deutlich wie bereits beschrieben nicht zu viel JavaScript auf einer Webseite einzusetzen und eher auf ein ausgewogenes sowie gesundes Verhältnis der Codierungen zu achten.

               

              T) Critical Rendering Path

              Mit dem Critical Rendering Path beschreibt man bei einer Webseite allgemein den "Pfad", von Aufgaben, die der Browser ausführt, um die Webseite sichtbar im Browser des Nutzers zu rendern und anzuzeigen.  

              Auch steht hier im Zusammenhang die wahrgenommene Ladezeit der Webseite. Solange die Webseite Daten nach Anfragen vom Server herunterladen muss, kann es sein, dass erstmal überhaupt keine visuellen Elemente auftauchen. 

              Das Problem liegt daran, wie der Browser ein angefragtes HTML Dokument liest und das DOM erstellt, welches letztendlich im Browser angezeigt wird. Die meisten Quellen oder anderen Dateien, die im HTML Dokument referenziert werden, die der Browser also auch noch benötigt, werden erst dann geladen, wenn der Browser diese Referenz findet.

              Bei optimierten Prozessen werden nach und nach Inhalte der entsprechenden Webseite angezeigt und nach ca. 1,7 Sekunden die Seite vollständig gerendert. Im weniger optimalen Fall wird die Seite auch zwar nach 1,7 Sekunden angezeigt, jedoch ist im Vorfeld nichts passiert und der Nutzer starrt auf eine „blanke Seite", welche zur Frustration führen kann. Somit wird der Nutzer wahrscheinlicher die Seite verlassen, bevor sie vollständig geladen ist, weil er z.B davon ausgeht, dass die Seite nicht geladen wird.

               

              U) Technisches SEO - HTTP / HTTPs Latenz 

              Das HTTP Protokoll ist dazu da, Verbindungen zwischen Browser und Server herzustellen. Es dauert eine bestimmte Zeit um eine Verbindung zwischen dem Browser und dem Server herzustellen, außerdem dauert es natürlich dann wiederum, um die Daten abzufragen, zu suchen, zu übertragen, fehlende Inhalte erneut abzufragen und erneut zu übertragen. 

              Wenn ein Browser von einem Server eine bestimmte Seite oder andere Ressource, wie z.B ein Bild oder Video Datei angefragt hat, dann benutzt der Browser HTTP als „Sprache“ oder „Weg“, um mit dem Server zu kommunizieren. Beim HTTP werden alle Dateien mit dem HTTP Request zwischen Browser und Server hin und her geschickt, hier können unter Umständen verheerende Probleme entstehen, denn jeder der es darauf anlegt, kann einsehen, was genau hier zwischen Browser und Server versendet wird. 

              Unter anderem können auch sehr wichtige Informationen eingesehen werden wie z.B Kreditkarten Informationen und Passwörter.

              Während HTTP einen einfachen Weg für die Datenübertragung verwendet, wird bei HTTPS eine Art Tunnel verwendet, der vor neugierigen Blicken schützt. Bis auf den Sichtschutz gibt es zwischen HTTP und HTTPS keinen Unterschied und das ganze funktioniert so ziemlich auf dieselbe Art und Weise. 

              Das Hauptsächliche allgemeine Problem jedoch mit HTTP und HTTPS ist die Latenz…

              Die Informationen bei der Datenübertragung zwischen Browser und Server werden in der Regel über Glasfaser versendet. Die Datenübertragung benötigt mit einem Glasfaserkabel pro Kilometer Wegstrecke in etwa 4,9 Mikrosekunden (0,0000049 Sekunden) Zeit. 

              (An dieser Stelle ergibt sich eine gute Gelegenheit, unsere erneute Empfehlung auszusprechen, bezüglich der richtigen Server Auswahl. Dieser sollte unmittelbar in der Nähe Ihrer Zielgruppe liegen. Wenn Ihre Zielgruppe in Deutschland ansässig ist, dann dürfte die Serverauswahl innerhalb Deutschlands, die richtige Wahl sein, welche in betracht gezogen werden sollte.

              Sollte Ihr Server Standort innerhalb Europa liegen, haben Sie eine normale und durchschnittliche Latenz (Hier gilt stets, je näher desto besser). Bei ausführlichen Tests zwischen einer besseren Bandbreite, sprich schnellerem Internet, sieht man deutlich, dass zum Anfang größere Vorteile bereitgehalten werden. Allerdings sind mit der Zeit keine Veränderungen mehr zu sehen, wobei hingegen bei einer Latenzverzögerung eine ständige Reduzierung der Ladezeit zu beobachten ist.

              Google hat identifiziert, dass die Leistung des Webs Probleme hat, diese Untersuchungen und Ergebnisse waren letztendlich auch ein Grund dafür, dass Google über das SPDY Protokoll schließlich das HTTP2 entwickelt hat.

               

              V) Technisches SEO - HTTP2

              Bei HTTP2 geht es um eine weiterentwickelte Form des HTTP und HTTPS.

              Der große Unterschied zwischen HTTP und HTTP2 liegt darin, dass HTTP2 das sogenannte Multiplexing erlaubt. Multiplexing bedeutet, dass der „Sicherheitstunnel“ für die Datenübertragung mehrere Requests benutzen kann, sprich mehrere Datenübertragungen gleichzeitig statt nacheinander erfolgen (wie es bei HTTP und HTTPS der Fall ist).

              Es können quasi ganze Banden von Requests durch den „Sicherheitstunnel", welcher zwischen dem Server und dem Browser liegt, hin und her geschickt werden, um so viele Anfragen wie nur möglich zeitgleich zu bearbeiten. Das sorgt wiederum auch letztendlich wie erwartet für eine deutlich verbesserte Latenz. 

              Eine Alternative für eine verbesserte Latenz bei HTTP und HTTPS wäre es z.B mehrere Wege bzw. Tunnel (max.6 Stück) zwischen Browser und Server regelrecht graben zu lassen und für jeden einzelnen Tunnel einen einzigen Request für die Datenübertragung zu verwenden. Bei HTTP2 wird nur ein Tunnel verwendet, dafür werden jedoch gleich mehrere Requests parallel versendet. 

              Hier haben wir eine Seite mit ca.360 übertragbaren Bilddateien verlinkt, an denen Sie die Performance und Ladezeit zwischen HTTP - HTTPS - HTTP2 selbst betrachten und die klaren Unterschiede selbst identifizieren können. (https://https.tunetheweb.com/performance-test-360)

              Durch die abgemessene Ladezeit der HTTP Webseite (ca.17,9 Sek.) und HTTP2 (ca. 1,6 Sek.), sind die enormen Performance- und Qualitätsunterschiede unumstritten. 

              Um eine HTTP2 einzurichten, benötigt man nicht immer Programmierung, Codierung oder ähnliche Kenntnisse, hier muss lediglich das Management für den Request geändert werden, so dass man diese parallel-koordiniert durch den Tunnel schicken kann. Der Server muss aktualisiert werden, damit dieser HTTP2 sprechen kann. Sie können als WebMaster diese Einstellungen auf Ihrem Server selbst vornehmen. 

              Eine weitere Alternative, um die Server Sprache auf HTTP2 zu ändern, wäre, eine einfache Anfrage bei Ihrem Hosting Anbieter zu stellen. HTTP2 funktioniert ausschließlich über sichere Verbindungen, also mit integrierten SSL Zertifikaten, ansonsten würden Browser kein HTTP2 zulassen. 

              Zurück zum SEO

              Google bevorzugt eine Seite nicht nur, weil sie jetzt HTTP2 hat. Allerdings verschaffen sich durch die Verwendung des neuen Protokolls eine deutlich bessere Nutzererfahrung, welche wiederum für Google die wichtigste Priorität abdeckt und das ist, das was die Suchmaschine letztendlich auch erreichen möchte. 

               

              W) Technische Überprüfung der Seite

                Wir haben die zwei wichtigsten Fragen bezüglich der technischen Überprüfung von Webseiten hier aufgelistet:

                • Ist die Seite für Crawler erreichbar?

                • Gibt es Anweisungen an die Google Suchmaschine, die eine Indexierung verhindern?

                Die Priorität dieser Fragen ist enorm, denn wenn der Crawler die Seite wegen einem technischen Fehler nicht erreichen kann, dann bringt selbst die beste Webseite nichts!

                Die erste Alternative hierbei wäre, dass man sich einen Einblick in die Googlesuche mit einem Suchoperator verschafft, ob denn überhaupt die Seiten der gewünschten Webseite indexiert worden sind.

                Geben Sie (Site:example.com {site:Ihre Domain}) in die Googlesuche ein, um sehen zu können, welche Ihrer Unterseiten überhaupt indexiert worden sind.

                Sollten keine Ergebnisse angezeigt werden, bedeutet das nicht zwangsläufig, dass der Crawler die Seite nicht sieht. Es kann hier auch einfach sein, dass die Seite neu ist und einfach deshalb noch nicht gecrawlt worden ist. 

                Einen besseren und erweiterten Einblick kann hier die Google Search Console verschaffen. https://search.google.com/search-console/about

                Es können auch Tools und Software ohne erforderliche Zugangsdaten verwendet werden, z. B. Screaming Frog. Screaming Frog bietet den Vorteil, eine großzügige kostenlose Version bereitzuhalten und arbeitet quasi als Crawler. https://www.screamingfrog.co.uk/seo-spider/

                Hier werden Webseiten durchsucht, um viele Informationen über jegliche Seiten sowie Unterseiten zu sammeln und bereitzustellen. In der kostenlosen Version wird hier sogar angeboten, bis zu 500 URLs pro Tag zu crawlen. 

                Es ist eines unserer Lieblings Analyse Tools, die nicht nur zeitsparende Vorteile verschafft, sondern auch eine vielfältige Informationsanalyse für bestehende Probleme der gezielten Webseite, deutlich, einfacher und übersichtlicher darstellen kann.

                Sind alle Inhalte auf einer Root- und Subdomain?

                Immer wieder kann man häufig bei Start-Up Unternehmen das typische Blog.Domain.com oder Blogdomain.com feststellen, der eigentlich zur Hauptseite gehört. 

                Was viele auch heute nicht wissen ist, dass Google diese beiden Varianten im Vergleich zur Hauptseite Domain.com als andere Webseiten einstuft. Das bedeutet klar ausgedrückt, dass die mögliche Autorität, Bedeutung und Beliebtheit auf mehrere kleine Unterseiten verteilt wird, statt alle Seiten in eine Hauptseite zu bündeln und diese so stark wie möglich für die Suche zu platzieren. 

                Hier gilt, dass alles auf einer Domain liegt und der gesamte Traffic gebündelt bei dieser Domain ankommt.

                Analyse der bestehenden Inhalte auf der Seite sowie Identifizierung von Duplikaten und inhaltlich schwachen Seiten. In diesem Abschnitt wird die Webseite gescannt und ausschau nach irgendwelchen auffälligen „Bad Practices“ gehalten. Im Speziellen Fall möchte man nach beispielsweise Duplicatet Content oder Seiten mit dünnem oder wenig Inhalten Ausschau halten. 

                Inhalte mit Duplicatet Content sollten natürlich immer zusammengeführt werden und Dopplungen über die Verwendung des Royal Canonical Tags oder dauerhafte Weiterleitungen entsprechend markiert werden. Seiten mit schwachem oder weniger Inhalt können oft kombiniert werden, um viel umfassendere und komplexere Seiten zu bilden, die dann von Google viel höher eingestuft werden können und nicht einfach ignoriert werden, als Seiten, die überhaupt keinen sinnvollen Inhalt wiedergeben. 

                Zuletzt sollte man auch in Betracht ziehen, dass jegliche dynamische Suchseiten aus der Suche ausgeschlossen werden, denn Google wird niemals die Suchergebnisse der angezielten Webseite in den eigenen Suchergebnissen anzeigen, daher kann dieses Prozedere ausgeschlossen und der Fokus auf wichtigere Seiten gelegt werden. Dasselbe gilt auch für Seiten, die in der Suche nicht benötigt werden und eher überflüssig sind, wie z.B das Impressum, dieses muss zwar auf jeder Webseite gegeben sein, jedoch nicht zwingend in der Google Suche auftauchen, wenn dieses auch so, gut auf der Webseite erreichbar ist. 

                 

                 

                Kapitel 11 - Off Page SEO

                Hier finden Sie alle relevanten Einstellungen & Optimierungsmöglichkeiten, welche Sie außerhalb Ihrer Webseite vornehmen können.

                 

                A) Interne Links

                Interne Links bestimmen die Struktur der Seite, Menüs und Navigation. Interne Links sind besonders wichtig, um einem Crawler und somit der Suchmaschine Aufschluss über die gesamte Webseite zu geben und um zu verdeutlichen, welche Bereiche oder Seiten vielleicht besonders wichtig sind. Die Crawler werden selbstverständlich bei einer Seite, die von 50 weiteren Unterseiten erreichbar ist, von einer erhöhten Wichtigkeit ausgehen im Vergleich zu einer Unterseite, die im Footer nur einmal verlinkt ist.

                Die Internen Links auf einer Webseite ermöglichen erst die Navigation eines Nutzers. Schließlich möchte man das der Nutzer länger auf der Seite bleibt und sich nicht nur eine Seite anschaut um im schlechtesten Fall die Webseite gleich wieder zu verlassen. Um Qualitatives Link Building zu betreiben gehört neben dem erstellen von gutem Inhalt die aktive Kooperation mit anderen Dienstleistern, SEOlern, Webmastern sowie Autoren und natürlich auch weiteren persönlichen Kontakten.

                 

                B) Externe Links

                  Dienen als Verweise von externen Seiten, Plattformen, Kanälen oder Apps, um mehr Traffic und digitale Präsenz für Ihre Webseite zu generieren. Die Algorithmen von Google werden diesen Traffic zuordnen und Ihnen somit mehr Relevanz für Ihre Webseite zusprechen. Selbstverständlich können also Externe Link im Idealfall bessere Platzierungen in der Google Suche ergattern.

                   

                  C) Backlinks

                  Bei Backlinks bürgen und empfehlen, mehr oder weniger Dritte, mit der Verlinkung zu dem Inhalt einer Webseite.

                  Hier kann für die gewünschte Seite der Link von anderen vertrauenswürdigen Webseiten, Marken sowie Social Media Accounts gepostet oder veröffentlicht werden. Hier wiederum bestimmt die Qualität des Posts und seines Inhalts mit Relevanz und Zusammenhang sowie der allgemeinen Erfüllung des Suchgrundes vom Nutzer, die fortlaufende Reaktion des Algorithmus. 

                  Auch wenn man keinen Einblick in die Algorithmen von Google und dem RankBrain hat, so wurde von Google in der Vergangenheit immer wieder deutlich betont, dass Backlinks eines der wichtigsten Ranking- Signale für Google sind. Qualitativ hochwertige und relevante Backlinks, steigern den Traffic und die Autorität einer Webseite fortlaufend. 

                  Genauso können sogar minderwertige Backlinks, die nicht viel Relevanz und somit keine Autorität aufweisen, dem Ansehen der Webseite beträchtlich schaden. 

                  Vorsicht vor Backlink Spam!

                  Dieser wird von Google erkannt und kann zum Ranking Fiasko führen! Die Qualitätsfaktoren einer Webseite ist wie folgt zu erkennen:

                1. Autorität und Seriosität der verlinkten Ressource
                2. Wenn die verlinkte Ressource selbst einen hohen PageRank besitzt, dann ist die Wahrscheinlichkeit hoch, dass diese Ressource, der gewünschten Webseite, einen ordentlichen autoritären Aufschub hinterlässt. Je mehr Autorität die verlinkende Ressource hat, desto mehr kann sie auch weitergeben. 

                3. Relevanz der verlinkenden Ressource
                4. Einen Backlink von einer Seite mit einem hohen PageRank zu bekommen war früher immer wertvoll für die Webseite. Ist es zwar heute auch, jedoch geht es mehr um die Relevanz der verlinkenden Ressource zum verlinkten Inhalt. 

                  Relevanz ist der neue PageRank!

                   

                  D) Art der Platzierung des Links

                  Im Idealfall ist der Link natürlich im Inhalt der verlinkenden Seite zu finden, z.B. im Artikel. Weniger optimal ist eine Verlinkung im Footer oder in einer Sidebar, die eigentlich gar nicht so wichtig ist und vielleicht mit dem eigentlichen Inhalt der Seite wenig zu tun hat.

                  Finger weg von Kommentar Spam!

                  Google selbst sagt: „Links, die nicht redaktionell auf einer Webseite vom echten Entwerfer der Seiten und somit vom Dateneigentümer selbst platziert worden sind (auch unnatürliche Links genannt) können als Verstoß gegen die Richtlinien verstanden werden.“

                   

                  E) Inbound Backlinks

                  Durch den Inbound Backlink einer beliebten Webseite, Blog-Beitrag oder Social Media Beitrag schreibt die Suchmaschine der gewünschten Seite Autorität zu und rankt somit die Webseite. Inbound Backlinks sind Links von anderen Webseiten zu der gewünschten Webseite. Der Algorithmus analysiert diese Links, den Zusammenhang und die Relevanz zwischen den Webseiten sowie dem Beitrag bzw. dem verlinkenden Grund. 

                  Auch hier ist die Qualität der Relevanz bezogenen Zusammenhänge wieder deutlich wichtiger als die Anzahl der Links und Promotions. Für die SEO Einstellungen sind immer Inbound Links von respektierten und autoritären Webseiten innerhalb der eigenen Branche hochbegehrt. Im Idealfall sind noch passende Keywords verlinkt, so dass der Inhalt der Webseite erneut verdeutlicht wird. 

                  Ein gezielter Einfluss kann hier nicht veräußert werden, häufig entstehen diese Links aus einem Dialog, bei dem man den Verlauf nur leicht zum eigenen Vorteil beeinflussen kann. Bei dem Begriff Backlink liegt der Fokus eher darauf, den PageRank Wert für die gewünschte Zielseite zu verbessern, um die entsprechende Position in den Ergebnisseiten der Suchmaschine zu erhöhen, der Vorteil hier ist jedoch, dass dies geschieht, ohne dass ein Nutzer die Webseite besuchen muss. Bei dem Begriff Inbound Backlinks handelt es sich eher darum, den Empfehlungsverkehr durch diese Linkplatzierung zu erhalten und tatsächlich Traffic auf die gewünschte Zielseite zu generieren.

                   

                  F) Featured Snippets

                  Google hat sich in den letzten Jahren deutlich weiterentwickelt. Genauso ist es mit dem Erscheinungsbild der Suche. Während es früher nur stumpfe Titel und Beschreibungen gab, gibt es heute viele Möglichkeiten, wie das Snippet (Ergebnis) von der gewünschten Webseite in der Google Suche angezeigt wird und aussehen kann. 

                  Wenn diese Möglichkeiten richtig genutzt werden, kann damit deutlich mehr organischer Traffic für die angezielte Webseite generiert werden. Unter der Domain schema.org kann nachgesehen werden, welche Möglichkeiten es gibt, weitere Informationen zu der angezielten Webseite anzugeben, sprich was von Google letztlich unterstützt wird, um diese weiteren Features bei den Suchergebnissen für die angezielte Webseite zu ermöglichen.  

                  Es sollte auch darauf geachtet werden, was auf der Suchergebnis-Seite nach Eingabe der gewünschten Keywords angezeigt wird. Werden Bilder, Shopping-Anzeigen, Videos, Maps, Kurzberichte & Einträge, Produktvorschläge etc. als Ergebnis angezeigt, dann kann man in der Regel davon ausgehen, dass die entsprechende Art von Inhalt von den Suchenden Nutzern am meisten bevorzugt wird. 

                  Sollten nach der Suche keine besonderen Snippets auftauchen, kann es umso besser sein, denn falls möglich, kann man als Vorreiter in seinem Markt, mit einer unübersehbaren Traffic Quelle die Klickraten enorm beeinflussen und durch die erweiterten Features die eigene Werbebotschaft aus der Masse spielend einfach hervorheben. 

                  Die von Google bevorzugte Form, JSON-LD kann mit dem: 

                  • Structured Data Markup Helper

                  https://www.google.com/webmasters/markup-helper/, von Google, direkt auf der Seite erstellt werden und muss dann lediglich noch auf den entsprechenden Seiten hinzugefügt werden. 

                  Die Überprüfung der aktiven Featured Snippets können auf der Seite: https://developers.google.com/search/docs/advanced/structured-data, nach der Einrichtung, auf enthaltene Fehler überprüft werden oder ob Google die Seite erfolgreich implementiert hat. 

                  Auch SERP Features bieten Chancen wie zum Beispiel die Antwortbox (Answer Box) welche schnell erkannt und genutzt wird, denn mittlerweile zeigt ein recht beachtlicher Teil aller Suchen bei Google eine Antwortbox an.

                  Die Antwortbox enthält, wie der Name bereits sagt, eine direkte Antwort auf die Frage des suchenden Nutzers. 

                  Die Antwortbox wird meist zwischen den Google Ads / Google Werbeanzeigen und den organischen Ergebnissen angezeigt.

                  Die Antwortbox steht also quasi auf der PositionNULL“ und kann somit mehr Traffic generieren als die Position „EINS" in der Suchleiste. Dafür müsste der Inhalt so optimiert werden, dass die Antwort die gesuchte Frage vollständig beantwortet, indem entweder ein kurzer Absatz mit einer Erklärung oder unter den Überschriften eine Schritt für Schritt Anleitung / Erklärung erstellt wird. 

                  Für die Featured Snippets gilt allgemein, dass in der Regel nur Seiten genutzt werden und eine Chance haben diese zu ergattern, die zu dieser Suchanfrage bereits gut gerankt sind, sprich auf Seite eins in der Google Suche stehen.

                   

                  G) Weitere Traffic-Quellen

                  Neben der größten Suchmaschine der Welt (Google) ergibt es durchaus Sinn, sich die zweitgrößte ebenfalls anzusehen, welche nicht Bing oder Yahoo sind, sondern YouTube! Extrem viele Nutzer nutzen täglich die Video Plattform, um Antworten auf ihre Fragen zu finden. 

                  Daher ergibt sich hier eine wunderbare Möglichkeit, zusätzlich organischen Traffic für die Webseite zu generieren, wenn Sie Video Inhalte zur Verfügung haben, die gezielte Suchanfragen beantworten können! 

                  Drei weitere Alternativen und beliebte Suchformate für Organische Traffic Strategien sind zum Beispiel die:

                  Bilder - Mit der richtigen Alt-Text Beschreibung können die Bilder auf der Suche leichter gefunden werden. In den meisten Branchen sind diese visuellen Elemente von extremer Wichtigkeit und können deutlich weiteren Nutzerkomfort verschaffen. 

                  • News - Für Nachrichtenseiten, Krypto, Aktien, Rohstoffe oder Technologie, Blogs usw. bietet sich das News Format an.

                  • Apps - Können gerade auf mobilen Geräten und bei Suchanfragen mit klarem App-Nutzen sehr relevant sein.

                  • Ecommerce - Über Placements auf großen Plattformen wie Amazon, Ebay oder Etsy kann zusätzliche Reichweite generiert werden.

                  • Branchen Individuell - Können viele spezifische Suchmaschinen oder Plattformen, auf denen die angezielte Webseite noch etwas besser platziert werden kann, mehr Aufmerksamkeit bekommen.

                   

                  H) Lokales SEO

                  Eine weitere Alternative für zusätzlichen, organischen Traffic und einzigartige Ranking-Möglichkeiten, die jedoch nur für lokale Geschäfte sowie Läden interessant sind, dafür, für diese umso wichtiger sind, ist das lokale SEO. Sobald eine Besuchbare Adresse vorhanden ist, kann mit Google Maps / Google MyBusiness der Lokale Standort eingetragen und durch die Webseiten Verlinkung, zusätzlicher Traffic generiert und das Ranking erheblich für ein lokales Geschäft verbessert werden. Auch als Featured Snippet kann die Strategie mit einer Google Maps Eintragung, durchaus goldene Traffic-Möglichkeiten verschaffen. 



                  Kapitel 12 -  Weitere Off Page SEO Strategien

                  A) Webseite organisch bewerben 

                  Die Webseite über Social Media, Streaming-Kanäle, E-Mail Marketing oder über weitere Marketing Strategien zu bewerben ist eine parallele Strategie, die, abgesehen vom SEO, für jedes gesunde Unternehmen von heute eine unumgängliche Pflicht ist. Je mehr Treffer und Besucher einer Seite zugeordnet werden können, desto höher rankt der Algorithmus die Seite. Daher ist jeder User, der durch jegliche weitere Vertriebskanäle oder Dritte gewonnen wird, wie ein investierter Nagel, in Ihrer „Eigentums Immobilie“.

                  Hier ist es genau wie bei allen SEO Einstellungen die Qualität des Beitrags sowie Zusammenhang und Relevanz entscheidet über das Ranking.

                   

                  B) Netzwerke aufbauen und Beziehungen pflegen

                    Netzwerke und Verbindungen mit den führenden und vertrauenswürdigen Unternehmen Ihrer Branche aufzubauen, bedeutet bei guten Leistungen immer eine Win-Win-Situation für alle Seiten. 

                    Erweiterte Google SEO Einstellungen belaufen sich wie im alltäglichen Geschäftsleben nach dem simplen Gesetzt, eine Hand wäscht die andere. Für Erweiterte Google SEO Einstellungen ist das ein notwendiger Baustein, um die maximale Produktivität diesbezüglich zu entfalten. Die Zusammenarbeit mit der „Konkurrenz“ bietet in diesem Fall mehr als nur einen Vorteil, welche auch allen Top SEOlern bekannt sein dürfte. 

                    Der entstehende Traffic und organische Frischwind, der durch eine Verlinkung Ihrer Webseite von einer bekannten öffentlichen Person auf Social Media, einer beliebten Marke oder einem in derselben Branche gut positionierten Konkurrenten veröffentlicht wird, ist nicht zu leugnen. 

                    Daher empfiehlt es sich, langfristig immer Sinnvolle Kooperationen einzugehen und fortlaufend persönliche Beziehungen mit aktiven autoritären Marktteilnehmern innerhalb Ihrer Branche zu pflegen.



                    Kapitel 13 - Analyse, Reporting & Berichte

                     

                    A) Analyse & Reporting

                    Dieser Abschnitt gilt als unerlässlich, wenn es darum geht, die Effektivität des vorgenommenen Google SEO zu messen und einzuschätzen. Nur durch eine objektive Beurteilung der Wirkung durch faktische Zahlen ist eine richtige Einschätzung der Effektivität für SEO’s und deren Kunden möglich.


                    B) Kundenziele

                    Wie erstellt man einen Report und wie kann man diesen einem Kunden vorstellen? In der Regel sind Unternehmen, die sich nicht aktiv mit Google SEO befassen, mit den Kennzahlen und Daten eines SEOs überfordert. Durch gutes Reporting kann dem Kunden hier jedoch sehr gut vorgestellt und klar aufgezeigt werden, wie wertvoll die SEO Arbeit ist und welche Vorteile sie für ein Unternehmen bringen kann.

                    Selbst wenn man als SEO sehr gute Ergebnisse erzielt, diese jedoch nicht in Zusammenhang mit den Zielen des Kunden bringen kann, wird die Arbeit von den Kunden nicht wertgeschätzt werden können. Der Prozess für den Auftraggeber und den Beauftragten beginnt beim Onboarding mit folgenden Fragen zu den Unternehmenszielen:  

                  1. Welche Ziele verfolgt das Unternehmen für dieses Jahr?
                  2. Welche Ziele verfolgt das Unternehmen für nächstes Jahr?
                  3. Welche Ziele verfolgt das Unternehmen für die nächsten fünf Jahre?
                  4.  Je mehr und umso genauere Ziele ein Unternehmen liefert, desto besser kann ein SEO die Planung einrichten, Ergebnisse umsetzen und die gewünschten Unternehmensziele schaffen. Ob Sie eine Marketing oder SEO Agentur leiten, sind Sie als seriöses und qualitatives Unternehmen quasi dazu verpflichtet, sich mit den Zielen Ihrer Kunden auseinanderzusetzen und natürlich auch zu kennen!

                     

                    C) Google Analytics

                    Um aufschlussreiche Informationen darüber zu erhalten, wer, wann, warum und wie die angezielte Webseite besucht wird, wird das Tool Google Analytics verwendet, um Daten über alle Nutzer sowie deren Verhalten sammeln zu können. 

                    Anhand dieser Daten kann die SEO Strategie angepasst und optimiert werden. Die gewonnen Daten aus Google Analytics können z.B zeigen:

                  5. Wie viele Personen haben die Webseite besucht ?
                  6. Woher kommen diese Besucher?
                  7. Wie ist die Aufteilung zwischen Mobilen und Desktop-Besuchern?
                  8. Von welchen Quellen kommt der Traffic?
                  9. Welche Seiten auf der Webseite sind die beliebtesten?
                  10. Wie viele und welche Besucher konvertieren auf der Webseite?
                  11. Kann die Geschwindigkeit und die Leistung der Website verbessert werden?
                  12. Wie lange bleiben Besucher und welche Seiten sehen Sie sich ausführlich an?
                  13. Das ist nur ein minimaler Einblick in das, was mit den Daten aus Google Analytics analysiert werden kann. Wer sich mit diesem Tool auskennt, der kann wirklich fast alles über die Webseite, deren Besucher und noch vieles mehr erfahren.

                     

                    D) Google Analytics Tracking Code

                    Mit der Installation von Google Analytics werden noch keinerlei Daten gesammelt, um das zu ermöglichen, wird der sogenannte Tracking Code zunächst installiert und auf der Webseite platziert. Das kann dabei auf unterschiedliche Arten passieren, je nachdem, um was für eine Webseite es sich handelt und wie das ganze eingebunden werden soll. Die einfachste Varianten den Tracking Code zu Installieren ist in der Regel:

                    • Im Head Bereich auf der Webseite selbst einzubinden. 

                    • Über Plugins, Content Management Systeme oder ein Eingabefeld für die Tracking ID bei Nutzung von Shopify oder anderen gehosteten Blogs. (Hier wird entweder der gesamte Code oder nur die ID eingefügt.)

                    • Einbindung mithilfe des Google Tag Managers, der es erlaubt, viele unterschiedliche Tags, unter anderem auch den Tracking Code in „Containern“ zu bündeln und auf der Webseite zu veröffentlichen.

                    In Deutschland und Europa gilt es dringend, die DSGVO zu beachten. Hier ist es wichtig, dementsprechend auf der Webseite mit einer zusätzlichen Codezeile zu kommunizieren, dass Daten gesammelt werden und dem Nutzer somit die Möglichkeit verschafft wird, dem zuzustimmen oder dies abzulehnen. 

                    Zusätzlich müsste eine Codezeile mit der Bedeutung, dass jegliche Webseiten Aufrufe, die von dem Analytics Tracking Code erfasst werden, automatisch die IP anonymisiert werden. (Das ist keine Rechtliche Beratung und / oder eine Zusicherung Ihrer Rechtlichen Absicherung! Wir möchten lediglich die Möglichkeiten ansprechen und empfehlen, Ihre Rechtliche Absicherung intern in Ihrem Unternehmen abzuklären und sich dafür einen Fachanwalt hinzuzuziehen.)

                     

                    E) Kennzahlen

                      Wenn es nun darum geht, die Ergebnisse der SEO Arbeit zu tracken, zu überwachen und letztendlich auch Bericht zu erstatten, dann ist es wichtig, klar zu verstehen, welche Kennzahlen überhaupt relevant sind.

                      Die sogenannten Vanity Metrics sind z.B Kennzahlen, die zwar gut aussehen, jedoch nicht immer über wirklich zählbare und wirtschaftlich vorteilhafte Ergebnisse, Statistik liefern.

                      Die Relevanz und Bedeutung von den entsprechenden Kennzahlen entscheidet sich in Abhängigkeit von den übergeordneten Marketing, Werbe- und Geschäftszielen eines Unternehmens. Geht es bei einer Kampagne eher um eine reine Marken Bekanntheit und Brand Aufbau sowie den Namen eines Unternehmens möglichst einer breiten Masse und Zielgruppe vorzustellen, dann sind natürlich reine Traffic Zahlen von Bedeutung und sehr Interessant.

                      In der Praxis mit Kunden, ist es in vielen Szenarien oft der Fall, dass diese eher irrelevant sind und nur nebensächlich eine Rolle spielen. In den meisten Fällen geht es darum, durch Conversions und Leadgenerierung möglichst gute wirtschaftliche Ergebnisse zu erzielen.

                      Ob derselbe Umsatz dabei von 1000 oder 10.000 Webseiten Besuchern generiert wird, ist zweitrangig. SEOs sollten genau wissen, welche Zahlen wichtig sind, um Ergebnisse zu belegen und welche eventuell falsche Schlüsse zulassen. 

                      Jedoch kommt es auf die Kundenwünsche immer in erster Linie an. z.B. ist die Bounce-Rate, also der Prozentsatz der Personen, die eine Webseite ohne weitere Aktion sofort wieder verlassen, eine kontroverse Kennzahl, da sie für viele Ziele überhaupt nicht wichtig ist. Dennoch ist es eine Kennzahl, die viele Kunden und / oder deren Vorgesetzte interessieren. Selbstverständlich werden diese Zahlen für den Kunden in diesem Sinne belegt, denn auch bei der Suchmaschinenoptimierung ist der Kunde König!

                      Weitere mögliche Kennzahlen die Relevanz erzeugen (könnten) sind folgende:
                      • Links - Durch diese Links wird die Autorität der entsprechenden Webseite verstärkt und bringt gleichzeitig mehr organischen Traffic von anderen Quellen, zum Beispiel externen Websites, Apps oder Plattformen.

                      • Ranking oder Position - Relativ selbsterklärend gibt es beim Ranking die Position einer Webseite in der Suche zu einem bestimmten Term.

                      • Organischer Traffic - Bei dieser Kennzahl interessiert die Zahl an Besuchern, die über die organische Suche auf die Webseite gelangen.

                      • Klicks in der Suche - Die absolute Zahl an Klicks zu der entsprechenden Webseite aus der organischen Suche. Diese kann zum Beispiel in der Google Search Console gefunden werden.

                      • Impressionen in der Suche - Wie oft taucht die entsprechende Webseite überhaupt in der Suche auf? Auch diese Kennzahl kann in der Google Search Console gefunden werden.

                      • Klickrate - Ergibt sich aus Klicks und Impressionen in der Suche. Wie viel Prozent der Suchenden klicken, wenn sie es sehen auf den Link zur entsprechenden Webseite.

                      • Conversion Rate aus organischem Traffic - Während natürlich für das Gesamtbild die Conversion Rate bei jedem Asset interessant ist, sollte hier segmentiert und speziell der Traffic aus der organischen Suche analysiert und wie dieser in Bezug auf Conversions, Performance gefiltert werden.

                      • Mobile Rankings - Vor allem durch den Mobile Only Index von Google ist natürlich interessant, wie die entsprechende Webseite auf der mobilen Suche dargestellt wird.

                      • Such Traffic auf mobilen Geräten - Eigentlich sind dieselben Kennzahlen wie oben gelistet (Impressionen, Klicks, Traffic aus organischer Suche) aber in Bezug auf die mobile Gerätekategorie segmentiert.

                      • Pagespeed und Leistungen - Gibt es Probleme, weil die entsprechende Webseite zu langsam lädt? Gibt es Fehlermeldungen oder Serverausfälle? Wie gut ist die Leistung bei weniger schnellem, mobilem Internet?

                      • Fehler und Warnungen - Es sollte versucht werden, keine unnötigen 404 Fehler zu produzieren. Außerdem natürlich immer ein Auge darauf haben, dass keine Serverfehler passieren, die auf Überlastung hindeuten könnten.

                      • Indexierungsstatus - Im Idealfall sind alle wichtigen Bereiche der entsprechenden Webseite immer indexiert. In der Google Search Console kann dies überprüft und bei De-Indexierung entsprechende Maßnahmen ergriffen werden.

                      • Zeit auf der Seite - Wie viel Zeit verbringen Besucher auf der entsprechenden Webseite?

                       

                      F) Links

                        Die Links sind immer noch eines der Top 3 Ranking Signale für Google. Die Welt der Links im SEO hat sich in den letzten Jahren deutlich verändert. 

                        Während es früher sehr sehr hilfreich war, am besten Tausende von Links in die angezielte Webseite zu platzieren, sind mittlerweile die Qualität und Relevanz der Links sehr viel entscheidender. Qualitative Links von seriösen Webseiten sind auch abseits von SEO immer vorteilhaft für ein Unternehmen. Um diese qualitativen Links heute zu erreichen, reicht es nicht mehr, veraltete Strategien wie bezahlte Links, Link Börsen und Keyword Spam zu verwenden. Stattdessen erreicht man heute die guten Links eigentlich nur noch durch Bereithaltung von nachhaltigem Inhalt. Entscheidend ist nicht die Zahl der Inbound Links und Backlinks, sondern deren Qualität, Autorität und Relevanz der verlinkenden Assets.

                        Die besten Tools für die Link Informationen und Daten sind:

                      1. Google Search Console 
                      2. Professionelle Tools wie Semrush, MOZ, AHREFS 
                      3. Die wichtigen Kennzahlen der Links zeichnen vor allem das Wählen der qualitativen Links aus, dies spricht vor allem für eines: Sehr guten, neuen oder überarbeiteten Content auf der Webseite

                         

                        G) Ranking & Position 

                          Eine gute Position im Ranking wird tatsächlich von Anfängern und eher unerfahrenen SEO‘s überschätzt, hier wird lediglich zu viel Wert drauf gelegt und gleichzeitig werden wichtige Faktoren, die erst das Ranking überhaupt ermöglichen, willkürlich missachtet. 

                          Das ist auch teilweise der Tatsächliche Grund, dass Kunden sich öfter sehr stark für Ranking zu bestimmten Begriffen interessieren und hier Ergebnisse sowie Verbesserungen sehen möchten. Die Position im Ranking ist natürlich nicht unbedeutend, aber interessante und relevante Metrics entstehen erst nach Zugabe einiger ergänzender Daten. Hierzu zählen:

                        1. Impressionen 
                        2. Click-Through-Rate / CTR
                        3. Ranking & Position 
                        4. Diese Kombinationen aus Metrics ergeben das Ergebnis des Organischen Traffics.

                          Die Informationen zu den einzelnen Kennzahlen als auch die gesamte Resonanz können mit der Google Search Console eingesehen werden. Auch der Traffic ist erst einmal eine Kennzahl, der eine besondere Bedeutung nicht abzuschreiben ist. 

                          Je mehr Besucher auf einer Webseite sind, desto höher ist die Chance, dass, umso mehr Besucher, die gewünschte Conversion durchführen, sich als Leads eintragen oder weiteren Werbezielen nachkommen. Das wiederum hängt nicht nur anhand der Zahl des Traffics ab. Genauso wichtig ist die Qualität der Besucher. Wenn von 400 Besuchern 200 buchen, hat ein Unternehmen selbstverständlich mehr davon, als wenn es nur 120 Conversions von 3000 Besuchern gibt.

                          Auch hier hängt wieder die Relevanz der absoluten Besucherzahl wieder sehr stark von den Zielen und Wünschen eines Unternehmens ab! Traffic ist eine Kennzahl, die sehr gerne beachtet wird, wenn es im Einzelfall auch Sinn macht, ist dagegen auch absolut nichts einzuwenden. Auf der anderen Seite jedoch sollte man sich nicht darauf ausruhen, wenn es den nicht auf die eigentlichen Zielen zusteuert!

                           

                          H) Organische Conversion Rate

                            Im Vorfeld zur Ranking & Position, CTR und Impression wurde kurzfristig schon einmal von der Qualität des Traffics berichtet. Die unter vielen Umständen eine wichtigere Rolle spielen als die absolute Zahl der Besucher und die organischen Suchen selbst. Denn selbst wenn zwar nur ein wenig Traffic generiert wird, dieser jedoch für deutlich mehr Conversions sorgen kann, dann ist das in den meisten Fällen besser für das Unternehmen.

                            Die Qualität des Traffics ist etwas, was auf den ersten Blick nicht so leicht einzuschätzen ist. Selbst in bezahlten Tools wird es hierzu keine Daten geben, denn es ist ja nicht wirklich möglich zu beurteilen, wie wertvoll ein Nutzer für eine Webseite war, ohne Einblick auf eine erfolgte Conversion zu haben. 

                            Die Möglichkeit für einen SEO bleibt jedoch nicht verwehrt, über Google Analytics die Conversions zu tracken und darauf aufbauend zu beurteilen, wie wertvoll der Such Traffic für die angezielte Webseite wirklich war. Die organische Conversion Rate hilft dabei, den Traffic nach Qualität einordnen zu können. Diese Kennzahl kann in vielen Situationen u.a. in der Praxis sehr wichtig und relevant sein. 

                            An den Conversions ist in aller Regel ein finanzieller Wert geknüpft. Auch wenn es nicht um direkte Verkäufe geht, so gibt es auch bei der Lead Generierung oftmals einen pauschalen Lifetime Customer Value, der angenommen wird. Wenn als SEO diese Kennzahlen dem Kunden oder dessen Vorgesetzten vorgetragen werden, kann dies sehr positiv wahrgenommen werden. Beziehen sich die Zahlen über die Segmentierung in Google Analytics auf den Traffic und im Speziellen auf den Traffic aus der organischen Suche, dann kann ganz klar dargestellt werden, wie wertvoll die Suchmaschinenoptimierung tatsächlich ist. 

                            Zudem kann durch die Conversion Tracking dem Kunden weitere interessante Informationen geliefert werden, wie z.B das sich andere Agenturen oder das Unternehmen selbst um Social-Media Kampagnen kümmern, hier kann durch Segmentierung auch ungefragt dem Kunden aufgezeigt werden, wenn etwas ganz besonders gut funktioniert oder auch nicht gut verläuft. Diese Informationen sind ein zusätzlicher Bonus um die eigene Kompetenz und den eigenen Wert für das Marketing unter Beweis stellen zu können. 

                             

                            I) Segmentierung der Daten

                            Bislang wurde zu genügend darüber gesprochen, wie wichtig die mobile Webseite für Nutzer als auch für die Suchmaschine ist. Da ca.76% der Nutzer mobil agieren, sieht sich Google immer die mobile Version einer Webseite zum Indexieren an! Demnach macht es natürlich auch sehr viel Sinn beim Prüfen der Ergebnisse diese Segmentierung, also nach der Gerätekategorie anzuwenden, so zu vergleichen und das ganze zu überprüfen. 

                            Die Unterscheidung und Aufteilung des Traffics sowie der erzielten Ergebnisse, z.B Conversions, ist meist ein Arbeitsschritt beim Erstellen von Reports und der Vorstellung der Ergebnisse. Wenn ein Kunde vorher keine oder eine extrem schlecht bedienbare mobile Webseite hat, dann lässt sich hier z.B. zwischen zwei und drei Quartalen sicherlich wunderbar aufzeigen, wie die Leistungen sich entwickelt haben. Im besten Fall wurden kurzfristige Unternehmensziele erreicht oder stehen unmittelbar bevor. 

                            Andererseits wurden in der Zeit genügend Daten gesammelt, um Fehler, Lücken und Möglichkeiten zu diagnostizieren. Daraufhin werden Korrekturen oder jegliche Verbesserungen vorgenommen, um letztlich das Schiff trotzdem in Richtung „Goldener SEO Fluss" zu steuern. 

                            Über die Analyse Tools Google Analytics und die Google Search Console lassen sich die Gerätekategorie wunderbar segmentieren und bei den Ergebnissen differenzieren.

                            Die Segmentierung nach Gerätekategorie bietet an sich keine neuen oder anderen Daten. Es werden lediglich die bereits erfassten Daten nur genauer eingeordnet, um starke sowie schwache Kanäle leichter zu identifizieren. Das ist neben den bereitstellenden Informationen für den Kunden auch für den beauftragten SEO Spezialisten selbst sehr wichtig, denn so kann schnell erkannt werden, wenn es im Gesamtbild eindeutige Schwächen gibt, bei denen angesetzt und somit die ganze Leistung im Bezug auf das gesamte SEO verbessert werden kann. 

                            In diesem Abschnitt unseres Beitrags wurde die Segmentierung nach Gerätekategorie beispielhaft ausgesucht, da sie in der Praxis durch den Trend zur mobilen Welt selbstverständlich immer noch eine wichtige Bedeutung hat. Natürlich kann man auch in anderen Bereichen segmentieren und verschiedene Datensätze erstellen.

                             

                            J) PageSpeed und Leistung der Webseite

                            Pagespeed (Seiten Ladegeschwindigkeit) ist bereits seit längerem ein wichtiger Rankingfaktor für Google, auch wenn die genaue Gewichtung und Priorität diesbezüglich für die Optimierung natürlich unbekannt ist. 

                            Wenn man vom Nutzer ausgeht, kann man eigentlich sofort bemerken, dass durch schnellere Ladezeiten und flüssige Webseiten Performance eine deutlich bessere Nutzererfahrung gewährleistet werden kann. Es gibt letztendlich nichts Frustrierendes, als ewig darauf zu warten, dass eine Webseite lädt und dann noch ein Fehler angezeigt wird, weil der Server überlastet ist etc. 

                            Andersrum kann die Optimierung sogar nur durch die Zufriedenheit der Nutzer und das entsprechende Verhalten mit der Suchanfrage deutlich verbessert werden. Natürlich ist die Leistung und Geschwindigkeit einer Webseite etwas, das hauptsächlich vom Code und dem Aufbau der Webseite beeinflusst wird. Es gibt verschiedene Ansätze, die Page Speed Metrics zu überprüfen und zu analysieren. Die einfachsten sind hauptsächlich: 

                          1. Google Pagespeed Insights, Speed Tools, GTmetrix
                          2.  

                          3. Web.dev, Chrome Developer Tools
                          4.  

                            Wenn die gewünschte Webseite an sich immer schnell lädt und keine Beschwerden deshalb eingereicht werden, dann bedeutet es nicht zwangsläufig, dass mit der Webseite etwas nicht stimmt, nur weil der Quality Score / PageSpeed Score schlechte Zahlen aufweist! Was jedoch bedenklich ist, ist, wenn bei Google Analytics oder anderen Analyse Tools, die genutzt werden, festgestellt wird, dass Nutzer die Webseite ständig wieder verlassen. Das gehört zu den Dingen, die dafür sprechen, dass etwas nicht stimmt und nicht richtig funktioniert. 

                            Allerdings bieten die PageSpeed Tools einen Anhaltspunkt, um gewisse Probleme in der Webseite einzeln identifizieren zu können. Es können hier über kostenlose Tools, Analysen erstellt werden, um über die Leistung der gezielten Webseite und dessen Geschwindigkeit Auskunft zu erhalten. Vor allem erweisen sich diese Tools besonders hilfreich, wenn durch ihre Hilfe, u.a. langsame mobile Verbindungen und weitere Probleme idealerweise frühzeitig erkannt und diagnostiziert werden. 

                            Diese Metrics sind natürlich nur dann im Report angebracht und für einen Kunden interessant, wenn es tatsächlich Handlungsbedarf gibt.

                             

                            K) Nutzer & Seiten

                            Die Kennzahlen:
                          5. Uniques - individuelle Nutzer
                          6. Zeit, die Nutzer auf einer Webseite und pro Seite verbringen
                          7. Sessions und Seitenaufrufe pro Nutzer
                          8. Bounce und Exit Rate
                          9. Natürlich stehen hier einige der Kennzahlen im direkten Zusammenhang und werden oft einfach mathematisch berechnet. z.B. wenn man die Zahl der individuellen Nutzer mit den durchschnittlichen Seiten pro Nutzer multipliziert, kann man quasi dadurch alles errechnen. Man kann auch all diese Kennzahlen direkt bei Google Analytics einsehen. 

                            Die sogenannten Uniques, also individuelle Nutzer, verschaffen vor allem in Kombination mit den Pageviews einen deutlich tieferen und aufschlussreichen Einblick in das Nutzerverhalten. Z.B Webseite-X und Webseite-Y hatten beide im vergangenen Monat jeweils 100.000 Seitenaufrufe. Webseite-X hatte davon 85.000 Uniques also individuelle Nutzer, Webseite-Y hatte jedoch 15.000, dass bedeutet im Schnitt hatte Webseite-X 1,18 Seiten pro Nutzer während Webseite-Y 6,67 Seiten pro Nutzer. Dank diesen Metrics gibt es eine klare Unterscheidung im Verhalten der Nutzer auf den Webseiten, welche z.B nur durch die Anzahl der Seitenaufrufe überhaupt nicht festgestellt werden könnte.

                            Auch die Kombination mit Uniques ist nicht zu 100% aussagekräftig, um eine verlässliche Analyse des Nutzerverhaltens zu formulieren. Denn selbst mit all den Informationen über die Seitenaufrufe, wie viele eindeutige Nutzer und wie viele Seiten pro Nutzer daraus resultieren, gibt es keinerlei Anhaltspunkte darüber, was genau die Nutzer auf der Webseite tun. Es kann hier lediglich ein weiteres Metrics hinzugezogen werden, mit dem das ganze etwas eingekreist werden kann. Das ist die Zeit, die Nutzer auf der Website verbringen. 

                            Ganz allgemein unterscheiden sich hierbei zwei weitere wichtige Kennzahlen innerhalb dessen. Zum einen ist es die Zeit auf der gesamten Webseite (Sessiondauer), zum anderen ist es die Zeit auf einer bestimmten Unterseite der Webseite. Gerade bei diesem ersten Metric, welches als durchschnittliche Zeit pro Session / Sitzungen festgehalten wird, können sehr leicht irritierende Resultate folgen, auf welche wir im nächsten Abschnitt genauer eingehen werden. 

                             

                            L) Sessions / Sitzungen

                              Sessions werden von Google Analytics als Daten zur Verfügung gestellt. Mit der richtigen Anwendung können dadurch viele nützliche Erkenntnisse gewonnen werden. Was sind Sessions oder Sitzungen? Ein Nutzer kann bei dem Besuch einer Webseite, nach und nach mehrere Seiten aufrufen, diese gesamten Seitenaufrufe werden als Session oder Sitzung betitelt. Ein Nutzer kann über verschiedene Zeiträume mehrere Sessions verursachen. Die Zuordnung des Nutzers und seinen Sessions erfolgt in der Regel über Cookies. 

                              Eine Session beginnt mit dem Besuch einer Webseite und endet mit dem Verlassen dieser Seite. Erneute Besuche zu einem späteren Zeitpunkt aktivieren eine neue Session und im Regelfall würde das auch so bei Google Analytics als eine weitere Session desselben Nutzers registriert werden. 

                              Es gibt allerdings Faktoren, die die Session für Google unterbrechen können, sodass in den analytischen Daten eventuell Unterteilungen gefunden werden, die so erstmal intuitiv nicht erwartet werden. Diese Unterbrechungen können durch folgende Punkte entstehen:

                              • Tageswechsel

                              Eine Session bei Google Analytics hat immer ein Datum und da es keine zwei Daten haben kann, wird im Regelfall die in der Analytics eingestellte Zeitzone Mitternacht 00:00 Uhr verwendet, um die Session abzuschließen und eine neue Session zu erstellen. 

                              Das eigentliche Problem liegt im Referral Code der neuen Session z.B

                              Wenn ein neuer Nutzer über die Google Suche auf die entsprechende Webseite kommt, dann auf eine Unterseite klickt, danach der Tageswechsel passiert und gleich im Anschluss der Nutzer einen Blogbeitrag etc. besucht, dann werden in Google Analytics trotzdem zwei Sessions erfasst obwohl der Klick von der Unterseite zum Blog eventuell nur wenige Sekunden gebraucht hat. 

                              Für die erste Session mit dem Homepage und Unterseiten Aufruf wird von Google Analytics auf die Google Organic Search verwiesen, für die zweite Session von der Unterseite auf den Blogbeitrag wird der Verweis auf das Self-Referral zugeordnet, was eigentlich nicht korrekt ist. Der Referral müsste auch hier Organic Search sein, aber so funktionieren halt die Sessions in Analytics.

                               

                              M) Lange Pausen

                                Wenn ein Nutzer eine Webseite besucht und beispielhaft seinen Einkaufswagen füllt, nun jedoch zum Essen oder mit dem Hund raus geht und zu einem späteren Zeitpunkt seinen Einkauf fortsetzt, wird das als lange Pause eingestuft.

                                Google hat hier entschieden, dass standardmäßig nach 30 Minuten Inaktivität die Session beendet wird, auch wenn die Seite geöffnet bleibt. Sobald weiter geklickt wird, entsteht eine neue Session. Auch hier wird in Google Analytics auf den Self-Referral verwiesen, auch wenn der Nutzer von anderen Quellen beispielhaft Google Ads gekommen ist. Das Limit von 30 Minuten, welches als Standard immer so angelegt ist, kann für jeden Account selbst eingestellt, bzw. verkürzt oder verlängert werden.

                                 

                                N) Seitenwechsel

                                Jedes Mal, wenn von einer neuen Seite auf die gewünschte Webseite verwiesen wird, wird eine neue Session erstellt. Angenommen, ein Nutzer klickt auf eine PPC Anzeige und landet auf der angezielten Webseite, kurz darauf googlet der Nutzer sein Anliegen erneut und klickt diesmal auf ein Organisches Ergebnis der angezielten Webseite. Nun wird eine neue Session erstellt mit dem Verweis auf Organic Search statt PPC. So verläuft alles richtig. Problematisch wird es beim Kauf - Buchungsprozess oder Bezahlvorgang bei der Verwendung anderer Webseiten. Das beste Beispiel hier ist die Bezahlung mit PayPal, das Verfahren, mit dem man auf die Paypal Webseite weitergeleitet wird, um sich dort anzumelden, zu bezahlen und wieder zurück zum Shop weitergeleitet wird, sollte jedem, der gerne mit Paypal bezahlt, klar sein. 

                                Hier ist nun ein klarer Verweis von Paypal. Google erkennt das und bestätigt die neue Session. Dies mag zwar technisch korrekt sein, ist jedoch keine gute Anlaufstelle. Hier erkennt Google eine andere Webseite und es gibt eine andere Session. Die Möglichkeiten hier:

                                Es können bekannte Fälle wie die eben beschrieben vermieden werden, indem bestimmte Webseiten einfach als Verweise in Google Analytics ausgeschlossen werden.

                                Um Seiten vom Verweis ausschließen zu können, gehen Sie in Ihrem Google Analytics Account unter Verwaltung - Property - Tracking Informationen und dann auf Verweis Ausschlussliste und Suchbegriff Ausschlussliste.

                                 

                                O) Google Data Studio

                                https://datastudio.google.com/

                                Das Data Studio von Google ist eigentlich dazu geeignet, das man gewisse Daten aus anderen Google Dienstleistern, aber auch aus dritt Softwares z.B Google Analytics, Google ADS usw. einfach übersichtlicher und schöner darstellen kann, zum einen für die eigenen Berichte oder um letztendlich Kunden einen Zugang zu einem benutzerdefinierten und übersichtlichen Dashboard zu verschaffen der über einen Individuellen Link ganz einfach erreicht werden kann. Hier können die Daten immer live eingesehen und gleichzeitig ein einfacheres und übersichtliches Dashboard zur Verfügung gestellt werden. 



                                Kapitel 14 - SERP Features

                                A) Local Pack

                                  Die sogenannten Local Packs tauchen auf, wenn es für diese die entsprechenden Suchergebnisse gibt und diese ausschließlich lokale Geschäfte betreffen. Wenn jemand zum Beispiel nach dem nächsten italienischen Restaurant sucht, dann wird in der Regel eine Liste mit allen italienischen Restaurants, die in unmittelbarer Nähe der Suchenden Nutzer stehen, innerhalb von Sekunden Bruchteile erstellt und diesen angezeigt. 

                                  Hiermit wird schnell deutlich, dass Local Packs bestimmte Features sind, die nur dann interessant und relevant sind, wenn ein lokales Geschäft vorhanden ist, welches für die Position auf Google in Frage kommen soll. 

                                  Wenn das Geschäft keine besuchbare Adresse hat, dann ist dieses Feature wahrscheinlich nicht relevant. Local Packs werden dann angezeigt, wenn man nach einem lokalen Geschäft sucht oder Google diese Suche so interpretiert. Wenn man z.B mal Pizzeria Köln eingibt, dann dürfte direkt oben das Local Pack mit der Google Maps Ansicht, mit den entsprechenden Pins sowie einer Liste mit verschiedenen passenden Ergebnissen angezeigt und vorgeschlagen werden. 

                                  Wie wird hier nun entschieden, welche Ergebnisse bei dem Local Pack angezeigt werden? Grundlegend gibt es hier drei Faktoren die diese Entscheidung beeinflussen:

                                1. Relevanz - Das Geschäft muss zur Suche passen, ein Reisebüro sollte nicht auftauchen, wenn jemand nach einem Restaurant sucht. Diese Relevanz kann über ein gut gepflegtes Google My Business Profil erzeugt werden. Wichtig bei Google My Business ist vor allem darauf zu achten, dass alle Informationen vorhanden, aktuell und so genau wie möglich beschrieben sind. Dazu gehören Öffnungszeiten, Kontaktmöglichkeiten sowie selbstverständlich das Angebot. Auch weitere Informationen wie Bilder, Bewertungen aus verschiedenen Quellen etc. helfen dabei, das Angebot so attraktiv wie möglich für die Nutzer und somit auch für Google zu gestalten.
                                2. Entfernung - Die Entfernung kann hier nicht viel beeinflusst werden, da der Standort des Nutzers und die des lokalen Geschäftes bereits festgelegt sind.
                                3. Beliebtheit - Auch wenn hier große Unternehmen es sicherlich ein wenig leichter haben, im Lokal Pack zu relevanten Suchen aufzutauchen, kommt es hierbei nicht nur auf die Größe des Unternehmens an. Für Google ist hier deutlich wichtiger, wie sich das Unternehmen online repräsentiert. Hier ist also eine autoritäre Webseite zusätzlich zum gepflegten Google My Business Profil sehr von Vorteil und kann somit das richtige Signal an Google sein, dieses Geschäft mit in das Lokal Pack aufzunehmen.
                                4. Zusammengefasst spielen also Local Packs nur für lokale Geschäfte eine Rolle, die Relevanz verschafft eine gute Webseite und ein gepflegtes Google My Business Profil aufweist

                                   

                                  B) Local-Knowledge-Panel

                                  Das Local-Knowledge-Panel ist so gesehen eine Art Erweiterung zum Local Pack, bietet aber viel mehr und detailliertere Informationen zu einem speziellen Unternehmen. 

                                   Auch hier ist natürlich nur für lokale Geschäfte die Möglichkeit gegeben, dieses Feature zu nutzen. Ein Local-Knowledge-Panel wird an sich nur dann angezeigt, wenn man direkt nach einem spezifischen und bestimmten Unternehmen sucht. Im Gegensatz zum Local Pack, wo eine Auswahl von Unternehmen angezeigt wird, wird hier quasi nur das eine, direkt gesuchtes Unternehmen bei der entsprechenden Suche angezeigt. 

                                  Das wird hier also nicht einfach zwischen verschiedenen Unternehmen bei der entsprechenden Suche ausgewählt, sondern es ist hier tatsächlich eine direkte Suche mit dem Unternehmensnamen erforderlich. Nach solch einem „Branded Search“ sollte auf der rechten Seite der Google Suche das Local-Knowledge-Panel mit Name, Rezension, Wegbeschreibung, Öffnungszeiten, Bildern und vielen weiteren Zusammengefassten Informationen über das gesuchte Unternehmen zu sehen sein.

                                  Der größte Vorteil des Local-Knowledge-Panel ist, dass die Menge an Informationen, direkt und ohne einen Klick zu tätigen, wie eine Art Werbebanner dem Nutzer angezeigt wird. Im Allgemeinen spielen auch hier dieselben drei Faktoren eine Rolle wie bei dem Local Pack und zwar die:

                                5. Relevanz
                                6. Entfernung
                                7. Beliebtheit
                                8. Der Unterschied jedoch und das entscheidende ist, dass das Local-Knowledge-Panel in aller Regel nur durch direkte Marken- und Unternehmensbezogene Suchen ausgelöst wird. Es wird also nicht zufällig eines der Ergebnisse aus dem Local Pack noch einmal prominent betont und zusätzlich aufgeputscht, sondern dieses Local-Knowledge-Panel taucht auf, wenn eine Person explizit nach diesem Unternehmen sucht. 

                                  Das bedeutet quasi, dass es hierfür keine Konkurrenz gibt. Es sollte auch, wenn hier kein Konkurrenzkampf besteht, ausführlich darauf geachtet werden, dass das Local-Knowledge-Panel mit allen korrekten, vollständigen Informationen angezeigt wird. Denn es ist einfach eine wunderbare Möglichkeit für lokale Unternehmen, sich in der Google Suche zu präsentieren. Auch hierfür wird ein vollständiges und gepflegtes Google My Business Profil, welches die selben Webauftritte und Infos bereithält wie auf der Webseite und in den Social-Media Profilen etc. verwendet wird.

                                  Wenn bei einer Markensuche kein Local-Knowledge-Panel ausgelöst wird, liegt es höchstwahrscheinlich daran, dass entweder nicht genügend Informationen verfügbar sind oder die Informationen auf verschiedenen digitalen Präsenzen zu stark differenziert sind und voneinander abweichen.

                                  Zusammengefasst werden Local-Knowledge-Panels nur durch explizite Marken-Suchen ausgelöst und sind in der Regel nicht schwer zu bekommen. Alle Informationen sollten aktuell und korrekt gehalten werden. Alle Informationen sollten mit jeglichen, anderweitigen Werbe-Präsenzen des Unternehmens identisch sein.

                                   

                                  C) Featured Snippets

                                  Die Featured Snippets sind eines der wichtigsten SERP Features, da sie es ermöglichen, praktisch auf Position „NULL“ und somit über der ersten Position auf der Google Ergebnisseite zu ranken. Ein Featured Snippet ist dazu gedacht, die relevantesten Antworten und Auskünfte zu einer Suchanfrage direkt innerhalb der Suchmaschine zu liefern. 

                                  Der Vorteil hier ist ganz klar, durch diese Position „null“ wird sehr wahrscheinlich ein Großteil des Traffics regelrecht abgegriffen. Die Featured Snippets können ganz unterschiedlich aussehen, zum einen können es kurze Berichte und Texte sein, eine Stichwortliste, eine nummerierte Liste oder eine Tabelle enthalten, je nachdem, wie die Informationen am besten dargestellt werden können. 

                                  Um das Featured Snippet zu bekommen gibt es einige Voraussetzungen und Richtlinien:

                                9. Bereits bestehendes gutes Ranking (Seite eins bei Google).
                                10. Die Frage der Nutzer mit Bezug auf das wichtigste Keyword beantworten.
                                11. Die Antworten müssen in kurzen, präzisen Absätzen oder Listen formuliert sein
                                12. Die Frage sollte als H2 Überschrift verwendet werden.
                                13. Der Inhalt sollte immer klar und natürlich formuliert sein.
                                14.  

                                  Hilfreich können auch FAQ-Abschnitte sein, da die Featured Snippets öfter Antworten direkt aus FAQs übernehmen. 

                                  Wichtig ist auch die Art eines Featured Snippets, wenn es vermutlich eine Tabelle sein wird, dann muss natürlich auch der Inhalt diese Form haben oder zumindest die Ableitung in eine Tabelle ermöglichen. Dasselbe gilt auch für nummerierte oder nicht nummerierte Listen oder Absätze.

                                  Zusammengefasst sind Featured Snippets: Ergebnisse mit der PositionNULLauf der Google Suche.

                                  Für die Featured Snippet Qualifikation ist ein bestehendes, gutes Ranking. mindestens auf Seite eins, erforderlich. Außerdem muss der Inhalt, der in das Featured Snippet soll, entsprechend formatiert sein.

                                   

                                  D) Knowledge Graph (Info Box)

                                  Ein sogenannter Knowledge Graph taucht in der Suche auf, wenn Informationen zu einer bestimmten Person, Ort oder einem Unternehmen, etc. gesucht werden. 

                                  Dieses Feature enthält oft eine Sammlung von Informationen aus verschiedenen Quellen, die zu dieser Suche gefunden worden sind, und gibt direkt einen Überblick über die wichtigsten Infos. Typische Merkmale sind hier zum Beispiel Geburtsdaten von Personen oder die Größe von Unternehmen. Ein Knowledge Graph bekommt man für Personen oder auch historische Personen, zu denen im Internet einfach relativ viele Informationen enthalten sind, die Google crawlen und einordnen kann. 

                                  Dieser Knowledge Graph wird auf der rechten Seite in der Google Suche angezeigt. Es gibt hier jedoch keine direkten Webseiten, aus denen die angezeigten Informationen geholt werden. Bedeutet, dass man mit seiner Webseite dort nicht angezeigt wird. Google sammelt und sucht sich diese Informationen zusammen und stellt sie im Knowledge Graph ein. 

                                  Die wichtigste Frage hier lautet also, ob man hier überhaupt dafür optimieren kann. Die Antwort ist unterschiedlich.

                                  Denn für einen normalen Knowledge Graph zum Beispiel zu einer Person ist es relativ schwer zielgerichtet dafür eine Optimierung vorzunehmen. 

                                  Viele der Daten, die Google hier heranzieht, kommen von Partnern mit entsprechenden Datenbestimmungen. Zusätzlich gibt es viele Infos, die direkt von Wikipedia stammen. Allgemein kann man sagen, dass vor allem lokale Geschäfte über die bereits angesprochene Variante Local Knowledge Panel hier deutlich mehr erreichen können.

                                  Zusammengefasst ist ein Knowledge Graph dafür da, Informationen zu einer bestimmten Entität zusammenzufassen. Google bedient sich hier dabei aus verschiedenen Datenquellen. Direkt dafür zu optimieren ist schwierig und in der Regel nicht wirklich lohnend. Ausnahmen sind lokale Varianten in Form des beschriebenen Local Pack für standortgebundene Unternehmen und Geschäfte

                                   

                                  E) Top Stories

                                  Die Top Stories betreffen hauptsächlich aktuelle Nachrichten.

                                  Da es sich bei den Top Stories um Schlagzeilen handelt, werden diese hauptsächlich über den ersten Ergebnissen in der Google Suche angezeigt und stehen somit auf der Position „NULL“. 

                                  Diese Top Storys werden als Kettenkarussells, welches mit Titel, Hersteller und Veröffentlichungszeitpunkt angezeigt wird, ausgeschildert. Unter diesen Top Stories werden in der Regel Beiträge von Nachrichten Organisationen angezeigt. Wie optimiert man die Inhalte also dafür?  

                                  Allgemein, überhaupt nicht, es sei denn, Sie oder Ihre Kunden sind Nachrichten Organisationen. Jedoch selbst dann ist es ein schwierigeres Unterfangen, für das zwar einiges getan werden kann, aber der Erfolg muss sich dadurch nicht zwangsläufig einstellen. Der Inhalt sollte stetig aktualisiert werden, wobei hier wirklich wichtig ist, die Inhalte zu brandaktuellen Themen so schnell wie möglich auf die Webseite zu bringen.

                                  Auch Inhalte, die von konkurrierenden Seiten vielleicht nicht so ausführlich und umfangreich abgedeckt werden, können hier wunderbare Vorteile verschaffen.

                                  In der Regel ist es aber so, dass die großen Nachrichten Organisationen hier von Google bevorzugt angezeigt werden und eher kleinere Zeitungen wahrscheinlich nicht in den Top Stories auftauchen werden.

                                  Zusammengefasst fassen Top Stories aktuelle Beiträge von großen Nachrichten Organisationen zusammen, sie sind nicht interessant für alle anderen Branchen, auch nicht zwingend für kleine Nachrichten Outlets, hier können andere SERP Features deutlich interessanter sein.

                                   

                                  F) Site-Links

                                    Die Site-Links sind ein wichtiges SERP Feature, welches es ermöglicht, bis zu zehn weitere Links zusätzlich zu der Haupt-URL in der Suche anzuzeigen, wenn dann das Unternehmen gesucht wird. Zehn Links decken insgesamt ca. 5 organische Positionen ab, damit steht das Ergebnis mit Site-Links in einer guten Position. 

                                    Es ermöglicht eine hohe Sichtbarkeit der Seite und bietet den Suchenden Nutzern eine einfache Möglichkeit, direkt aus der Google Suche heraus zu relevanten und Interessierten Bereichen auf der Webseite zu springen. 

                                    Hier werden also unter der Hauptseite / Haupt URL gleich mehrere Unterseiten angezeigt, auf die der Suchende Nutzer direkt drauf klicken kann, ohne sie auf der Hauptseite erst suchen zu müssen. 

                                    Site-Links werden in der Google Suche jedoch eigentlich nur dann angezeigt, wenn eine Markenbezogene Suche durchgeführt wird.

                                    Wie werden die Site-Links erstellt? 

                                    Google erkennt die Site-Links am Schema Markup auf der Webseite. Allerdings gibt es hier keine Garantien, nur weil das Markup hinzugefügt wurde oder die Site-Links angezeigt werden. Folgende mögliche Punkte und Faktoren können das Anzeigen der Site-Links verhindern:

                                  1. Allgemein wenig Traffic auf der Webseite.
                                  2. Kein oder fehlerhaftes Markup.
                                  3. Was also getan werden sollte, um das Anzeigen der Site-Links zu ermöglichen, ist es dafür zu sorgen, dass die Webseite genügend Traffic bekommt sowie zu prüfen, dass technisch  und beim Markup der Webseite alles fehlerfrei funktioniert und so die theoretische Möglichkeit für Site-Links besteht. 

                                    Zusammengefasst ermöglicht es Site-Links bei einer Marken- und Brand bezogenen Suche Prominenter aufzutauchen und den Suchenden Nutzern eine Gelegenheit zu bieten, direkt eine Auswahl des Angebots der angezielten Webseite zu haben. Um dieses Feature zu ermöglichen, muss ein fehlerfreies Schema Markup und Informationsarchitektur auf der Webseite vorhanden sein.

                                     

                                    G) Image Pack

                                    Ein Image Pack oder Bildergebnisse werden in einem Karussell über den Suchergebnissen angezeigt und enthalten Bilder, die zum Thema passen. 

                                    Bilder können immer mal zu passenden Suchanfragen in der Google Suche auftauchen. Man kann das Ganze aber quasi ein wenig erzwingen, indem man einfach irgendeinen Suchbegriff mit dem Zusatz Bild / Bilder in der Google Suche eingibt. In diesem Fall werden diese auf der Position „NULL“ und somit über den organischen Ergebnissen in einer Reihe von Vorschaubildern angezeigt. 

                                    Bei einem Klick auf eines dieser Bilder kommt man zwar auch auf die Seite der Bildersuche, aber das Bild wird direkt ausgewählt, so das auf der Rechten Seite eine verlinkung zur Webseite besteht und somit kann natürlich eine bestimmte Anzahl an Traffic zu der angezielten Webseite passiv generiert werden. 

                                    Die beste Möglichkeit, in einem Image Pack aufzutauchen, ist, sich an die Best Practices für die Optimierung von Bildern für SEO zu halten. Hier sollte dringend darauf geachtet werden, vor allem die Dateinamen der Bilder richtig zu wählen, sodass der Crawler erkennt, worum es sich bei dem Bild wirklich handelt. Außerdem sollte der Alt-Text des Bilds immer korrekt gesetzt werden, um die Beschreibung und den Titel des Bilds zu nutzen, um noch mehr Kontext erzeugen zu können. 

                                    Technisch gesehen sollte das Bild selbstverständlich optimiert, komprimiert und richtig skaliert sein. Weiterhin hilft es, eine Bilderserie zu erstellen, die alle Bilder der angezielten Webseite enthält. 

                                    Zusammengefasst ermöglicht das Image Pack, ein Bild der angezielten Webseite zu ranken. Dafür sollte darauf geachtet werden, die Bilder sowohl von den Metadaten wie Dateinamen, Titel und Alt-Text als auch von der technischen Seite aus zu optimieren. Zusätzlich hilfreich könnte auch eine Image-Sitemap sein

                                     

                                    H) Nutzer Fragen auch

                                      Dieses SERP Feature stellt häufig gestellte Fragen zum Thema der Suchanfragen mit Antworten dar. 

                                      Normalerweise wird eine Liste mit aufklappbaren Antworten verwendet, die häufig unter den Featured Snippets zu finden sind. Da diese „Nutzer Fragen auch“ Features natürlich auf Fragen bezogen sind, wird es auch oft durch, als Fragen formulierte Suchanfrage ausgelöst. Meist nach dem ersten organischen Ergebnis in der Google Suche sollte das „Nutzer Fragen auch" Feature mit den Dropdowns sowie ähnlichen/verwandten Fragen, wie der eigentlichen Frage, zu sehen sein.

                                      Sobald die Dropdowns aufgeklappt werden, kann man ganz klar sehen, wie ähnlich das Ganze zu einem Feature Snippet eigentlich ist. Nach dem Aufklappen der Frage wird auch schon gleich eine Antwort bereitgestellt, darunter dann der blaue Link und natürlich auch die URL. 

                                      Durch die aufklappbaren Antworten drückt dieses Feature die anderen organischen Ergebnisse in der Google Suche immer weiter nach unten. Diese Featured umfasst ein Recht außergewöhnliches Stück der Seite eins, in der Google Suche. Da auch immer weiter ähnliche Fragen nachladen, wenn geklickt wird, bietet sich dadurch eine wunderbare Alternative um so einiges am verfügbaren Traffic organisch abzugreifen. 

                                      Die Optimierung für dieses Feature lehnt sich sehr stark an die Optimierung für Featured Snippets an. Wichtig ist es, die Keywords strategisch zu verwenden, zum Beispiel in einem klassischen FAQ Format, welches sich dafür auch idealerweise anbietet. Wenn also in einem FAQ ein Thema behandelt wird, dann kann es durchaus sehr von Vorteil sein, selbst direkt an verwandte und sehr ähnliche Fragen zu denken und diese mit aufzulisten. 

                                      Man kann sich ebenfalls auch bestehende Featured Snippets ansehen und sich überlegen, welche Fragen zu diesem Thema unbeantwortet bleiben, daraus kann man dann präzise Antworten finden und so versuchen, einen dieser Plätze zu bekommen. 

                                      Zusammengefasst fasst dieses Feature häufige Fragen zu einem Thema zusammen und liefert eine Antwort. Die Optimierung funktioniert ähnlich wie bei einem Featured Snippet, indem Google das gewünschte Format direkt geliefert wird. Auch bei diesem Feature ist natürlich eine bereits bestehende gute Position im Ranking erforderlich und eine Voraussetzung.

                                       

                                      I) Answer Box (Antwort Box)

                                        In diesem SERP Feature wird direkt eine präzise Antwort auf eine eindeutige Frage des Nutzers angezeigt. Eine Antwortbox kann man sozusagen in Google leicht provozieren, indem man einfach eine Frage mit nur einer möglichen Antwort stellt.

                                        Ganz typisch sind zum Beispiel Rechnungen, Fragen zur aktuellen Zeit in bestimmten Städten oder Temperaturen. Hier wird zwar für die Nutzer eine wunderbar zeitsparende und direkte Antwort bereitgestellt, jedoch kann hier nichts geklickt werden, da an sich keine Webseiten verlinkt werden können. Daher kann man auch nicht für Answer Boxen optimieren, das ist so nicht möglich. 

                                        Das Zero Result SERP ist eine Suchergebnisseite, die nichts ausser der Answer Box enthält, hier ist es so dass dieses Phänomen eigentlich nur bei Anfragen passiert, für die sowieso wenige Webseiten ranken wollen, da die Suchenden Nutzer nicht erwarten, auf eine andere Webseite zu müssen, um eine Information zu erhalten. Daher wird dieses Feature von vielen SEOs als kritisch betrachtet. 

                                        Zusammengefasst beantworten Answer Boxen eindeutige Fragen mit einer eindeutigen Antwort. Google sucht hier die Daten aus öffentlich verfügbaren Informationen und zeigt diese ohne Link zu einer Webseite an, daher kann dafür nicht optimiert werden. 

                                         

                                         

                                        Kapitel 15 - Google Penalties (Strafen)

                                        Es gibt unter dem Begriff Google Penalties viele Informationen im Internet, die entweder nicht korrekt sind oder veraltet sind. Es gibt als allerwichtigstes in der Regel zwei Arten von negativen Aktionen, die eine Webseite in der Google Suche schlechter positionieren lassen oder sogar ausschließen kann. Eine davon ist jedoch streng betrachtet kein Penalty, sondern lediglich ein Algorithmus der Suchmaschine. 

                                        Google arbeitet stetig an den Richtlinien in den Webmaster Guidelines. Vor allem arbeitet Google daran, die Algorithmen zu aktualisieren, um jegliche Ereignisse eigenständig zu ermitteln und evtl. bestimmte Eigenschaften selbst vorzunehmen, so dass die Algorithmen selbständig Seiten erkennen, die zum Beispiel über Keyword Stuffing versuchen, Ihre Webseite gut zu ranken. Wenn der Algorithmus das erkennt, dann wird die betroffene Webseite entsprechend bestraft und somit das Ranking im schlechtesten Fall erheblich verschlechtert. 

                                        Die andere Art ist eine sogenannte Manual Action

                                        Das bedeutet, dass ein Mitarbeiter oder Mitarbeiterin von Google zum Beispiel aufgrund einer Meldung eine Strafe für eine bestimmte Webseite verhängt. 

                                        In beiden Fällen ist das für eine Webseite natürlich sehr negativ, denn so wird das angestrebte Ziel, in der organischen Suche gefunden zu werden, komplett verfehlt. 

                                        Bei einem algorithmischen Penalty, welches „automatisch“ passiert, bleibt für eine Webseite nichts weiter übrig, als die Probleme auf der Webseite schleunigst zu beheben und abzuwarten. 

                                        Wenn das Problem das Keyword Stuffing ist, dann müssen die entsprechenden Seiten ausgebessert werden. Danach wird abgewartet, bis der Crawler die aktualisierte Seite findet und die vorgenommenen Änderungen für ausreichend empfindet. In diesem Fall wird sich auch das Ranking wieder verbessern. Bei einer Strafe durch den Algorithmus kann eine manuelle Überprüfung im Vergleich zur Manual Action nicht beantragt werden, sondern hier muss einfach geschaut werden, dass die Fehlerhafte Webseite schleunigst repariert und die Aktualisierung vom Algorithmus erkannt wird. 

                                        Bei einer manuellen Strafe (Manual Action) bekommt man eine ganz klare Auskunft darüber, was die genaue Ursache und das Problem ist. Man kann hier nämlich in der Search Console sehen, wann eine solche Strafe veranlasst wurde und auch aus welchem Grund. Somit kann man einfacher gezielte Maßnahmen ergreifen, um die Webseite so zu verändern, dass man sich auch wieder schnell innerhalb der Richtlinien bewegt.

                                        Die Manual Action ist von Google so ausgelegt, dass sie nach einer bestimmten Frist automatisch verfällt. Je nach Vergehen und dessen Schwere kann das einen Monat, aber auch deutlich länger dauern. Sollte das Problem jedoch bereits im Vorfeld selbst manuell von der Webseite behoben werden, kann eine neue Überprüfung der Webseite beantragt werden. Ob jedoch Google das dann auch tatsächlich zeitnah durchführt und die Strafe aufhebt, steht natürlich auf einem anderen Blatt und ist so nicht vorhersehbar. Man kann hier lediglich davon ausgehen, dass zumindest die Möglichkeit diesbezüglich besteht.

                                        Der Algorithmus ist quasi eine Art automatische Polizei, die nach den Webmaster Guidelines als Gesetzbuch handelt. Wenn eine Webseite hier alle Richtlinien befolgt, dann gibt es auch nichts zu befürchten. Diese Webmaster Guidelines sollten vor allem für SEO und Webmaster als Gebot gelten und auch dementsprechend wahrgenommen werden



                                        Das war unsere Elcommerce Mastermind zu Google SEO!

                                        Wir hoffen, Sie konnten sich einen ersten / erweiterten Einblick in die Welt der Google Suchmaschinenoptimierung verschaffen und haben einen Informativen Fund für Ihre SEO gefunden oder sind Ihrem Schritt allgemein durch unseren Blogbeitrag näher gekommen.

                                        Denn dann haben wir unser Ziel bereits erreicht!

                                        Unsere ELCOMMERCE - Google SEO Masterclass Optimierungen sind unser Hausrezept und bleiben mit exklusiver vollständiger Expertise weiterhin nur Elcommerce Kunden, welche unseren Google SEO Service buchen, exklusiv vorbehalten! Diese können Sie in vollster Qualität, mit allen geläufigen und versteckten Strategien, Tipps, Tricks und Ressourcen, mit unserem Google SEO Service ab sofort per Klick gebucht werden. 

                                        Besuchen Sie unser Google SEO Angebot, buchen Sie unseren Service und legen Sie Ihr Anliegen sorglos in eines der leistungsfähigsten Hände im Fachbereich Google SEO, innerhalb des Deutsch sprachigen Raums.

                                         


                                        Google SEO Elcommerce Prestige Performance Google Suchmaschinenoptimierung, Elcommerce Google SEO Blog Google SEO Elcommerce Prestige Performance Google Suchmaschinenoptimierung, Elcommerce Google SEO Blog

                                        "Wenn offensichtlich ist, dass Ziele nicht erreicht werden können, passen Sie die Ziele nicht an, sondern die Handlungsschritte."

                                        - Konfuzius -

                                        Google SEO Elcommerce Dienstleistung und Service, Elcommerce Prestige Performance Google Suchmaschinenoptimierung
                                        Elcommerce Titelbild Prestige Performance Mediengestaltung & Grafikdesign, Online-Marketing, Web-Design