Blog

Googles Updates mit Inhaltsqualität begegnen

Abstrafungen durch Googles Panda, Phantom, Fred und Co aufheben - oder gar nicht erst entstehen lassen.

Google muss dafür sorgen, dass die Qualität der Suchergebnisse weiterhin gut bleibt – ansonsten laufen die Nutzer zu Bing und Co. über und klicken keine AdWords mehr an. Daher ist das Thema “Qualitätserkennung” nach wie vor aktuell. Viele Onpage- und Offpage-Faktoren lassen sich für eine algorithmische Erkennung der Qualität einer Website heranziehen. Wir beschreiben, wie gut es Google schafft, diese automatisch zu bestimmen, und welche Maßnahmen Webseitenbetreiber vornehmen können.

Wissenswertes zu Googles Updates

In diesem ersten Teil erklären wir Ihnen zunächst die Grundlagen einer Algorithmus-Änderung und wie Sie Auswirkungen auf der eigenen Webseite erkennen können. In folgenden Artikeln werden wir genauer auf einzelne Updates und deren Inhalte eingehen.

Übersicht Google Updates

In der nachfolgenden Tabelle erhalten Sie eine Übersicht zu den wichtigsten Google Updates seit dem Google Caffeine Update. In einigen Fällen wurden die Updates zunächst auf dem US-amerikanischen Suchmarkt eingeführt und erst in den darauf folgenden Monaten auf dem weltweiten Markt übernommen.

Zeitpunkt Update
Juni 2010 Caffeine Update
Februar 2011 Panda Update (gegen inhaltlich schwache Seiten)
August 2011 Expanded Sitelink Update
November 2011 Freshness Update (gegen veraltete Seiten)
Januar 2012 Page Layout Algorithus Update (gegen zu viel Werbung im sichtbaren Bereich)
Februar 2012 Venice Update
April 2012 Penguin Update (gegen künstliche Links)
August 2012 DMCA Penalty (gegen gestohlene Inhalte)
September 2012 Exact-Match-Domain (EMD) Update
Oktober 2012 Page Layout #2
Mai 2013 Penguin Update 2.0
Juni 2013 Payday Loan Update
August 2013 Hummingbird Update (für Longtail-Anfragen)
Oktober 2013 Penguin Update 2.1
Februar 2014 Page Layout Update #3
Mai 2014 Payday Loan 2.0 Update
Mai 2014 Panda Update 4.0
Mai 2014 Payday Loan 3.0 Update
August 2014 HTTPS Ranking-Faktor Update
September 2014 Panda Update 4.1
November 2014 Penguin Update 3.1
April 2015 Mobile-Friendly Ranking-Faktor Update
Mai 2015 Core Algorithmus Update (Phantom Update)
Juli 2016 (Unbenanntes Update)
Oktober 2016 Penguin Update 4.0
März 2017 Fred Update (gegen minderwertigen Content)

Googles Algorithmus-Änderungen (“Updates”) zielen darauf ab, die Qualität der Suchergebnisse für den User zu erhöhen. In der Anfangsphase der Entwicklung von Suchmaschinen war es einfach möglich, der Suchmaschine vorzutäuschen, dass die eigene Seite zur Suchanfrage passt und somit ein gutes Ranking zu erzielen. In einigen Fällen reichte es beispielsweise aus, das Keyword hundertfach in weiß auf weißem Hintergrund auf der Seite zu verstecken.Mit der Weiterentwicklung von Google und der zunehmenden Bedeutung von Suchmaschinen wurde stetig daran gearbeitet, Täuschungsmethoden zu verhindern. Damit sollten Seiten, welche wirklich relevant für den Nutzer sind, im Ranking weiter nach vorne gebracht werden. Inzwischen nutzt Google mehr als 200 Ranking-Faktoren im Algorithmus, um die Relevanz und die Qualität einer URL im Google-Index für die Suchanfrage zu bestimmen. Um die hohe Qualität der Suchergebnisse zu wahren, nimmt Google von Zeit zu Zeit Änderungen im Algorithmus vor, die entweder

  • Gewichtungen der vorhandenen Faktoren ändern, oder
  • Neue Faktoren einführen

Diese sogenannten Google Updates können sich unterschiedlich stark auf die Suchergebnisse auswirken.In der Vergangenheit wurden Google Updates sehr unregelmäßig ausgespielt. Befanden Sie sich mit Ihrer Seite für ein Keyword auf Position 1, so konnten Sie erwarten, Wochen oder auch Monate diese Position beizubehalten.Dies änderte sich im Jahr 2010 mit dem sogenannten „Caffeine“ Update, welches als umfassendes Infrastruktur-Upgrade die Grundlage für alle darauf folgenden Updates der Websuche bildete. Seitdem ändern sich Googles Algorithmen teilweise mehrmals am Tag. Im Verlauf des Jahres 2012 wurden beispielsweise laut Angabe von Matt Cutts, Head of Googles Webspam Team, 665 Änderungen im Ranking-Algorithmus vorgenommen.Dabei gibt Google bei weitem nicht alle Änderungen am Algorithmus öffentlich bekannt. Manche Updates, welche eine große Auswirkung auf eine Vielzahl von Webseiten erwarten lassen, werden angekündigt, wie beispielsweise das “Mobile-Friendly Ranking-Faktor Update”. Andere wichtige Änderungen, wie das Core Algorithmus Update (Phantom Update) im Mai 2015, wurden nicht angekündigt, obwohl viele Webseiten betroffen waren. Außerdem gibt es Hinweise zu sogenannten Data-Refreshes. Hierbei handelt es sich um Aktualisierungen der Datenbasis, die zu bestimmten Algorithmus-Änderungen wie Panda angelegt wurden.

Wie erkenne ich ein Google Update?

Ein Google Update kann je nach genauer Änderung der einzelnen Ranking-Faktoren mehr oder weniger starke Auswirkungen auf die Suchergebnisse und die Sichtbarkeit Ihrer Webseite haben. Einige der Updates ermitteln beispielsweise automatisiert, ob eine Website Spam-Maßnahmen durchgeführt hat. Hierzu zählen die Penguin-Updates gegen künstliche Links und die Panda-Updates zur inhaltlichen Qualität der Domain und einzelner Seiten. Erfüllt Ihre Seite oder Domain die geänderten Kriterien zur Spam-Einstufung, dann werden die Rankings reduziert. Das kann nur einzelne Rankings betreffen, aber auch die gesamte Domain. Neben einer algorithmischen Sanktionierung kann außerdem ein manuelles Eingreifen durch einen Google-Mitarbeiter zu einer solchen Ranking-Abstrafung führen. Hierbei werden einzelne Seiten oder Backlink-Profile händisch bewertet.

Für das Jahr 2011 hatte Google den Prozess der Update-Einführung mit Zahlen grafisch aufbereitet:

Eine Möglichkeit, Auswirkungen von Google Updates für eine beliebige Domain sichtbar zu machen, bietet der Sichtbarkeitsindex der (kostenpflichtigen) SISTRIX Toolbox.

Sistrix Toolbox

Der Sichtbarkeitsindex stellt eine Kennzahl für die Sichtbarkeit einer Domain auf den Suchergebnisseiten von Google dar. Dem Kurvenverlauf des Sichtbarkeitsindex im zeitlichen Fortschritt lassen sich sehr gut Änderungen an der Sichtbarkeit einer Domain ablesen. Dabei werden bekannte Google Updates durch vom System automatisiert gesetzte Ereignis-Pins markiert. Ist nun wie in obiger Darstellung seit dem Zeitpunkt eines Google Updates ein Sichtbarkeitsverlust zu bemerken, besteht zumindest ein zeitlicher Zusammenhang mit einer Abstrafung. Es sollte allerdings niemals nur aufgrund der Tooldaten von einem automatischen Update ausgegangen werden. Häufige andere Ursachen für einen Ranking-Rückgang sind:

  • Technische Fehler der Seite, zum Beispiel, dass Inhalte nicht erreichbar sind
  • Relaunches, insbesondere mit fehlerhafter Weiterleitung oder umfassenden inhaltlichen Änderungen
  • Duplizierung der Domain-Inhalte, beispielsweise dadurch, dass eine inhaltsgleiche .at-Domain zu der .de-Domain online gestellt wird (Duplicate Content)
  • Manuelle Abstrafungen, die zeitgleich zu einem großen Update geschehen sind
  • Parallel stattgefundene kleinere Updates (zur Erinnerung: Google veröffentlicht im Schnitt etwa 2 Updates pro Tag)
  • Veraltete und/oder fehlerhaft umgesetzte SEO-Onpage-Maßnahmen

Andersherum kann eine Domain durch ein Google Update natürlich auch an Sichtbarkeit gewinnen.

Mögliche Ursachen für Abstrafungen

Aber wie kann Google Qualität ermitteln? Bereits auf recht einfach zu bewertender Ebene existieren zahlreiche Möglichkeiten, die technisch zu erfassen sind. Dies können zum einen Onpage-Faktoren sein, zum anderen aber auch das Nutzerverhalten.

Low-Quality-Sites

Die folgende Liste behandelt nur einige typische Fälle und kann quasi unendlich weitergeführt werden. Als Faustregel gilt dabei: Ist die Seite nicht (mehr) wertig für den Nutzer, dann ist eine Abstrafung nicht unwahrscheinlich.

  1. Großer Anteil an Double Content auf der gesamten Site
  2. Kurze, thematisch nicht zusammenpassende Textpassagen auf einzelnen Seiten (Stichwort Latent-Semantische-Optimierung)
  3. Wenige Unterseiten auf der Site und einfache Seitenstruktur
  4. Wenig Änderungen auf den einzelnen Seiten und wenig zeitliches Sitewachstum
  5. Überdurchschnittliche Platzierung von AdSense und anderen “Geldverdienern”
  6. Wenig bis gar keine ausgehenden Verweise, die als Zitat- und Beleg-Quellen genutzt werden (“information such as research”)
  7. Sehr kurze Texte ohne besondere Formatierung, Bildmaterial und ähnlichen Ausschmückungen wie Zitate, Tabellen, Codeschnipsel usw. (“in-depth reports”, “thoughtful analysis”)
  8. Keine nennenswerten eingehenden Verweise von thematisch passenden Sites und Autoritäten (Hilltop-Algorithmus)
  9. Ähnliches Linkprofil wie andere Websites, die ähnlich aufgebaut sind und vielleicht sogar noch auf der gleichen IP liegen (IP-Pop, Linkprofilvergleich)
  10. Nicht ausreichend viele und unterschiedliche Verweise von Social-Media-Quellen (Twitter, Facebook und Co.)

Die Erkennungsmerkmale einer High-Quality-Site kann man entsprechend positiv formulieren.

Daneben erklärten Google Mitarbeiter bereits in Videos von 2011, wie Web-Spam ermittelt und bekämpft wird. Auch hier lassen sich Ableitungen herstellen:

Auffälligkeiten beim Nutzerverhalten und der Linksetzung

Doch nicht nur auf der Content-Ebene kann mangelhafter Inhalt erkannt werden. Denn der Nutzer bewegt sich auf bestimmten Seiten im Internet, die seinen privaten wie beruflichen Interessen entsprechen. Soweit technisch möglich, merkt sich Google diese Pfade und erstellt gewissermaßen ein Bewegungsprofil. Besucht man beispielsweise regelmäßig zahlreiche Automobil-Websites, dann erhält man das Interessensprofil „Auto“. Dass das bei Google wesentlich feinstufiger funktioniert, zeigen einerseits die über 1.000 verschiedenen Haupt- und Unterkategorien von Interessenslagen sowie ein Blick in das eigene Profil unter http://www.google.com/ads/preferences/.

Das Ganze kann man sich als AdWords-Betreiber zu Nutze machen und unter „Zielgruppe“ für die eigenen AdWords im Display-Netzwerk entsprechende interessensspezifischen Einblendungen definieren.

Auswirkungen auf die Suchmaschinen-Optimierung

Spannend aus SEO-Sicht ist dabei vor allem die Tatsache, wie genau Google mittlerweile die Websites und die Webuser spezifizieren und klassifizieren kann. Das hat direkte Auswirkungen auf bestimmte Zusammenhänge:

  • Nicht nur der natürliche Mix aus verschiedenen Website-Genre (Blog, Portal, SocialBookmarks, …) spielt beim Linkbuilding eine Rolle, sondern auch der natürliche Mix aus themengenauen, themenähnlichen und themenfremden Verlinkungen.
  • Nutzerbezogene Ranking-Kriterien wie die Verweildauer, die Absprungraten oder auch die CTR in den SERPs können nicht mehr nur allgemein mit einbezogen werden, sondern auch themenspezifisch. Springen beispielsweise themenfremde User auf einer Seite häufig ab, themennahe Suchende bleiben jedoch lange, dann kann dies unter Umständen für bestimmte Suchanfragen sogar ein positives Zeichen sein (man denke an sehr fachspezifische Portale oder wissenschaftliche Inhalte).
  • Mit der Einblendung individueller organischer Rankings ist Google vor einigen Jahren an den Start gegangen. Mittlerweile ist es ruhig geworden und die Wogen haben sich geglättet. Eine „Qualitäts-Verbesserung“ der angezeigten Suchtreffer kann allerdings auch auf Grundlage des erstellten Interessensprofils erfolgen – und das nicht nur für die AdWords.
  • Der Hilltop-Algorithmus beschreibt die Wichtigkeit von Trusted-Domains, also von Websites, denen Google inhaltliches und thematisches Vertrauen zuschreibt. Dieses Verfahren hat mittlerweile das veraltete Pagerank-Verfahren überlagert (Trust-Rank), weil es robuster ist. Einziges Manko ist allerdings, dass die ursprünglichen Trust-Domains manuell gekennzeichnet werden müssen. Aber auch hier kommen die klassifizierten User ins Spiel: Ein Suchender, der aufgrund seines Bewegungsprofils sich sehr häufig auf bereits als thematische Autorität gekennzeichneter Websites bewegt, der bewegt sich vermutlich auch auf anderen inhaltlich hochgradigen Websites zu diesem Thema. Wenn dies eine signifikante Anzahl von Usern mit ähnlichem Profil tun, dann kann so auch eine ganz andere Website als thematische Autorität der Trust verliehen werden – ganz ohne eingehende Verlinkungen von anderen Trusted-Sites und ganz ohne manuelle Zuteilung.

Es gibt sicherlich noch einige weitere Beispiele und Thesen, wie die mittlerweile ausgefeilte thematische Bestimmung in Kombination mit der Erstellung des Cross-Site-Bewegungsprofils durch Google und Co. genutzt werden könnte.

Anders herum fällt es Google immer leichter, durch diese und ähnliche Verfahren natürliches Nutzerverhalten von künstlicher manipulation zu unterscheiden.

Duplicate Content durch Textklau

Neben diesen oben genannten, technischen Ursachen ist ein großes Problem im Zusammenhang mit Penalties und Ranking-Rückgängen der Duplicate Content durch Inhalte, die von anderen Websites übernommen wurden. Dieser sollte angegangen werden, da ansonsten diese anderen Seiten für Ihre Inhalte ranken. Dieser Content-Klau führt nur in seltenen Fällen zu Abstrafungen (nämlich nur dann, wenn Google die andere Domain fälschlicherweise als Orginal-Domain anerkennt), aber kann einzelne Rankings reduzieren.

Auch, dass jemand anderes die eigene Arbeit kostenlos nutzt, um Einnahmen oder Kunden zu gewinnen, ist hierbei demotivierend. Umso wichtiger ist es also, zu erkennen, ob Inhalte (ohne Erlaubnis) kopiert wurden und was als genereller Schutz zu empfehlen ist.

Kopierte Texte ausfindig machen

Es gibt verschiedene Möglichkeiten, zu erfahren, ob ein Text mehrfach im sichtbaren Teil des Internets auftaucht. Große Hilfe: Die exakte Suche bei Google. Das Vorgehen ist denkbar einfach – ein spezifischer Textabschnitt wird kopiert und mit Anführungszeichen bei Google gesucht. Erscheint in den Suchergebnissen nur ein Ergebnis, dann gibt es keinen Grund zur Sorge. Gibt es allerdings den exakt gleichen Textteil an anderer, externer Stelle, so sollten Sie Gegenmaßnahmen ergreifen. Dabei lohnt es sich übrigens auch, den Klick auf „Suche unter Einbeziehung der übersprungenen Ergebnisse wiederholen“ zu tätigen. So wird keine Kopie übersehen, die Google in den Suchergebnissen listet. Eine weitere Möglichkeit, geklaute Texte zu identifizieren, ist die Nutzung des Tools Copyscape. Dort wird für einzelne URLs angezeigt, ob und wo sich die gleichen Texte wiederfinden. Alternativ können auch Textabschnitte als Google Alert (http://www.google.de/alerts) eingerichtet werden. Wird die eigene Domain für die einzelnen Alerts ausgeschlossen, erhalten Sie direkt eine Nachricht, sobald Google die Inhalte an anderer Stelle im Netz findet. Für diesen Beitrag zum Beispiel könnte ein Alert folgendermaßen lauten:

„Große Hilfe: Die exakte Suche bei Google. Das Vorgehen ist denkbar einfach“ – site:mindshape.de Vorgehen bei Textklau

Befindet sich der eigene Inhalt tatsächlich auf einer anderen Website, gibt es drei Handlungsoptionen:

Nichts tun. Die andere Seite ist der eigenen vielfach unterlegen und wurde selbst von Google schon als Duplikat entlarvt. Dies ist bei Spam-Projekten teilweise sinnvoll, da bei solchen häufig kein Besitzer ausfindig zu machen ist. (Wobei hier eine Meldung an Google unter https://www.google.com/webmasters/tools/spamreport?hl=de&pli=1 ein Ranken der Spam-Seite verhindern kann.)Den Anwalt einschalten. Schließlich geht es hier um eine Urheberrechtsverletzung, die abmahnungswürdig ist. Vor der Ergreifung dieses drastischen Schrittes ist zunächst aber die entschärfte, dritte Variante ratsam.Eine E-Mail an den Website-Besitzer schreiben mit dem Hinweis auf die oben genannte Urheberrechtsverletzung, natürlich inklusive dem Beispiel und der Bitte um Entfernung der entsprechenden Passage. Dieser wird meist auch nachgegangen, wodurch sich der unschöne Gang zum Anwalt erübrigt. Vor dem Textklau schützen

Wer einen Programmierer zur Hand hat oder sich selbst genügend auskennt, schafft es, Texte für einen Website-Nutzer mithilfe von Javascript und CSS den Inhalt „unkopierbar“ zu machen. Entweder kann der Text dann gar nicht erst markiert werden, oder es erscheint ein Popup bei Rechtsklick, welches anzeigt, dass kein Kopieren nötig ist. Der große Nachteil besteht in einer schlechteren Nutzererfahrung für all jene, die Texte für den privaten Gebrauch kopieren möchten. Dazu ist der Schutz hinfällig, wenn direkt auf den Quellcode zugegriffen wird, wie es bei größeren Vorfällen von Textklau der Fall ist.

Von dieser eher weniger eleganten Lösung abgesehen, gibt es noch die Möglichkeit, einen gut sichtbaren Zusatz auf der Website anzubringen, in welchem auf die rechtlichen Konsequenzen hingewiesen wird. Es bleibt dann die Hoffnung, dass mögliche Textdiebe abgeschreckt werden – allerdings kann dieser Hinweis einen negativen Beigeschmack für die Besucher der Webseite erzeugen.

Regelmäßige Kontrolle 

Um dem unkontrollierten Kopieren der eigenen Texte möglichst früh einen Riegel vorzuschieben, ist es letztlich das Beste, regelmäßig beispielhafte Kontrollen bei den wichtigsten Inhalten durchzuführen. Auf diese Weise ist es wenigstens möglich, dass das Kopieren von eigenen Inhalten auffällt, wenn schon kein kompletter Schutz gewährleistet werden kann.

 

Auf Content-Ebene existiert neben Duplicate Content noch eine andere Möglichkeit, Google negative Signale zu senden: Seiten mit wenig Inhalt. Dies wird gemeinhin als "Thin Content" bezeichnet und kann ebenfalls Abstrafungen triggern.

Thin Content und Soft-404er

Google zeigt URLs, die als “Thin Content” eingestuft wurden, mittlerweile als Soft404-Fehler in den Google Webmaster Tools an. Welchen Schaden solcher Inhalt anrichten kann, haben wir anhand von zwei Testprojekten untersucht.

Die zwei hier im Folgenden genannten Beispielprojekte sind technisch und strukturell identische LongTail-Testprojekte mit der Mehrzahl an Detailseiten ohne redaktionellen Inhalt. Also in der Tat liegt hier Thin Content vor.

Google hat bei der einen Domain 388 Soft404er erkannt, Tendenz steigend. Die meisten der 388 URLs sind aber tatsächlich erreichbar und liefern einen 200 HTTP-Code zurück. Google sagt also, dass hier Thin Content identifiziert wurde. 

Thin Content in den Webmaster-Tools

Besonders spannend wird es, wenn man sich die Crawling-Daten der beiden Projekte anschaut. Hier fällt auf, dass beide Projekte vor dem vermeintlichen Panda-Update Ende Oktober deutlich stärker gecrawled wurden. Google hat massiv vor der Thin-Content-Markierung alle potenziell verdächtigen Seiten gecrawled. Ein Blick in die Apache-Logfiles bestätigt das – es waren zu 90% in beiden Fällen die Detailseiten. Beide Male kam Google ca. 10 Tage lang verstärkt vorbei und analysierte unseren Thin-Content.

Auffällig ist allerdings: In diesem Fall kam es zu keiner merklichen Traffic-Reduzierung nach den Auffälligkeiten. Erst mit der Zeit sanken Rankings und Traffic, was durchaus auch noch anderen Faktoren geschuldet sein könnte. Nach einer Anreicherung einer der beiden Testdomains mit hochwertigen, nutzerzentrierten Inhalten konnten wir allerdings feststellen, dass diese Rankingsteigerungen und mehr Traffic erhielt. Wie genau wir vorgingen, erklären wir im Folgenden.

Der Strategieplan zur Content-Qualitätssteigerung

Google startete mit dem Panda-Update eine Qualitätsoffensive, wie man im offiziellen Google Webmaster Blog nachlesen kann. Mit diesen 10 Fragen kann man relativ gut beantworten, ob die eigene Website panda-gefährdet ist:

  • Hat die Seite Duplicate Content und wiederholen sich bestimmte Texte und Textpassagen häufiger?
  • Werden ähnliche Keywords aus den gleichen Themenbereichen mit leichten Textvarianten genutzt?
  • Sind die Texte in ihren Textstatistiken (Keyword-Dichte, Latent-Semantische-Optimierung, usw.) natürlich oder scheint es eher (über-)optimiert?
  • Ist die Domain eine thematische Autorität nach dem Trust-Rank-Prinzip von Google?
  • Sind in den Texten überdurchschnittlich viele Rechtschreibfehler oder grammatikalische Fehler enthalten?
  • Sind die Texte mit entsprechender semantischer Struktur versehen, oder sind es reine Fließtexte ohne Zwischengliederung, ohne Bilder usw.?
  • Sind Quellen und Referenzen zur Untermauerung der Themen genannt?
  • Wird die Masse der Unterseiten von den Usern eigentlich genutzt oder sind es eher Nebenschauplätze?
  • Sind (zu) viele Werbeplatzierungen auf der Website in Relation zum Inhalt?
  • Ist die Domain bzw. sind die Unterseiten empfohlen in Web2.0-Anwendungen (Social Bookmarks, Likes, Tweets,…)

Wir zeigten schon oben auf: Moderne Suchmaschinen-Algorithmen, allen voran Google, beherrschen sehr detaillierte sprachliche Erkennungs- und Auswertungsverfahren. Diese werden genutzt, um einen Wert über die Qualität einer Website / Domain zu generieren, der entsprechend in das Ranking mit einfließt. Zum Erzielen von Rankings, und auch dem Entfernen von Abstrafungen, gilt es also, eine in Googles Augen qualitatitv hochwertige Seite zu erstellen.

Schritt 1: Zielsetzung und Zielgruppe definieren

Hochwertige Webinhalte bilden das Fundament einer jeden guten Webseite. Sie liefern den eigentlichen Grund für den Besuch des Nutzers. Mit dem Einsatz der richtigen Inhalte kann dementsprechend viel bewegt werden. Kreativer, nützlicher und informativer Content stärkt die Position eines Angebots im Web nachhaltig und wird gerne geteilt und weiter verlinkt. Der Besucher wird zum begeisterten Leser, Käufer, Fan oder Partner. Auch bei der Suchmaschinenoptimierung spielen hochwertige Webinhalte eine große Rolle, da sich Google & Co. bei der Bewertung immer mehr am Nutzen der Seite für den User orientieren. 

Zielsetzung der Inhalte

Webinhalte erfüllen eine bestimmte Aufgabe. Nur wer ein Ziel vor Augen hat, kann wirklich effizienten Content schaffen, den Erfolg des Geschaffenen überprüfen und seine Herangehensweisen optimieren. Die Aufgaben der Webinhalte sind dabei unmittelbar mit den Zielen der Webseite verbunden. Mögliche Funktionen sind:

  • Aufbau von Vertrauen
  • Vermittlung einer Meinung oder eines Markenbildes
  • Aktiver Austausch mit der Zielgruppe
  • Darstellung eines Produktes oder Unternehmens
  • Animation zu einer konkreten Aktion (Lead)
  • Gezielte Informationsvermittlung
  • Reputationsaufbau

Werden Sie sich also im ersten Schritt darüber bewusst, welchem Zweck Ihre Inhalte dienen. Erst dann können Sie diese ganz gezielt für Ihre Absichten entwickeln.

Im Rahmen einer Content-Marketing Strategie werden Inhalte nicht zur direkten Leadgenerierung eingesetzt. Sie dienen damit also nicht dem direkten Abverkauf sondern wirken unterstützend. Dem Besucher wird hier keine aufdringliche Werbung angeboten. Stattdessen werden ihm beratende, nützliche oder unterhaltende Inhalte präsentiert.

Zielgruppe definieren

Lernen Sie Ihre Zielgruppe kennen. Welche Merkmale und Eigenschaften zeichnet sie aus? Versuchen Sie sich die Zielpersonen so plastisch wie möglich vor Augen zu führen. Dies gelingt gut mit der sogenannten Personas-Methode, bei der konkrete Personen mit charakteristischen Merkmalen stellvertretend für die Zielgruppe benannt werden. Stellen Sie Ihre Personentypen dabei so lebendig wie möglich da, am besten mit Namen und Abbildung.

Personas als Hilfe für hochwertigen Inhalt

Ein weiterer essentieller Punkt sind die Bedürfnisse der Zielgruppe. Bedürfnisse stehen am Anfang einer jeden Handlung. Sie können sowohl existenzieller (z.B. Hunger oder Durst) als auch psychologischer Natur (z.B. Streben nach Macht und Anerkennung, soziale Bedürfnisse, Selbstverwirklichung) sein. Ein Bedürfnis stellt eine Mangelerscheinung an einer bestimmten Sache dar. Die entsprechende Person wird nun versuchen diesen Mangel auszugleichen und nach einer Lösung des Problems suchen. Möglicherweise tut sie dies, indem sie im Web nach einer bestimmten Information, nach Austausch oder Unterhaltung sucht. Findet sie das Gesuchte nun in den Inhalten Ihrer Webseite, entsteht für sie ein konkreter Nutzen. Überlegen Sie also immer, welchen Nutzen Sie Ihrer Zielgruppe bieten können.

Qualitätssteigerung durch Definition des Prozesses

Zielgruppenansprache

Alle Inhalte sollten auf die Zielgruppe zugeschnitten sein. Einen studierten Wissenschaftler werden Sie anders ansprechen als den 15-jährigen Nachbarsjungen. Zudem ist wichtig, in welchem Verhältnis die Besucher zu Ihnen stehen. Sind sie Stammkunden oder müssen vielleicht noch von Ihrem Angebot überzeugt werden? Unterschiedliche Personen begegnen Ihrer Webseite mit unterschiedlichen Erwartungen. Hier finden Sie eine kleine Übersicht, was sich je nach Zielgruppe verändern kann:

Ansprache Du oder Sie
Tonalität Seriös, herzlich, fachlich, reißerisch, …
Gesprächsebene Distanziert, nah, …
Vokabular Einfach, umgangssprachlich, Fachjargon, …
Argumentation Emotional, rational, gemischt, …
Sprachstil Lyrisch und bildhaft, kurz und punktiert, …
Benefit Individueller Nutzen
Aufmachung Bilder, Grafiken, Videos, Statistiken, …

Wettbewerbsanalyse

Betrachten Sie bei der Erstellung Ihrer Inhalte immer auch den Wettbewerb. Auf welchem Themengebiet wollen Sie sich positionieren? Welche Wettbewerber konkurrieren um dieselben Themengebiete und Begriffe? Einige kennen Sie wahrscheinlich bereits aus dem Alltag.

Das Angebot im Web ist riesig. Es gibt wohl kaum noch Gebiete, auf denen Sie sich nicht mit anderen Anbietern vergleichen lassen müssen. Sichten Sie deshalb die Seiten Ihrer Hauptkonkurrenten und arbeiten Sie die Besonderheiten heraus, durch die Sie sich vom Wettbewerb abgrenzen. Bieten Sie Ihren Besuchern hier gezielte Mehrwerte und schaffen Sie eine Einzigartigkeit. Themengebiete können beispielsweise durch neue Herangehensweisen auf eine noch nicht dagewesene Art aufbereitet werden. Hier ein paar Gedankenanstöße:

  1. Erzählen Sie eine Geschichte: Gibt es eine besondere Story beispielsweise rund um die Entstehung eines Produktes oder über die Historie des Unternehmens?
  2. Führen Sie Interviews: Gibt es Interviewpartner wie Hersteller, Experten oder Mitarbeiter, die zum Thema befragt werden können?
  3. Bereiten Sie Studien und Markttrends anschaulich auf
  4. Geben Sie konkrete Tipps, Ratschläge und Hilfestellungen rund um eine Problematik
  5. Scannen Sie Kundenfeedback und Rezensionen
  6. Zeigen Sie Praxisbeispiele beispielsweise eines Produktes in Anwendung
  7. Berichten Sie über Testergebnisse
  8. Begleiten Sie ein Testimonial im Alltag und führen Sie ein Journal
  9. Suchen Sie Kontakt mit der Zielgruppe z.B. auf Messen, Veranstaltungen oder über Blogs und soziale Netzwerke
  10. Beantworten Sie unausgesprochene Fragen der Zielgruppe
  11. Gewähren Sie Einblicke hinter die Kulissen eines Unternehmens
  12. Zeigen Sie Zusammenhänge zu anderen Themengebieten auf

Auch die Art der Präsentation kann dafür sorgen, dass Sie sich positiv vom Wettbewerb abheben. Viele Bilder, hilfreiche Grafiken oder Videos und andere Formate können den Unterschied ausmachen.

Fazit

Mit der Beantwortung der Basic-Fragen schaffen Sie eine geeignete Grundlage zur Erstellung von hochwertigem Content. Durch eine überlegte Vorarbeit können Sie die Qualität Ihrer Webinhalte maßgeblich erhöhen. Natürlich ist es bis zur Fertigstellung noch ein weiter Weg. Behalten Sie jedoch die Antworten auf die Basic-Fragen im weiteren Planungsprozess sowie bei der Produktion im Hinterkopf, sind bereits wichtige Weichen gestellt.

Schritt 2: Content-Strategie

Aber wie gelingt es einen anspruchsvollen Content zu erzeugen, ohne dabei die eigenen Unternehmensziele aus dem Blick zu verlieren?

Redaktionsplan erstellen

Entwickeln Sie für sich eine Timeline, um die Inhalte zu planen. Wichtig ist, dass auf der Website immer wieder etwas passiert. Alter Content verliert schnell seinen Reiz … Organisieren Sie alle Content-Aktivitäten und –Maßnahmen sorgfältig im Vorfeld.

Struktur geben

Die Lesbar- und Verständlichkeit der Inhalte muss unbedingt berücksichtigt werden. Ein leicht zu konsumierenden Inhalt wird besser angenommen und bis zum Schluss verfolgt, als ein komplexer, unverständlicher Content. Reduzieren Sie Ihren Content auf das Wesentliche und machen Sie ihn so konsumierbar.

Zeit berücksichtigen

Stellen Sie Ihre Inhalte in einen zeitlichen Kontext. Ob Weihnachten, Muttertag, regionales Geschehen oder aktuelle Begebenheiten; machen Sie sich zeitliche Ereignisse zu nutzen. Mit gutem Content zur passenden Zeit, können Sie die Aufmerksamkeit Ihrer Besucher zusätzlich steigern.

Identifikation erzeugen

Relevant ist ein Inhalt auch dann, wenn er für den Nutzer nachvollziehbar ist oder ihm einen Identifikationswert bietet. Versetzen Sie sich in die Lage Ihres potenziellen Kunden bzw. Besuchers und lassen Sie sich auf seine Erwartungshaltung ein.

Antworten liefern / Hilfestellung geben

Relevanter Content deckt die Bedürfnisse, löst die Fragen, die ein Nutzer z.B. an das Produkt stellt und zeigt konkret Lösungen auf. Sollten Sie erklärungsbedürftige Produkte anbieten, ist ein detaillierter, leicht verständlicher und informativer Content unabdingbar.

Mehrwerte schaffen

Bieten Sie Ihrem Kunden inhaltliche Mehrwerte, geben Sie ihm das Gefühl, bei Ihnen genau richtig aufgehoben zu sein. (Download, Broschüre, Service/Beratung, Unterhaltung o.ä.)

Qualität sichern

Jeder Content muss qualitativ hochwertig und auf seine Richtigkeit geprüft sein. Falsche Informationen können der Glaubwürdigkeit und der Kompetenz Ihres Unternehmens leicht schaden.

Verbreitung forcieren

Im Idealfall sollte Ihr Content so überzeugend und begeisternd sein, dass der Nutzer zum Teilen der Inhalte automatisch animiert wird. Wenn Sie aufgrund Ihres Contents weiterempfohlen werden, dann haben Sie es geschafft. Doch jetzt bitte nicht ausruhen! Damit Ihr Content auch künftig attraktiv bleibt, sollten Sie die Qualität und Aktualität der Inhalte, die zeitlichen Ereignisse, Ihre Unternehmensziele sowie die Wünsche Ihrer Zielgruppe weiterhin im Auge behalten!

Fazit: Aufräumen

In unserem oben genannten Testprojekt hatten wir aufgeräumt - um positive Signale zu senden, wurden drei Dinge fokussiert angegangen:

  • Die Start- und Verteilerseiten wurden optisch durch besseren Einsatz des Textes, ansprechende Bilder und Icons angereichert.
  • Von den insgesamt etwa 500 Seiten der Domain wurden die 50 wichtigsten mit ansprechenden, umfangreichen Inhalten angereichert.
  • Die übrigen Seiten wurden teilweise aus dem Google Index entfernt ("noindex").
  • Ein responsives Template wurde eingeführt, um die neuen Inhalte auch auf allen Geräten gut präsentieren zu können.

Das hat dann zu einigen positiven Effekten geführt. So meldet die Search Console keine Soft-404-Fehler mehr. Zudem steigerte sich der Traffic und die Sichtbarkeit in der Google Suche merklich.

Die Domain zeigte vor dem Content-Update im November starke Schwankungen in der Sichtbarkeit. Die Sichtbarkeit stabilisierte sich zeitnah nach den Arbeiten – zunächst leider auf einem unerwartet niedrigen Niveau. Nun ist die Sichtbarkeit allerdings wieder steigend. Und das, obwohl der Content seit etwa 6 Monaten nicht mehr angefasst wurde.

Schlussendlich zeigen die Optimierungen vor allem in Sachen SEO-Traffic Erfolg:

Nehmen Sie mit uns Kontakt auf. Wir beraten Sie gerne.