Blog

Interne Verlinkung optimieren

Anleitung zur Verlinkungsoptimierung mit dem non-profit Tool Gephi - unser Vortrag auf der SEO-Campixx 2016.

Auf der SEO-Campixx 2016 hat Sebastian seinen Vortrag zum Thema Interne Verlinkungsoptimierung mit Gephi gehalten. Zuerst gab es eine kurze Einführung in das Thema Netzwerkanalyse und Möglichkeiten, über Zentralitäten Netzwerke zu vermessen. Danach hat er Gephi gezeigt – ein Tool, mit dem man die interne Verlinkung einer Website z.B. aus ScreamingFrog visualisieren und berechnen kann. 

Gephi ist ein sehr mächtiges Tool für SEO, insofern es richtig eingesetzt wird. Neben der Visualisierung der Verlinkung bietet es weitere Featuers. So kann man den internen Linkjuice mit PageRank oder auch der Betweenness-Zentralität berechnen. Zum Abschluss des Vortrags gab es noch ein kleines SEO-Experiment, welche Metrik denn nun am besten funktioniert. Mehr Details gibt es in den Folien.

Vortrag: Interne Verlinkungsoptimierung mit Gephi

Der komplette Vortrag kann hier heruntergeladen werden:

Interne Verlinkungsoptimierung mit Gephi (Klick zum PDF-Download, 4.98MB)
Klicken Sie auf das Bild, um den Vortrag der SEOcampixx herunterzuladen (PDF, 4.98MB)

Ergänzung zum Vortrag: Googles Definition von Crawl-Budget

Im Januar 2017, ein paar Monate nach dem oben vorgestellten Beitrag, veröffentlichte Google weitere Informationen dazu, wie sie selbst Crawl-Budget definieren

Wie immer sollte man nicht alles für bare Münze nehmen, was man dort liest. Ein paar Interpretationen bzw. Interpretationsmöglichkeiten:

  1. “Wenn neue Seiten tendenziell am Tag ihrer Veröffentlichung gecrawlt werden, muss sich der Webmaster nicht um das Crawling-Budget kümmern.” Bedeutet: Aktuelle Inhalte fallen wohl nicht ins allgemeine, wiederholende Crawling-Budget.
  2. “Außerdem wird eine Website mit weniger als ein paar Tausend URLs meistens effizient gecrawlt.” Bedeutet: Unter 2.000-3.000 URLs wohl kein Problem – aber nur „meistens“, also nicht zuverlässig, und nur „effizient“ aus Googles Sicht – also nicht unbedingt vollständig.
  3. “Priorisierung […] wichtig […] für Websites, die zum Beispiel Seiten automatisch auf der Grundlage von URL-Parametern erstellen.” Bedeutet: Hast Du viele Parameter, hast Du viel zu regeln in Sachen Crawlbudget.
  4. “Wenn die Website über einen bestimmten Zeitraum schnell reagiert, erhöht sich die Frequenz…” Bedeutet: Der Server muss über eine längere Zeit schnell antworten. Genaueres erfährt man nicht. Bleibt nur zu vermuten, dass die TTFB (Time-To-First-Byte) entsprechend flott sein muss. Wie flott? Diese Info wäre zu hilfreich gewesen.
  5. “Eine Einstellung auf höhere Werte [in der GSC] erhöht jedoch nicht automatisch das Crawling.” Bedeutet: Du kannst den Regler hochstellen, aber wenn Dein Server nicht schnell genug antwortet, dann crawlt Google auch nicht schneller.
  6. “URLs, die im Internet beliebter sind, werden tendenziell häufiger gecrawlt.” Hier darf man rätseln, wie „beliebt“ operationalisiert ist. Wahrscheinlich über Klicks aus den SERPs. Müsste man mal einen SEO-Test aufsetzen, ob häufig geklickte Snippets aus den SERPs (GSC-Daten) auch überproportional häufig gecrawled werden. Vermutlich. Oder „beliebt“ wird algorithmisch bestimmt (Klickpfadtiefe u.ä.).
  7. “Unsere Systeme versuchen zu verhindern, dass sich veraltete URLs im Index befinden.” Bedeutet: Google stellt fest, ob ein Inhalt veraltet ist (und nicht Evergreen) und crawled die dann weniger häufig. GGf. ist hier neben der algorithmisch festzustellenden Themen-Aktualität über den Themen-Buzz auch die Aktualisierung der Inhalte selbst relevant.
  8. “…wie etwa der Umzug einer Website” Bedeutet: Ändern sich viele URLs oder zieht eine Seite um oder findet ein Relaunch statt, dann mag man mehr Crawlbudget bekommen.
  9. “Crawling-Frequenz und Crawling-Bedarf zusammen ergeben das Crawling-Budget. Nach unserer Definition ist damit also die Anzahl der URLs gemeint, die der Googlebot crawlen kann und will.” Bedeutet: Wir haben zwei Konzepte – die Häufigkeit und Intensität der Crawler-Besuche v.a. auf Grundlage der Serverantwortzeiten, URL-Menge und URL-Komplexität v.a. in Sachen Parameter. Und dann den Crawling-Bedarf in Sachen „Beliebtheit“ und altersbedingter „Relevanz“ des Contents. Das zusammen versteht Google unter „Crawling-Budget“.
  10. “[Es wirkt sich …] negativ auf das Crawling und die Indexierung einer Website aus, wenn zahlreiche URLs mit geringem Mehrwert vorhanden sind.” Bedeutet: Facetierte Navigation (Parameter und Thin-Content), Duplicate Content, Soft 404er (u.a. auch Thin Content), gehackte Seiten, Spam und Low-Quality Inhalte bremsen das Crawling und die Indexierung. Sprich: Domains aufräumen, nur Suchrelevantes anbieten.
  11. “Eine höhere Crawling-Frequenz führt nicht zwangsläufig zu besseren Positionen in den Suchergebnissen.” Bedeutet: Crawling ist kein Ranking-Signal (ist ja auch logisch), Pagespeed hingegen schon. „Nicht zwangsläufig“ ist interessant.
  12. “Werden alternative URLs und eingebettete Inhalte in das Crawling-Budget eingerechnet?” Google sagt: Jeder Request von HTML über AMP über JS und Co. zählt ins Budget. Auch 301er und Weiterleitungsketten (jeweils ein Request) zählen mit rein. Also: Sauberes und Effizientes 301-Redirectmanagement!

Fazit - So neu sind die Aussagen von Google nun (leider) nicht. Ansonsten fehlen konkrete Werte – wie so häufig. Schnelle Serverreaktionszeit, ordentliches URL-Management, ordentliches Asset-Management, ordentliches 301-Management und Relevanz und Aktualität in den Inhalten – darauf sollte man achten. Dann klappt das auch mit dem Crawling.

Nehmen Sie mit uns Kontakt auf. Wir beraten Sie gerne.