Blog

Absolute vs. relative URLs

Das sollten Sie darüber wissen.

Für die interne Verlinkung können Sie sowohl relative als auch absolute URLs nutzen. Beide Formen der Verlinkung erfüllen ihren Zweck – jedoch sind mit relativen URLs neben einigen Vorteilen vor allem auch Nachteile verbunden, die sich negativ auf die SEO-Performance Ihre Seite auswirken können. In diesem Artikel zeigen wir Ihnen diese Probleme auf und liefern die passende Lösung.

Was sind relative und absolute URLs?

Werden in der internen Verlinkung absolute URLs verwendet, so wird die komplette URL aufgeführt:

<a href=“http: //www.mindshape.de/suchmaschinen-optimierung-seo.html>Suchmaschinenoptimierung</a>

Bei relativen URLs ist hingegen lediglich der Pfad zum verlinkten Dokument hinterlegt:

<a href=“/suchmaschinen-optimierung-seo.html>Suchmaschinenoptimierung</a>

Beide Formen lassen sich gleichermaßen zur internen Verlinkung nutzen.

Vorteile relativer URLs

Relative URLs bringen im Vergleich zu absoluten URLs einige Vorteile mit sich:

  • Sie sind schneller und leichter zu programmieren.
  • Werden relative URLs genutzt, ist der Umzug einer neuen Seite von einem Testsystem auf die eigentliche Domain leichter, weil die internen Links nicht angepasst werden müssen.
  • Die Ladezeit ist bei relativen URLs minimal schneller. Aus SEO-Sicht ist dieser Effekt jedoch zu vernachlässigen.

Aus den oben genannten Gründen ist die Verwendung von relativen URLs in der internen Verlinkung eine herkömmliche Vorgehensweise in der Webentwicklung.

Nachteile relativer URLs

Relative URLs können aber auch Probleme verursachen. Vor allem Duplicate-Content-Problematiken können hierdurch verschlimmert werden, also Probleme mit doppelten Inhalten.

Duplicate Content entsteht immer dann, wenn ein und derselbe Inhalt unter verschiedenen URLs zu finden ist. Ist eine Website technisch nicht einwandfrei aufgesetzt, kann es zum Beispiel vorkommen, dass derselbe Inhalt unter folgenden URLs zu finden ist:

  • http ://www.beispiel.de
  • https ://www.beispiel.de
  • http ://beispiel.de
  • https ://beispiel.de

Das Problem dabei: In diesem Fall liegt es bei Google herauszufinden, welche der vier Versionen die Standardversion ist, die indexiert und von den Nutzern gefunden werden soll. Es besteht also die Gefahr, dass die Suchmaschine eine andere als die von Ihnen als Standardversion wahrgenommene Seite indexiert.

Viel schlimmer ist jedoch die Verschwendung von wertvollem Crawl-Budget. Google definiert für jede Website ein gewisses Crawl-Budget, das unter anderem von der Autorität und der Komplexität der Seite abhängt sowie davon, wie häufig neue Inhalte veröffentlicht werden. Das Crawl-Budget legt wiederum fest, wie viele Seiten der Domain tatsächlich vom Suchmaschinen-Crawler ausgelesen werden und dementsprechend in den Index gelangen können.

Ist jeder Inhalt unter verschiedenen URLs erreichbar, so müsste die Suchmaschine viel mehr Crawl-Budget aufwenden, um alle URLs zu crawlen. Da es aber kein unbegrenztes Crawl-Budget gibt, besteht die Gefahr, dass derselbe Inhalt mehrfach ausgelesen wird (unter verschiedenen URLs), während andere wichtige URLs überhaut nicht gecrawlt wreden.

Was hat Duplicate Content mit relativen URLs zu tun?

Die Gefahr, dass eine Nicht-Standardversion der Website komplett gecrawlt und indexiert wird, wird durch die Verwendung von relativen URLs erhöht. Stellen Sie sich vor, Ihre Standardversion, die Sie indexiert haben möchten, ist www.beispiel.de.

Gelangt der Crawler beim Crawlen des Webs nun aber auf eine URL der Domain beispiel.de und folgt hier den internen relativen Links, so bleibt er zwangsläufig die ganze Zeit auf der Nicht-Standardversion – eben weil zu den verschiedenen Unterseiten nur der Pfad hinterlegt ist und keine absolute URL.

Wären in den internen Links hingegen absolute URLs hinterlegt, so würde der Crawler automatisch auf die Standardversion der Domain gelangen, sowie er dem ersten internen Link folgt.

Das Risiko, dass eine Nicht-Standardversion komplett gecrawlt und indexiert wird, ist bei relativen URLs also viel höher.

Das Problem mit den Scrapern

Neben der Problematik in Bezug auf Duplicate Content machen Sie bei Verwendung relativer URLs böswilligen Scraperndas Leben unnötig leicht. Es gibt Scraper, die die Inhalte fremder Domains auf eine neue Domain kopieren, meist mit dem Ziel, mit wenig Aufwand gute Rankings zu erzielen und dann über Werbeschaltung Geld zu verdienen. Nutzen Sie relative Links für die interne Verlinkung, so machen Sie es Scrapern unnötig leicht: Die internen Links würden auch auf der gescrapten Version einwandfrei funktionieren.

Lösung: Absolute statt relative URLs

Was können Sie tun, um diese Probleme zu lösen?

  • Zunächst einmal muss das Duplicate-Content-Problem serverseitig behoben werden. Es müssen also alle URLs der alternativen Versionen per 301 Redirect auf die entsprechenden URLs der Standardversion weitergeleitet werden.
  • Im nächsten Schritt müssen die relativen in absolute Links umgewandelt werden.
  • Ist es aus irgendwelchen Gründen nicht möglich, die relativen in absolute URLs umzuwandeln, empfiehlt es sich alternativ, auf jeder URL der Standardversion ein Canonical Tag auf die Standard-URL selbst zu setzen. Zumindest das Scraper-Risiko wird so nämlich verringert, weil im Falle des Falles die gescrapten Canonicals jeweils auf die ursprüngliche Version des Inhalts verweisen würden.

Google ist mittlerweile schon recht gut darin, bei Duplicate Content herauszufinden, welches die eigentliche Standardversion ist, die indexiert werden soll. Nichtsdestotrotz sollten Sie Duplicate Content allein schon im Hinblick auf das Crawl-Budget vermeiden. Relative Links sind immer mit Vorsicht zu genießen. Setzen Sie daher nach Möglichkeit immer auf absolute URLs in Ihren internen Links.

Nehmen Sie mit uns Kontakt auf. Wir beraten Sie gerne.