Blog

Absolute vs. relative URLs

Das sollten Sie darüber wissen.

Für die interne Verlinkung können Sie sowohl relative als auch absolute URLs nutzen. Beide Formen der Verlinkung erfüllen ihren Zweck – jedoch sind mit relativen URLs neben einigen Vorteilen vor allem auch Nachteile verbunden, die sich negativ auf die SEO-Performance Ihre Seite auswirken können. In diesem Artikel zeigen wir Ihnen diese Probleme auf und liefern die passende Lösung.

Was sind relative und absolute URLs?

Werden in der internen Verlinkung absolute URLs verwendet, so wird die komplette URL aufgeführt:

<a href=“http: //www.mindshape.de/suchmaschinen-optimierung-seo.html>Suchmaschinenoptimierung</a>
Bei relativen URLs ist hingegen lediglich der Pfad zum verlinkten Dokument hinterlegt:

<a href=“/suchmaschinen-optimierung-seo.html>Suchmaschinenoptimierung</a>
Beide Formen lassen sich gleichermaßen zur internen Verlinkung nutzen.

Vorteile relativer URLs

Relative URLs bringen im Vergleich zu absoluten URLs einige Vorteile mit sich:

  • Sie sind schneller und leichter zu programmieren.
  • Werden relative URLs genutzt, ist der Umzug einer neuen Seite von einem Testsystem auf die eigentliche Domain leichter, weil die internen Links nicht angepasst werden müssen.
  • Die Ladezeit ist bei relativen URLs minimal schneller. Hierbei handelt es sich um Bruchteile einer Sekunde, die auf normalen Seiten kaum messbar sind.

Aus den oben genannten Gründen ist die Verwendung von relativen URLs in der internen Verlinkung eine herkömmliche Vorgehensweise in der Webentwicklung.

Nachteile relativer URLs

Relative URLs können aber auch negative Effekte erzeugen. Das ist vor allem dann der Fall, wenn unsauber programmiert wurde:

Duplicate Content entsteht dadurch, dass die Domain unter verschiedenen Protokollen (http:// vs ) oder mit verschiedenen Subdomains (häufig mit und ohne www.) erreichbar sind. Das erzeugt ein massives Indexierung-Hemmnis, falls Google einmal auf die falschen Varianten angestoßen wurde.Das Crawl-Budget wird für URLs aufgebraucht, die gar nicht in den Google Index sollen. Somit findet Google dann im Zweifel nicht die Seiten, die Ihnen eigentlich wichtig sind.Fehlerhafte URLs können generiert werden, falls Google (zurzeit unter dem aktuellen Chrome Browser laufend) die Pfade anders interpretiert, als dies angedacht wurde. 

Im Folgenden gehen wir auf diese Faktoren einzeln tiefer ein und auch Möglichkeiten, die nachteiligen Effekte zu reduzieren oder sogar ganz auszuschalten.

Duplicate Content durch relative URLs

Duplicate Content entsteht immer dann, wenn ein und derselbe Inhalt unter verschiedenen URLs zu finden ist. Ist eine Website technisch nicht einwandfrei aufgesetzt, kann es zum Beispiel vorkommen, dass derselbe Inhalt unter folgenden URLs zu finden ist:

http: //www.beispiel.de 
https ://www.beispiel.de  
http ://beispiel.de  
https ://beispiel.de
Die Gefahr, dass eine Nicht-Standardversion der Website komplett gecrawlt und indexiert wird, wird durch die Verwendung von relativen URLs erhöht. Stellen Sie sich vor, Ihre Standardversion, die Sie indexiert haben möchten, ist www.beispiel.de.

Gelangt der Crawler beim Crawlen des Webs nun aber auf eine URL der Domain beispiel.de und folgt hier den internen relativen Links, so bleibt er zwangsläufig die ganze Zeit auf der Nicht-Standardversion – eben weil zu den verschiedenen Unterseiten nur der Pfad hinterlegt ist und keine absolute URL.

Wären in den internen Links hingegen absolute URLs hinterlegt, so würde der Crawler automatisch auf die Standardversion der Domain gelangen, sowie er dem ersten internen Link folgt. Das Risiko, dass eine Nicht-Standardversion komplett gecrawlt und indexiert wird, ist bei relativen URLs also viel höher.

Das Problem dabei: In diesem Fall liegt es bei Google, herauszufinden, welche der vier Versionen die Standardversion ist, die indexiert und von den Nutzern gefunden werden soll. Es besteht also die Gefahr, dass die Suchmaschine eine andere als die von Ihnen als Standardversion wahrgenommene Seite indexiert.

Idealerweise ist eine automatische Weiterleitung ("redirect") auf die korrekte dieser vier Varianten. Diese wird serverseitig definiert und soll bei den drei falschen Varianten greifen. Die Einstellung selbst ist für technisch affine Menschen sehr schnell erledigt, allerdings sollte getestet werden, ob alle Komponenten (z. B. interne Suche, Extensions und Plug-Ins, eingebundene Formulare, ...) auch nach der Einrichtung weiter funktionieren. In der Praxis ist diese Einstellung häufig nicht vorgenommen, sodass alle vier Varianten erreichbar sind.

Crawl-Budget Verschwendung

Viel schlimmer ist jedoch die Verschwendung von wertvollem Crawl-Budget. Google definiert für jede Website ein gewisses Crawl-Budget, das unter anderem von der Autorität und der Komplexität der Seite abhängt sowie davon, wie häufig neue Inhalte veröffentlicht werden. Das Crawl-Budget legt wiederum fest, wie viele Seiten der Domain tatsächlich vom Suchmaschinen-Crawler ausgelesen werden und dementsprechend in den Index gelangen können.

Ist jeder Inhalt unter verschiedenen URLs erreichbar, so müsste die Suchmaschine viel mehr Crawl-Budget aufwenden, um alle URLs zu crawlen. Da es aber kein unbegrenztes Crawl-Budget gibt, besteht die Gefahr, dass derselbe Inhalt mehrfach ausgelesen wird (unter verschiedenen URLs), während andere wichtige URLs überhaut nicht gecrawlt werden.

Ist bereits die obige Lösung der automatischen Weiterleitung implementiert, ist hier wenig zu tun. Für große Seiten empfiehlt es sich, über die Logfiles zu prüfen, ob der Crawler - trotz eingerichteter Weiterleitung - nicht doch noch alte Varianten besucht.

Fehlerhafte URL-Interpretation

Leider finden wir neben den obigen beiden Fehlern oft einen weiteren vor, der vorwiegend durch unsauberes Arbeiten entsteht. Wird keine "Base-URL" festgelegt, obliegt es jedem Programm selbst, wie er die jeweiligen Links interpretiert.

Beispiel: Ist der Nutzer zurzeit auf folgender URL:

www.beispiel.de/kategorie1/
Könnte ein relativer URL-Pfad wie folgt lauten:

<a ahref="/produkt1.html">
Daraus wird, wenn keine weitere Spezifizierung vorgenommen ist, einer der beiden URLs:

www.beispiel.de/kategorie1/produkt1.html 
 www.beispiel.de/produkt1.html
Von einer einmal falschen URL kann sich der Crawler dann, da er bereits auf der falschen Spur ist, durch die weiteren relativen Angaben stark verrennen. Wir haben schon Seiten gesehen, bei denen die Anzahl falsch gecrawlter URLs ein Vielfaches der korrekten Seitenzahl darstellte.

Ob die eigene Domain von einer Fehlinterpretation betroffen ist, kann in der Google Search Console  eingesehen werden. Unter dem Menüpunkt "Abdeckung" ist unter anderem die Eigenschaft "Duplikat - vom Nutzer nicht als kanonisch festgelegt" hinterlegt.

Die Behandlung dieses Fehlers sollte im ersten Schritt durch das HTML Base Element erfolgen. Das ist häufig eine Angabe, die im Vergleich zur nächsten Option einfach und relativ fehlerfrei eingefügt werden kann.

Ergänzend kann ein Canonical angewendet werden. Allerdings ist die seitenweite Implementierung häufig Fehlerbehaftet. Insbesondere bei Erweiterungen wie beispielsweise News oder automatisch generierten Job-Bereichen ist die Angabe nicht immer korrekt. Ungetestet kämen also weitere Fehler hinzu. Allerdings hat ein korrekt eingerichtetes Canonical auch bei anderen technischen SEO-Fehlern einen positiven Effekt.

Nebeneffekt absoluter URLs: Eine kleine Hürde für Scraper

Es gibt Scraper, die die Inhalte fremder Domains auf eine neue Domain kopieren. Meist ist das Ziel, mit wenig Aufwand gute Rankings zu erzielen und dann über Werbeschaltung Geld zu verdienen.

Nutzen Sie relative Links für die interne Verlinkung, so machen Sie es Scrapern unnötig leicht: Die internen Links würden auch auf der gescrapten Version einwandfrei funktionieren.

Absolute Links müssen erst für die Scraper-Seite ausgetauscht werden. Das geht recht schnell, da einfach nur seitenweit der Domain-Name ausgetauscht werden muss. Ein paar der Scraper machen sich diese (sehr geringe) Mühe jedoch nicht. Durch absolute URLs erreichen Sie also zumindest, dass nicht jede Scraper-Domain funktioniert.

Tipp: Melden Sie Scraper-Seiten direkt bei Google als Webspam unter https://support.google.com/webmasters/answer/93713?hl=de.

Zusammenfassung: Das ist zu tun, falls sie relative URLs verwenden

Was können Sie tun, um diese Probleme zu lösen?

  • Zunächst einmal muss das Duplicate-Content-Problem serverseitig behoben werden. Es müssen also alle URLs der alternativen Versionen per 301 Redirect auf die entsprechenden URLs der Standardversion weitergeleitet werden.
  • Im nächsten Schritt müssen die relativen in absolute Links umgewandelt werden.
  • Ist es aus irgendwelchen Gründen nicht möglich, die relativen in absolute URLs umzuwandeln, empfiehlt es sich alternativ, das HTML Element "Base URL" zu verwenden.
  • Zusätzlich kann bei relativen URLs auf jeder URL der Standardversion ein Canonical Tag auf die Standard-URL selbst gesetzt werden. 

Google ist mittlerweile schon recht gut darin, bei Duplicate Content herauszufinden, welches die eigentliche Standardversion ist, die indexiert werden soll. Nichtsdestotrotz sollten Sie Duplicate Content allein schon im Hinblick auf das Crawl-Budget vermeiden. Relative Links sind immer mit Vorsicht zu genießen. Setzen Sie daher nach Möglichkeit immer auf absolute URLs in Ihren internen Links, insofern keine Gründe dagegen sprechen.

Nehmen Sie mit uns Kontakt auf. Wir beraten Sie gerne.