Technische SEO ist ein Teilbereich der Suchmaschinenoptimierung, dessen Fokus vor allem auf die technischen Optimierungsmöglichkeiten einer Website setzt. Die Technische Suchmaschinenoptimierung ist eine wichtige Voraussetzung für ein gutes Ranking einer Website.
Lesen Sie mehr dazu unter: Was ist Technische SEO?
Die wichtige Merkmale einer technisch optimierten Website sind:
Page-Speed
Webseiten müssen schnell geladen werden, denn Benutzer möchten nicht lange warten. Wie Untersuchungen bereits 2016 zeigten: 53 % der mobilen Website-Besucher verlassen die Website, wenn diese nicht innerhalb von drei Sekunden geöffnet wird. Google weiß, dass langsame Webseiten ein suboptimales Erlebnis bieten und bevorzugt daher Webseiten, die schneller geladen werden. So landet eine langsame Webseite in den Suchergebnissen weiter hinten als ihr schnelleres Äquivalent.
Crawlability
Suchmaschinen verwenden Robots, um eine Website zu crawlen, indem diese Links folgen, um Inhalte auf der Website zu entdecken. Eine großartige interne Verlinkungsstruktur stellt sicher, dass Robots verstehen, was die wichtigsten Inhalte auf einer Website sind. Robots können auch auf einer Website geführt werden, indem sie beispielsweise daran gehindert werden, bestimmte Inhalte zu crawlen, wenn nicht gewünscht ist, dass sie dorthin gelangen.
Robots.txt-Datei
Die Robots.txt ist eine Textdatei mit Anweisungen für die Crawler der Suchmaschinen. In ihr wird festgelegt, welche Bereiche einer Website von den Webcrawlern durchsucht werden dürfen. Es ist ein mächtiges Werkzeug, das sorgfältig behandelt werden sollte. Passiert hier auch nur ein kleiner Fehler und es werden unbeabsichtigt die CSS- und JS-Dateien einer Website in der robot.txt-Datei blockiert, können Suchmaschinen nicht herausfinden, ob eine Website ordnungsgemäß funktioniert.
Meta-Robots-Tag
Das Robots-Meta-Tag ist ein Stück Code, das Besucher auf der Seite nicht sehen können. Es befindet sich im Quellcode im sogenannten Head-Bereich einer Website. Robots lesen diesen Abschnitt, wenn sie eine Seite finden. Darin werden für sie Informationen darüber aufgezeigt, was sie auf der jeweiligen Website finden oder was sie damit tun müssen. Mit dem Robots-Meta-Tag kann Crawlern beispielsweise die Anweisung gegeben werde, eine Seite zu crawlen, aber nicht den Links auf der Seite zu folgen.
Keine Broken Links
Ärgerlicher als eine langsame Website ist es für Besucher auf einer Seite zu landen, die gar nicht existiert. Wenn ein Link zu einer nicht existierenden Seite einer Website führt, erhalten Besucher eine 404-Fehlerseite. Da Robots jedem Link folgen, ist die Wahrscheinlichkeit auf weitere Broken Links zu stoßen. Um unnötige Broken Links zu vermeiden, sollten Weiterleitungen eingerichtet werden.
Kein Duplicate Content
Für die Indexierung von Website-Inhalten sollte jeder Content nur unter einer einzigen URL erreichbar sein. Gleicher Inhalt auf mehreren Seiten einer Website – oder sogar auf anderen Websites – kann Suchmaschinen verwirren, denn welche der Seiten sollte höher platziert werden? Das kann sogar so weit führen, dass eine Website von Google abgestraft wird. Um dies zu vermeiden, wird auf sogenannte kanonische URLs zurückgegriffen. Damit kann angegeben werden, welche der Seiten mit (fast) identischem Inhalt als Standartdressource anzusehen ist, in den Suchmaschinen platziert werden sollte.
Sicherheit
Es ist eine Grundvoraussetzung, eine Website für ihre Benutzer sicher zu machen, um deren Privatsphäre zu gewährleisten. Eine Umstellung auf HTTPS (HyperText Transfer Protocol Secure) stellt sicher, dass Daten, die zwischen dem Browser und der Website gesendet werden, nicht abgefangen werden können. Um HTTPS auf einer Website zu implementieren, wird ein SSL-Zertifikat benötigt. Google erkennt die Bedeutung von Sicherheit an und hat daher HTTPS zu einem Ranking-Signal gemacht: Sichere Websites ranken höher als unsichere Äquivalente.
Strukturierte Daten
Strukturierte Daten unterstützen Suchmaschinen darin, Inhalte der Website oder sogar das Unternehmen selbst besser zu verstehen. Strukturierte Daten sind ein standardisiertes Format, mit dem Informationen zu einer Seite angeben und die Seiteninhalte klassifizieren werden können. [Link Google]
Die Implementierung strukturierter Daten kann mehr als nur ein besseres Verständnis von Suchmaschinen bringen. Es macht Inhalte auch für Rich-Results geeignet; diese glänzenden Ergebnisse mit Sternen oder Details, die in den Suchergebnissen auffallen.
XML-Sitemap
Eine XML-Sitemap ist eine Liste aller Seiten einer Website und dient für Suchmaschinen als Fahrplan. Websitebetreiber können so sicherstellen, dass Suchmaschinen keine wichtigen Inhalte auf deren Website verpassen. Die XML-Sitemap ist oft in Beiträge, Seiten, Tags oder andere benutzerdefinierte Beitragstypen kategorisiert und enthält die Anzahl der Bilder und das Datum der letzten Änderung für jede Seite.
Hreflang
Zielt eine Website auf mehr als ein Land oder Länder ab, in denen dieselbe Sprache gesprochen wird, benötigen Suchmaschinen ein wenig Hilfe, um zu verstehen, welche Länder oder Sprachen erreicht werden möchten. Hreflang-Tags helfen dabei, denn mit ihnen kann festgelegt werden, für welches Land und welche Sprache eine Website bestimmt ist. Dies löst auch ein mögliches Problem mit doppelten Inhalten, denn selbst wenn eine US- und UK-Website denselben Inhalt zeigen, weiß Google, dass er für eine andere Region geschrieben wurde.
Moderne Suchmaschinenoptimierung muss viele verschiedene Elemente berücksichtigen. Dazu zählen neben technischen Aspekten auch Content-bezogene Faktoren. Eine Website sollte für ihre Benutzer gut funktionieren – schnell, übersichtlich und einfach zu bedienen sein. Die Herstellung einer einer starken technischen Grundlage geht glücklicherweise oft mit einer besseren Erfahrung für Nutzer und Suchmaschinen einher.
Benötigen Sie Unterstützung bei der Technischen SEO Ihrer Website?
Nehmen Sie Kontakt mit uns auf, wir beraten Sie gerne.