Ein kleiner SEO-Tipp außerhalb der SEO-Reihe für alle, die wissen wollen, ob der Blog oder die Website den aktuellen Google-Richtlinien folgt: feedthebot.com

google-richtlinien-mamaskind

Nicht Google-konforme Websites und Tipps zur Besserung

Auf feedthebot.com gebt ihr die URL zu eurem Blog ein, woraufhin das Tool eure Seite checkt. Zuerst wird angezeigt, welche Bereiche der Website nicht Google-konform sind. Darunter gibt es Infos für Webmaster – welche Aspekte müssen unbedingt beachtet werden? Dazu zählen z. B. bezahlte Links, die das Tool nicht auslesen kann, Google jedoch schon…

nicht-googlekonform

 

Glücklicherweise werden auch jede Bereiche angezeigt, die den Google-Richtlinien folgen. Bei mir sind das u. a. das Vorhandensein einer robots.txt und der XML-Sitemap. Weiterhin haben meine Bilder Alt-Attribute und meine Links Ankertexte.

Wichtig für Google ist zudem, dass er/sie/es überall hingelangt, wo auch User sind. Die Suchmaschine will all das lesen können, was der User sieht. Verstecken verboten! So dürfen CSS- und JavaScript-Dateien nicht geblockt werden (vor einigen Wochen noch ein Mittel, um Links zu verstecken). Das möchte Google nicht. Der Ottonormalblogger blockiert in der Regel solche Dateien auch nicht.

Sollen Seiten für Google nicht auffindbar sein, werden diese mit dem „noindex“ versehen und in der robots.txt gesperrt. Das ist für Google ok und muss auch gemacht werden. Besonders bei großen Websites, die bestimmte Bereiche und organisch unwichtige Seiten unzugänglich machen müssen, ist das Pflicht. Es gibt ein limitiertes Crawlbudget, an das unsere Blogs aber nicht heranreichen.

google-konform- mamaskindZum Schluss werden Tipps gegeben, welche die angesprochenen Probleme näher erläutern. So wird bspw. erklärt, was eine robots.txt ist und ob diese auf der eigenen Website gefunden wurde. Für mamaskind.de wurde nur bemängelt, dass ich keine Sitemap für den User habe. Diese werde ich vermutlich auch nicht einbauen, denn dafür habe ich eine Navigation, mit der sich Leser durch den Blog klicken können. Wichtiger ist die XML-Sitemap, die den Bots zeigt, welche Seiten vorhanden sind und diese existiert für meinen Blog.

Auch wird mir angezeigt, mein Blog hätte zu viele Links und könnte schneller sein (page speed). Letztlich muss man selbst entscheiden, wie man mit diesen Hinweisen umgeht. Schnellere Ladezeiten sind immer gut, nur braucht man dazu (oft) einen technischen Helfer. Mit der Anzahl meiner Links bin ich sehr zufrieden.

tipps-behebung-mamaskind

 

Und bei euch?

Wollt ihr mehr SEO-Tipps dieser Art lesen? Was sagt das Tool über eure Blogs, besteht Handlungsbedarf?

 

 

Werbung