Suchradar Ausagbe 35 - Werbeagentur und Webdesign Blog
Suchradar Ausagbe 35 - Werbeagentur und Webdesign Blog
Suchradar Ausagbe 35 - Werbeagentur und Webdesign Blog
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Kurz getestet<br />
strucr.com<br />
46 suchradar . <strong>35</strong> . Das magazin für SeO <strong>und</strong> Sem<br />
suchradar Kurz getestet<br />
Große Websites werden schnell unübersichtlich. mit strucr.com gibt es einen Crawler, der die gesamte Website überprüft <strong>und</strong><br />
Fehlerquellen aufzeigt. Bringt das was? Von markus hövener.<br />
Vor allem für Betreiber von großen Websites ist<br />
strucr.com ein sehr gutes tool, um Probleme zu<br />
sehen, die man mit vielen anderen tools nur sehr<br />
schwer erkennen kann. Strucr.com muss nicht installiert<br />
werden, sondern wird als Dienst über das<br />
Web angeboten.<br />
Strucr.com ist kostenpflichtig ( siehe: https: / / strucr.<br />
com / accounts / pricing / ); die Kosten hängen davon<br />
ab, wie viele Seiten einer Website man crawlen<br />
möchte. Die Vertragsdauer ist k<strong>und</strong>enfre<strong>und</strong>lich<br />
<strong>und</strong> beträgt jeweils einen monat, ohne dass der<br />
Vertrag sich danach automatisch verlängert. Wer<br />
allerdings das tools länger nutzen möchte <strong>und</strong> das<br />
im Voraus bezahlt, kann einen rabatt von maximal<br />
20 % erhalten.<br />
Wer einen Account hat, kann diesen übrigens auch<br />
anderen nutzern ( z. B. anderen mitarbeitern im Unternehmen<br />
) zur Verfügung stellen. hierzu gibt es<br />
eine nutzerverwaltung ( „Shares“ ), in der man auswählen<br />
kann, welche Zugriffsrechte die anderen<br />
nutzer haben.<br />
funktionsweise<br />
Wer nun mit dem Crawlen starten möchte, muss<br />
zunächst wissen, dass strucr.com derzeit nur für<br />
Websites genutzt werden kann, auf die man auch<br />
selber Zugriff hat. Das wird damit begründet, dass<br />
das Crawlen durchaus Last auf dem Website-Server<br />
hervorruft. Damit ein Crawl für eine Website gestartet<br />
werden kann, muss dort zunächst eine von<br />
strucr gelieferte Datei hinterlegt werden, um die<br />
Site validieren zu lassen.<br />
Für einen Crawl können verschiedene Parameter<br />
eingestellt werden – vor allem die Dauer zwischen<br />
zwei angefragten Seiten ( siehe Abbildung 1 ). So<br />
kann man dann z. B. noch die Last auf dem Server<br />
einschränken.<br />
Danach heißt es dann: warten. Denn die Daten sind<br />
erst dann verfügbar, wenn der Crawl beendet ist<br />
<strong>und</strong> alle Daten berechnet wurden. Das ist aber in<br />
der Praxis kein Problem.<br />
Wenn der Crawl abgeschlossen ist, erhält man einen<br />
report, der eine Vielzahl so genannter „hints“<br />
aufzeigt ( siehe Abbildung 2 ). Dabei handelt es sich<br />
um hinweise für die eigene Website, die SeO-relevant<br />
sein können.<br />
Diese hints müssen nicht unbedingt auf etwas<br />
hinweisen, das in Bezug auf SeO negativ<br />
wird. So gibt es z. B. meldungen für fehlende<br />
robots-meta-tags oder Fragment-Links ( z. B. unten< / a> ), bei denen es<br />
nichts bewirken würde, diese zu ändern. Gr<strong>und</strong>sätzlich<br />
ist es aber natürlich richtig, auf solche<br />
Aspekte hinzuweisen, da Fragment-Links in bestimmten<br />
Konstellationen durchaus zu Problemen<br />
führen können. Andere meldungen wie „UrL has<br />
non-ascii elements in path“ ( Umlaute in UrL ) oder<br />
„UrL has query“ ( Fragezeichen kommt in UrLs vor )<br />
sind schon ernster zu nehmen, weil sie z. B. darin<br />
begründet sein können, dass bei der Bildung statischer<br />
UrLs Fehler gemacht werden.<br />
Abb. 1: Eine Website crawlen lassen<br />
Der Autor<br />
Markus Hövener ist<br />
Chefredakteur des<br />
Magazins suchradar <strong>und</strong><br />
geschäftsführender<br />
Gesellschafter der<br />
SEO-/SEM-Agentur<br />
Bloofusion Germany.<br />
E-Mail:<br />
markus@suchradar.de<br />
Twitter:<br />
@bloonatic