SISTRIX Optimizer: Neue Analyse inkl. Experten-Modus

Vor etwa 5 Wochen erschien der „Optimizer“ als neues Modul in der SISTRIX Toolbox. In Kürze wird für dieses Modul ein umfangreiches Update mit einer Erweiterung erscheinen. Der neue Tab „Analyse“ enthält wichtige Informationen zur Seitenstruktur die bislang in der Onpage-Analyse einer Website noch fehlten.

In diesem Preview zeige ich euch die Funktionen der neuen Analyse. Ich möchte darauf hinweisen, hier kein fertiges Feature zu zeigen. In einigen Tagen wird die Funktion für alle Kunden mit diesem Modul freigegeben. Bis dahin wird es noch erweitert und verbessert. Wünsche und Anregungen sind außerdem über Kommentare möglich und werden durch die Verantwortlichen auch gelesen.

Ich werde in dem Artikel auch wieder Optimierungstipps für Leser einbinden. Also zwischen den Zeilen ein bisschen mitteilen, warum welche Verbesserung jetzt geprüft werden sollte usw.

SISTRIX Optimizer: Analyse

In der Analyse dreht sich alles um strukturelle – also auch technische – Gesichtspunkte. Die Analyse konzentriert sich auf Daten wie Klick-Ebenen, Ladezeiten, Dokumentengrößen, Linktexte (intern / extern), Content-Typen, Status-Codes und vieles mehr. Wie von mir gewohnt, gehe ich Schritt für Schritt die neuen Funktionen durch.

Ihr taucht in das neue Feature direkt über den Optimizer ein. Sofort informiert die Toolbox euch über einen bereitstehenden Experten-Modus. In diesen schaue ich weiter unten rein. Zuvor scrollt ihr eine Bildmeile nach unten. Dort findet ihr zwei neue Boxen. Die „Crawling-Auswertung“ und die „Verlinkungs-Auswertung“.

Die Crawling-Auswertung soll Auskunft darüber geben, ob Crawler von Suchmaschinen beim Besuch der Seite auf Hürden stoßen, oder ob alles reibungslos gecrawlt werden kann. Wichtig sind in diesem Bereich die folgenden Eigenschaften.

  • Klick-Ebenen
  • Seitenladezeiten
  • HTTP Status Codes
  • Datei-Seitengröße

Den meisten Lesern werden die vier Bereiche schon alles am Namen sagen. Für alle anderen gehe ich jetzt gerne darauf ein. Anhand einer ziemlich umfangreichen Seite (seht ihr ja an den gecrawlten Seiten in der Navigation oben) bekommt man da auch ordentlich viele Informationen.

Klick-Ebenen

Auf dem Screenshot sieht man ja bereits einen Ausschnitt der Daten zu den Klick-Ebenen. Da dies die erste Funktion ist, beginnen wir auch hier. Wie gesagt, wir befinden uns noch nicht im Experten-Modus. Die Auswertung in der einfachen Ansicht ist sehr minimalistisch. Hier wird einzig eine Tabelle angezeigt, der man entnehmen kann wie tief die Seiten der Domain verschachtelt sind. Trotz der einfachen Darstellung kann man aber durchaus schon wichtige Schlüsse ziehen.

Wir wissen ja, je tiefer wichtige Seiten verschachtelt werden, desto schwieriger „kann“ ein gutes Ranking werden. Außerdem deutet eine tiefe Verschachtelung immer auch auf eine komplizierte Navigation auf einer Website hin. In diesem Fall handelt es sich um einen Shop. Die meisten Seiten sind die Produkte und genau diese befinden sich mehrheitlich in Ebene 4 und Ebene 5. Ein Blick auf den Shop bestätigt den Verdacht und das Potential.

Seiten-Ladezeiten

Ladezeiten muss ich eigentlich nicht extra erklären. Seiten die langsame Ladezeiten haben, sind nicht optimal für gute Ergebnisse in Suchmaschinen. Das Thema „Page Speed“ wurde in 2011 und 2012 hinreichend diskutiert. Mit dieser kleinen Auswertung kann man aber schon sehen in welche Richtung die Performance der Seite selbst geht.

Wieder habe ich auf der Grafik einen Bereich rot markiert. Ab einer Ladezeit von 0,2 Sekunden sollte man meiner Ansicht nach genau hinschauen, wenn die absolute Mehrheit der sonstigen Seiten „erheblich“ schneller ist. 95,2 Prozent aller Seiten laden schneller als in 0,2 Sekunden. Lädt eine Website insgesamt fast ausschließlich in 0,2 – 0,4 Sekunden, muss man natürlich eher weiter hinten recherchieren. Wobei ich 0,4 Sekunden als Ladezeit schon grenzwertig finde.

HTTP Status Codes

Die Status-Codes domainweit abzufragen finde ich äußerst sinnvoll und wichtig. Wie schnell schleicht sich mal ein interner Fehler ein. Hier den Überblick zu haben ist für mich Pflicht. Alles was keinen Status 200 auswirft sollte man ansehen. Bei 301-Weiterleitungen hat man entweder selbst was eingerichtet, oder vom System. Beispielsweise bei neuen URLs von Unterseiten, werden die alten automatisch umgeleitet.

Nicht alle Status-Codes sind immer plausibel. Deshalb ist diesmal ein grüner Rahmen um den Normalwert. Liegt jedoch ein 500er oder 40x Status vor, sollte man wirklich hinschauen. Fehlerseiten sollen 404 ausgeben, schon richtig, aber will man Fehlerseiten überhaupt, wäre es nicht schöner man würde sein Projekt pflegen und Fehlerseiten immer ausradieren? 🙂 Eben, da hilft die Tabelle für den Überblick und Details gibt es im Experten-Modus.

Seitengröße

Ladezeiten, Klickpfade und Seitengrößen, drei unheimlich wichtige KPIs in der Onpage-Optimierung. Zu große Dokumente sind oft auch langsame Dokumente. Zu groß = zu schwer = für den Crawler nicht zumutbar. Natürlich erst bei einer sehr überdimensionierten Größe. Mit der Toolbox die Größe aller Seiten einer Domain zu analysieren hat aber den Vorteil, schnell „Ausreißer“ zu finden.

Über 1.000 Seiten sind sehr, sehr klein und somit 3 Prozent aller gecrawlten Seiten. Mit Hilfe des Experten-Modus findet man ganz schnell heraus woran das liegt. Ich habe kurz geschaut und gesehen: Status Codes. Die ganzen Seiten sind entweder Weiterleitungen oder anderweitig abnorm. Dies bearbeitet sich also automatisch, wenn man bei den Status Codes noch aufräumt.

Ansonsten finde ich viele Seiten die eher groß (rot) sind, obwohl zuvor noch sehr viele Seiten in einer kleineren (grün) Größe zu sehen sind. Das deutet entweder auf komplett verschiedene Template-Typen (Produkte, Kategorien, Galerien, Content-Seiten etc.) hin oder auf echtes Optimierungspotential. Alles was rot ist „kann“ eventuell auf eine Größe der grünen Seiten getrimmt werden. Sollte man sich näher anschauen.

Machen wir bei den internen und externen Verlinkungen und deren Linktexten weiter. Kommen wir zu „Verlinkungs-Auswertung“. Auf der Grafik könnt ihr wieder die vier wichtigen Bereiche sehen.

  • Linktexte intern
  • Linktexte extern
  • Linkziele intern
  • Linkziele extern

Und um diese vier Bereiche wird es jetzt gehen. Links sind wichtig keine Frage, können aber auch ziemlich chaotische Ausmaße annehmen. Mit der Toolbox soll man nun analysieren können, ob „Unterseiten der Domain gut erreichbar“ sind und welche Bereiche einer Website ggf. nicht ausreichend verlinkt werden. Wir analysieren also in erster Linie die Juice / Trust-Verteilung auf der Domain.

Linktexte intern

Auf dem nächsten Screenshot der Basis-Auswertung musste ich ein bisschen schneiden um auch Linktexte drauf zu kriegen, die nicht so oft verlinkt sind. Was aber direkt auffällt ist das fehlende Impressum. Auf der Seite ist das Impressum integriert, ja. Allerdings scheint es nicht von jeder URL aus erreichbar zu sein, denn es ist bis hinunter zur Startseite nicht auffindbar. Wo andere Linktexte über 34.000 x erscheinen, sollte eigentlich das Impressum auch ziemlich oft durchdringen.

Das mit dem Impressum sollte man prüfen. Auch sollte man schauen warum „Startseite“ so oft, aber im Verhältnis dann wieder so selten verlinkt wird. Macht zumindest in der Auswertung hier einen komischen Eindruck. Was man festhalten kann, die wichtigen Hersteller sind stark verlinkt. Das deutet auf die Navigation hin (ist es auch), wo die Hersteller als Kategorien im Shop zu finden sind. Bei der Anzahl der Links unterscheiden sie sich nur minimal. Da die Seite auch einen Blog besitzt, der nicht die Shop-Navigation hat, kann es sein das der eine oder andere Hersteller dort bevorzugt verlinkt wurde. Oder interne Links im Shop-Content etc.

In jedem Fall ist es nicht ganz uninteressant und man sollte man recherchieren wo das Impressum vielleicht fehlt.

Weitere Link-Features

Es können außerdem die drei anderen, oben genannten Inhalte analysiert werden. Euch jede zu zeigen wäre übertrieben. Bei den externen Linktexten wird man zum Beispiel bei vielen Seiten „Tweet“ oder „Facebook Fanseite“ vorfinden. Da ja doch viele Seiten einen Tweet-Button und eine Share-Box integriert haben. Allerdings sieht man auch schnell wenn irgendwo Sidewide-Links zu anderen Seiten drin sind. Also eigene, verkaufte oder getauschte Links. Betrachtet man die letzten beiden Features (Linkziele int./ext.), erhält man eben nicht mehr die Begriffe, sondern direkt die URLs. Sowohl intern, was dann im Beispiel vorwiegend die URLs zu den Kategorien der Hersteller wären, als auch extern, wo dann Twitter & Co. verlinkt werden.

Der Experten-Modus

Verlassen wir mal die kleinen Übersichten und gehen in den Experten-Modus. Die Experten-Ansicht kennen viele Leser aus dem Link-Modul, wo sie auch seit vielen Monaten integriert ist und das Arbeiten deutlich vereinfacht. Nach identischem Prinzip funktioniert der Experten-Modus im Analysebereich des Optimizer.

Als erstes würde ich raten, mal die komplette Navigation der Tabelle anzusehen, also den Tabellenkopf. Dazu klickt bitte mal unter diesem Satz auf das kleine Bild und dann viel Spaß beim quer scrollen. 🙂

URLs analysieren

Grundsätzlich kann man jede Spalte der Tabelle auf- und absteigend sortieren – funktioniert im Moment jetzt noch nicht – und so die Daten anzeigen, die man sehen will. Richtig gut wird es aber nur mit Filtern. Es bringt ja nichts die Seiten nach Größe aufsteigend zu sortieren, wenn ich ab 2.000 Byte sehen will, aber dann bei 0 Byte anfangen muss. Aus diesem Grund spielen Filter hier wieder eine große Rolle. Suchen wir uns mal alle Seiten größer als 5.000 Byte.

Ich würde gerne große und eher langsame Seiten finden, die zu einem bestimmten Keyword ranken sollen. Dass eine Seite ranken soll, ist ja i.d.R. am Seitentitel zu erkennen. Ist das Keyword im Seitentitel, ist die Seite dafür vorgesehen in Google damit zu ranken. Ausnahmen bestätigen die Regel, aber meistens sollte man sonst darüber nachdenken seine Title-Struktur anzupassen. 😉 Entsprechen nehme ich zum Größenfilter jetzt den Titel-Filter noch hinzu und trage ein wichtiges Keyword ein.

Jetzt haben wir schon mal die größeren Seiten zu Keyword X. Nun will ich es weiter einschränken und nur die langsamen Seiten finden. Langsam ist für mich alles ab 0,4 Sekunden Ladezeit. Also setzen wir den Zeit-Filter mit drauf.

Insgesamt haben wir nun also alle Seiten die den gewünschten Begriff im Titel haben. Außerdem sind die Seiten nicht besonders schnell. Denn wir haben in der Basis-Ansicht ja bereits gesehen, dass die Masse der Seiten in 0,1 Sekunden lädt. Dank der verschiedenen Filter ist jetzt also möglich sich all die Seiten anzeigen zu lassen die langsamer sind.

Oben auf dem Bild habt ihr ja die verschiedenen Filter gesehen. Alle sind miteinander zu kombinieren. Ich möchte das jetzt weiter fortsetzen, denn ich denke ihr könnt selbst darüber nachdenken was machbar ist. 🙂

Links analysieren

Eine Tabelle wie bei den URL-Strukturen gibt es auch bei den Links. Dazu steht oben in der typisch blauen Navigation der Button „Links“ zur Verfügung. Euch erwartet dann die folgende Tabelle.

Links haben wieder eigene Filter – logisch, sortiert mal einen Link nach Ladezeit und Bytes – und die können miteinander gut verbunden werden. Ihr könnt also problemlos schauen, welche internen Links mit welchem Keyword wo hin verlinken.

Filtern wir mal intern nach Linktext um zu sehen, wohin mein Juice in der Seite zu diesem Keyword fließt. Das ist wichtig um zu erkennen, ob eventuell Seiten mit dem Suchbegriff verlinkt werden, die ich eigentlich gar nicht im Ranking brauche. Normal sollten in meiner Tabelle jetzt nur fürs Ranking relevante, interne Links zu Zielseiten erscheinen. Da die Tabelle immer ein „Von“ und „Nach“ zeigt, ist jeder Link perfekt nachvollziehbar und bedarf keinerlei Glaskugel.

Damit aber genug der Beispiele.

Fazit

Der Optimizer allein ist schon sehr gut gewesen. Die „Analyse“-Funktion ist eine sehr wichtige Erweiterung um tiefere Analysen zu machen. Wo bisher nur Fehler, Warnungen und Tipps anfielen, kann man jetzt auch Strukturen analysieren. Sowohl die Filter bei den Links, als auch die bei den URLs, sind sinnvoll. Mit den Filtern kann man bequem große Seiten analysieren, auch über die 10.000 Seiten hinaus ist das gar kein Problem.

In wenigen Tagen wird die neue Funktion allen Kunden mit entsprechendem Modul zur Verfügung stehen. Und um das einzugrenzen kann ich beruhigt mitteilen, spätestens in der nächsten Woche. 🙂 Früher geht natürlich immer.

Über das künftige Preismodell kann ich nichts sagen – weiß ich nichts. Ich weiß aber, dass man kostenfrei den Expertenmodus für 1 Projekt freischalten kann. Außerdem wird für das Projekt dann eine Crawler-Tiefe von 100.000 Seiten aktiviert. Es lohnt sich dann also, kurz darüber nachzudenken für welches Projekt man das neue Feature aktiviert. In Zukunft wird man auch die Analyse für alle Projekte machen können – sofern man das möchte. Hier greift dann ein neues, mir unbekanntes, Preismodell.

Weiterführende Links

Soeren
Ich bin Soeren, Blogger und Betreiber von eisy.eu. Über die Jahre hat es sich ergeben, dass mich viele einfach eisy nennen. Das ist okay. :-) Ich blogge seit 2005 und teile hier mein Wissen und meine Erfahrungen.