SEO Portal

SISTRIX Optimizer: Neue Analyse inkl. Experten-Modus

Vor etwa 5 Wochen erschien der „Optimizer“ als neues Modul in der SISTRIX Toolbox. In Kürze wird für dieses Modul ein umfangreiches Update mit einer Erweiterung erscheinen. Der neue Tab „Analyse“ enthält wichtige Informationen zur Seitenstruktur die bislang in der Onpage-Analyse einer Website noch fehlten.

In diesem Preview zeige ich euch die Funktionen der neuen Analyse. Ich möchte darauf hinweisen, hier kein fertiges Feature zu zeigen. In einigen Tagen wird die Funktion für alle Kunden mit diesem Modul freigegeben. Bis dahin wird es noch erweitert und verbessert. Wünsche und Anregungen sind außerdem über Kommentare möglich und werden durch die Verantwortlichen auch gelesen.

Ich werde in dem Artikel auch wieder Optimierungstipps für Leser einbinden. Also zwischen den Zeilen ein bisschen mitteilen, warum welche Verbesserung jetzt geprüft werden sollte usw.

SISTRIX Optimizer: Analyse

In der Analyse dreht sich alles um strukturelle – also auch technische – Gesichtspunkte. Die Analyse konzentriert sich auf Daten wie Klick-Ebenen, Ladezeiten, Dokumentengrößen, Linktexte (intern / extern), Content-Typen, Status-Codes und vieles mehr. Wie von mir gewohnt, gehe ich Schritt für Schritt die neuen Funktionen durch.

Ihr taucht in das neue Feature direkt über den Optimizer ein. Sofort informiert die Toolbox euch über einen bereitstehenden Experten-Modus. In diesen schaue ich weiter unten rein. Zuvor scrollt ihr eine Bildmeile nach unten. Dort findet ihr zwei neue Boxen. Die „Crawling-Auswertung“ und die „Verlinkungs-Auswertung“.

Die Crawling-Auswertung soll Auskunft darüber geben, ob Crawler von Suchmaschinen beim Besuch der Seite auf Hürden stoßen, oder ob alles reibungslos gecrawlt werden kann. Wichtig sind in diesem Bereich die folgenden Eigenschaften.

  • Klick-Ebenen
  • Seitenladezeiten
  • HTTP Status Codes
  • Datei-Seitengröße

Den meisten Lesern werden die vier Bereiche schon alles am Namen sagen. Für alle anderen gehe ich jetzt gerne darauf ein. Anhand einer ziemlich umfangreichen Seite (seht ihr ja an den gecrawlten Seiten in der Navigation oben) bekommt man da auch ordentlich viele Informationen.

Klick-Ebenen

Auf dem Screenshot sieht man ja bereits einen Ausschnitt der Daten zu den Klick-Ebenen. Da dies die erste Funktion ist, beginnen wir auch hier. Wie gesagt, wir befinden uns noch nicht im Experten-Modus. Die Auswertung in der einfachen Ansicht ist sehr minimalistisch. Hier wird einzig eine Tabelle angezeigt, der man entnehmen kann wie tief die Seiten der Domain verschachtelt sind. Trotz der einfachen Darstellung kann man aber durchaus schon wichtige Schlüsse ziehen.

Wir wissen ja, je tiefer wichtige Seiten verschachtelt werden, desto schwieriger „kann“ ein gutes Ranking werden. Außerdem deutet eine tiefe Verschachtelung immer auch auf eine komplizierte Navigation auf einer Website hin. In diesem Fall handelt es sich um einen Shop. Die meisten Seiten sind die Produkte und genau diese befinden sich mehrheitlich in Ebene 4 und Ebene 5. Ein Blick auf den Shop bestätigt den Verdacht und das Potential.

Seiten-Ladezeiten

Ladezeiten muss ich eigentlich nicht extra erklären. Seiten die langsame Ladezeiten haben, sind nicht optimal für gute Ergebnisse in Suchmaschinen. Das Thema „Page Speed“ wurde in 2011 und 2012 hinreichend diskutiert. Mit dieser kleinen Auswertung kann man aber schon sehen in welche Richtung die Performance der Seite selbst geht.

Wieder habe ich auf der Grafik einen Bereich rot markiert. Ab einer Ladezeit von 0,2 Sekunden sollte man meiner Ansicht nach genau hinschauen, wenn die absolute Mehrheit der sonstigen Seiten „erheblich“ schneller ist. 95,2 Prozent aller Seiten laden schneller als in 0,2 Sekunden. Lädt eine Website insgesamt fast ausschließlich in 0,2 – 0,4 Sekunden, muss man natürlich eher weiter hinten recherchieren. Wobei ich 0,4 Sekunden als Ladezeit schon grenzwertig finde.

HTTP Status Codes

Die Status-Codes domainweit abzufragen finde ich äußerst sinnvoll und wichtig. Wie schnell schleicht sich mal ein interner Fehler ein. Hier den Überblick zu haben ist für mich Pflicht. Alles was keinen Status 200 auswirft sollte man ansehen. Bei 301-Weiterleitungen hat man entweder selbst was eingerichtet, oder vom System. Beispielsweise bei neuen URLs von Unterseiten, werden die alten automatisch umgeleitet.

Nicht alle Status-Codes sind immer plausibel. Deshalb ist diesmal ein grüner Rahmen um den Normalwert. Liegt jedoch ein 500er oder 40x Status vor, sollte man wirklich hinschauen. Fehlerseiten sollen 404 ausgeben, schon richtig, aber will man Fehlerseiten überhaupt, wäre es nicht schöner man würde sein Projekt pflegen und Fehlerseiten immer ausradieren? 🙂 Eben, da hilft die Tabelle für den Überblick und Details gibt es im Experten-Modus.

Seitengröße

Ladezeiten, Klickpfade und Seitengrößen, drei unheimlich wichtige KPIs in der Onpage-Optimierung. Zu große Dokumente sind oft auch langsame Dokumente. Zu groß = zu schwer = für den Crawler nicht zumutbar. Natürlich erst bei einer sehr überdimensionierten Größe. Mit der Toolbox die Größe aller Seiten einer Domain zu analysieren hat aber den Vorteil, schnell „Ausreißer“ zu finden.

Über 1.000 Seiten sind sehr, sehr klein und somit 3 Prozent aller gecrawlten Seiten. Mit Hilfe des Experten-Modus findet man ganz schnell heraus woran das liegt. Ich habe kurz geschaut und gesehen: Status Codes. Die ganzen Seiten sind entweder Weiterleitungen oder anderweitig abnorm. Dies bearbeitet sich also automatisch, wenn man bei den Status Codes noch aufräumt.

Ansonsten finde ich viele Seiten die eher groß (rot) sind, obwohl zuvor noch sehr viele Seiten in einer kleineren (grün) Größe zu sehen sind. Das deutet entweder auf komplett verschiedene Template-Typen (Produkte, Kategorien, Galerien, Content-Seiten etc.) hin oder auf echtes Optimierungspotential. Alles was rot ist „kann“ eventuell auf eine Größe der grünen Seiten getrimmt werden. Sollte man sich näher anschauen.

Machen wir bei den internen und externen Verlinkungen und deren Linktexten weiter. Kommen wir zu „Verlinkungs-Auswertung“. Auf der Grafik könnt ihr wieder die vier wichtigen Bereiche sehen.

  • Linktexte intern
  • Linktexte extern
  • Linkziele intern
  • Linkziele extern

Und um diese vier Bereiche wird es jetzt gehen. Links sind wichtig keine Frage, können aber auch ziemlich chaotische Ausmaße annehmen. Mit der Toolbox soll man nun analysieren können, ob „Unterseiten der Domain gut erreichbar“ sind und welche Bereiche einer Website ggf. nicht ausreichend verlinkt werden. Wir analysieren also in erster Linie die Juice / Trust-Verteilung auf der Domain.

Linktexte intern

Auf dem nächsten Screenshot der Basis-Auswertung musste ich ein bisschen schneiden um auch Linktexte drauf zu kriegen, die nicht so oft verlinkt sind. Was aber direkt auffällt ist das fehlende Impressum. Auf der Seite ist das Impressum integriert, ja. Allerdings scheint es nicht von jeder URL aus erreichbar zu sein, denn es ist bis hinunter zur Startseite nicht auffindbar. Wo andere Linktexte über 34.000 x erscheinen, sollte eigentlich das Impressum auch ziemlich oft durchdringen.

Das mit dem Impressum sollte man prüfen. Auch sollte man schauen warum „Startseite“ so oft, aber im Verhältnis dann wieder so selten verlinkt wird. Macht zumindest in der Auswertung hier einen komischen Eindruck. Was man festhalten kann, die wichtigen Hersteller sind stark verlinkt. Das deutet auf die Navigation hin (ist es auch), wo die Hersteller als Kategorien im Shop zu finden sind. Bei der Anzahl der Links unterscheiden sie sich nur minimal. Da die Seite auch einen Blog besitzt, der nicht die Shop-Navigation hat, kann es sein das der eine oder andere Hersteller dort bevorzugt verlinkt wurde. Oder interne Links im Shop-Content etc.

In jedem Fall ist es nicht ganz uninteressant und man sollte man recherchieren wo das Impressum vielleicht fehlt.

Weitere Link-Features

Es können außerdem die drei anderen, oben genannten Inhalte analysiert werden. Euch jede zu zeigen wäre übertrieben. Bei den externen Linktexten wird man zum Beispiel bei vielen Seiten „Tweet“ oder „Facebook Fanseite“ vorfinden. Da ja doch viele Seiten einen Tweet-Button und eine Share-Box integriert haben. Allerdings sieht man auch schnell wenn irgendwo Sidewide-Links zu anderen Seiten drin sind. Also eigene, verkaufte oder getauschte Links. Betrachtet man die letzten beiden Features (Linkziele int./ext.), erhält man eben nicht mehr die Begriffe, sondern direkt die URLs. Sowohl intern, was dann im Beispiel vorwiegend die URLs zu den Kategorien der Hersteller wären, als auch extern, wo dann Twitter & Co. verlinkt werden.

Der Experten-Modus

Verlassen wir mal die kleinen Übersichten und gehen in den Experten-Modus. Die Experten-Ansicht kennen viele Leser aus dem Link-Modul, wo sie auch seit vielen Monaten integriert ist und das Arbeiten deutlich vereinfacht. Nach identischem Prinzip funktioniert der Experten-Modus im Analysebereich des Optimizer.

Als erstes würde ich raten, mal die komplette Navigation der Tabelle anzusehen, also den Tabellenkopf. Dazu klickt bitte mal unter diesem Satz auf das kleine Bild und dann viel Spaß beim quer scrollen. 🙂

URLs analysieren

Grundsätzlich kann man jede Spalte der Tabelle auf- und absteigend sortieren – funktioniert im Moment jetzt noch nicht – und so die Daten anzeigen, die man sehen will. Richtig gut wird es aber nur mit Filtern. Es bringt ja nichts die Seiten nach Größe aufsteigend zu sortieren, wenn ich ab 2.000 Byte sehen will, aber dann bei 0 Byte anfangen muss. Aus diesem Grund spielen Filter hier wieder eine große Rolle. Suchen wir uns mal alle Seiten größer als 5.000 Byte.

Ich würde gerne große und eher langsame Seiten finden, die zu einem bestimmten Keyword ranken sollen. Dass eine Seite ranken soll, ist ja i.d.R. am Seitentitel zu erkennen. Ist das Keyword im Seitentitel, ist die Seite dafür vorgesehen in Google damit zu ranken. Ausnahmen bestätigen die Regel, aber meistens sollte man sonst darüber nachdenken seine Title-Struktur anzupassen. 😉 Entsprechen nehme ich zum Größenfilter jetzt den Titel-Filter noch hinzu und trage ein wichtiges Keyword ein.

Jetzt haben wir schon mal die größeren Seiten zu Keyword X. Nun will ich es weiter einschränken und nur die langsamen Seiten finden. Langsam ist für mich alles ab 0,4 Sekunden Ladezeit. Also setzen wir den Zeit-Filter mit drauf.

Insgesamt haben wir nun also alle Seiten die den gewünschten Begriff im Titel haben. Außerdem sind die Seiten nicht besonders schnell. Denn wir haben in der Basis-Ansicht ja bereits gesehen, dass die Masse der Seiten in 0,1 Sekunden lädt. Dank der verschiedenen Filter ist jetzt also möglich sich all die Seiten anzeigen zu lassen die langsamer sind.

Oben auf dem Bild habt ihr ja die verschiedenen Filter gesehen. Alle sind miteinander zu kombinieren. Ich möchte das jetzt weiter fortsetzen, denn ich denke ihr könnt selbst darüber nachdenken was machbar ist. 🙂

Links analysieren

Eine Tabelle wie bei den URL-Strukturen gibt es auch bei den Links. Dazu steht oben in der typisch blauen Navigation der Button „Links“ zur Verfügung. Euch erwartet dann die folgende Tabelle.

Links haben wieder eigene Filter – logisch, sortiert mal einen Link nach Ladezeit und Bytes – und die können miteinander gut verbunden werden. Ihr könnt also problemlos schauen, welche internen Links mit welchem Keyword wo hin verlinken.

Filtern wir mal intern nach Linktext um zu sehen, wohin mein Juice in der Seite zu diesem Keyword fließt. Das ist wichtig um zu erkennen, ob eventuell Seiten mit dem Suchbegriff verlinkt werden, die ich eigentlich gar nicht im Ranking brauche. Normal sollten in meiner Tabelle jetzt nur fürs Ranking relevante, interne Links zu Zielseiten erscheinen. Da die Tabelle immer ein „Von“ und „Nach“ zeigt, ist jeder Link perfekt nachvollziehbar und bedarf keinerlei Glaskugel.

Damit aber genug der Beispiele.

Fazit

Der Optimizer allein ist schon sehr gut gewesen. Die „Analyse“-Funktion ist eine sehr wichtige Erweiterung um tiefere Analysen zu machen. Wo bisher nur Fehler, Warnungen und Tipps anfielen, kann man jetzt auch Strukturen analysieren. Sowohl die Filter bei den Links, als auch die bei den URLs, sind sinnvoll. Mit den Filtern kann man bequem große Seiten analysieren, auch über die 10.000 Seiten hinaus ist das gar kein Problem.

In wenigen Tagen wird die neue Funktion allen Kunden mit entsprechendem Modul zur Verfügung stehen. Und um das einzugrenzen kann ich beruhigt mitteilen, spätestens in der nächsten Woche. 🙂 Früher geht natürlich immer.

Über das künftige Preismodell kann ich nichts sagen – weiß ich nichts. Ich weiß aber, dass man kostenfrei den Expertenmodus für 1 Projekt freischalten kann. Außerdem wird für das Projekt dann eine Crawler-Tiefe von 100.000 Seiten aktiviert. Es lohnt sich dann also, kurz darüber nachzudenken für welches Projekt man das neue Feature aktiviert. In Zukunft wird man auch die Analyse für alle Projekte machen können – sofern man das möchte. Hier greift dann ein neues, mir unbekanntes, Preismodell.

Weiterführende Links

Du möchtest aktuelle Informationen rund um Online-Marketing? Jetzt kostenlos eintragen.
Über eisy 523 Artikel
Hi, ich bin eisy (Soeren Eisenschmidt) und blogge seit 2007 auf eisy.eu. Meinen Weblog fülle ich bevorzugt mit Fachthemen rund um SEO, Affiliate-Marketing und relevanter Software. Regelmäßig ist mein Wissen bei Print- und Online-Magazinen gefragt.

13 Kommentare zu SISTRIX Optimizer: Neue Analyse inkl. Experten-Modus

  1. Hallo Eisy,
    wieder ein sehr ausführlicher und gut beschriebener Artikel! Dein Report macht Lust auf mehr . Die Funktionalität sieht wirklich sehr gut aus. Besonders gefällt mir die Ladenzeit und Klick tiefen Statistiken.
    Und endlich machen sich die „Großen“ die Mühe, Statistiken und Analysen von OnPage Faktoren genauer zu untersuchen.

    • Danke 🙂

      Es macht eindeutig Sinn, sich als Tool-Anbieter intensiv mit Onsite-Faktoren zu befassen. Dieses Jahr ist es ja ein richtiges Hype-Thema. Da kann man schnell den Anschluss verlieren. Wobei letzteres für die Toolbox eher nicht gilt, schließlich geht man da seit der Campixx 2012 in diese Richtung.

      Ich schließe mich Dir da an. Es ist schön das die Tools diesen Bereich bis ins Detail aufnehmen. Für uns als Anwender stellt sich halt nur langsam immer mehr die Frage, welches Tool man eigentlich nehmen soll. 😀

  2. Hallo Eisy,

    da haben wir ja wiedereinmal eine sehr ausführliche Dartsellung des neuen „Optimizer“ Modules. So langsam könnte Sistrix wirklich interessant werden, vor allem wegen der „OnPage“ Faktoren. Mir ist allerdings schleierhaft, wie bis Dato auf solche Analysen seitens der SEO-Tool Anbieter verzichtet werden konnte … als ob „OnPage“-Optimierung erst seit neuestem von Relevanz ist.

  3. Als ich die Alpha getestet habe, habe ich gedacht „Mensch, 10.000 Seiten. Für mich nicht ausreichend, aber deutlich besser als nix.“ Jetzt liegen wir bei 100T Seiten für ein Projekt und es reicht mir immer noch nicht.

    @mitlesende Sistrixianer: Kann man da nicht was drehen, dass man das z.B. variabel zahlt? Würde mir sehr entgegen kommen, da ich sonst immer das Gefühl habe, dass das Modul nicht alle Infos erfasst und darstellt, die verfügbar (und für mich evtl. wichtig) wären…

    Gruß

    – Andreas

    • Technisch ist das kein Problem und auch (deutlich) größere Seiten können umfassend gecrawlt werden. Bevor wir das anbieten können, müssen wir allerdings zum einen schauen, in welchem Preismodell so etwas laufen kann und zum anderen sinnvolle Wege finden, die so regelmäßig auflaufenden Datenmengen auch sinnvoll nutzbar zu machen. So haben wir bei einer großen deutschen Zeitung beispielsweise bei 100k gecrawlten Seiten mehr als 17 Millionen (!) Links gefunden. Solche Datenmengen müssen anders aufbereitet und dargestellt werden als das bei eher kleinen Domains der Fall ist.

      • Danke Johannes, das sind natürlich Dimensionen, die man wirklich erst mal handeln muss. Bin schon gespannt auf die Lösung und bis dahin gedulde ich mich gerne 🙂

        Gruß

        – Andreas

  4. Die Analysefunktion sieht sehr interessant aus. Vor allem der Expertenmodus wird praktisch sein, denn dann muss man nicht erst einen Export machen sondern kann dort direkt filtern.

  5. In den Projekt-Einstellungen findet sich nun übrigens ein Button, um die erweiterte Analyse sowie das Crawling von bis zu 100.000 Seiten für ein Projekt freizuschalten. Viel Spaß damit 🙂

  6. Danke für den Artikel! Er hilft nicht nur, eine genauere Vorstellung über das Produkt zu bekommen, sondern vermittelt, welche die wichtigsten Aspekte von der Optimierung von einer Internetseite sind. In diesem Sinne ist der Artikel sehr sinnvoll, absolut hilfreich und Vertrauen erweckend.
    Für mich persönlich ist die Hilfe beim Linksaufbau auf der Seite sehr wichtig. Ist irgendwann auch die Funktion „On page Analyse“ ähnlich wie beim Google Analytics zu erwarten?

5 Trackbacks & Pingbacks

  1. SISTRIX Optimizer: Analyse und Experten-Modus – SEO.at
  2. SEO-Woche: OnPage, Keyword-Tags, Google News Tricks, Webmaster Tools, Linkabbau, und, und, und - SEO Book | SEO Book
  3. Wochenrückblick KW38: Greift SEO in Persönlichkeitsrechte ein?
  4. Top 10 der Woche 38/12 « Wochenrückblicke
  5. SEO-News des Monats 09/12 « Wochenrückblicke

Kommentar hinterlassen

E-Mail Adresse wird nicht veröffentlicht.


*