Wichtige Durchsage: Captain OnPage.org, bitte zum Testbericht

Vor ein paar Monaten hatten wir alle (alle die, die sie hatten) die Möglichkeit auf der Domain „onpage.org“ erstmals einen Bayern, verkleidet in einem Superhelden ähnlichen Outfit zu sehen. Seither stand Webmastern bei OnPage.org nur ein Anmeldeformular für die Beta-Phase zur Verfügung. Zutritt? Untersagt. Im ausgewählten Kreise fanden sich einige Testpersonen um die geschlossen Beta anzutreiben, dies deuteten ja verschiedene kleine Screenshots auf Facebook an. Heute ist alles ein bisschen anders, denn heute muss Captain OnPage.org zum TÜV!

Der OnPage.org Testbericht

Heute möchte ich den Testbericht von OnPage.org veröffentlichen und somit zeigen, wie der aktuelle Stand der Beta-Version ist. Welche Funktionen euch in diesem Tool erwarten und welchem Einsatzzweck das Tool dient. Schließlich bringt alle Neugierde auf ein Tool nichts, wenn man so gar nichts darüber weiß. In der Hoffnung, hier erneut einen guten Testbericht zu publizieren (Ergebnis offen, ich Teste und schreibe ja stets live), geht’s jetzt los.

Die Website verrät über das Projekt (Tool) rein gar nichts. Einzig der Name lässt darauf schließen, es könne um Onpage-Optimierung gehen. Mehr gibt es auf der Startseite nicht. Kommen wir daher ins Tool.

Dashbord

Wenn ihr eine neue Domain in OnPage.org eintragt, dauert es eine Weile und dann stehen euch alle wichtigen Daten zur Verfügung. Die Dauer der Erhebung liegt natürlich auch an der Performance eurer Seite und an der Größe. Habt ihr 1.000 Unterseiten dauert es einen Moment länger als bei Domains hinter denen nur 100 Seiten liegen. Laden eure Seiten in 0,4 Sekunden geht es schneller als bei schlechterer Performance. Man bekommt eine E-Mail sobald die Daten zur Verfügung stehen. Nach ca. 20 Minuten stehen schon Daten zur Verfügung. In der Zeit wo man vielleicht schon Daten anschaut, schiebt das Tool im Hintergrund immer mehr Daten rein. Nach spätestens 8 Stunden ist der Crawl beendet und man hat alles.

Anschließend rein ins Tool und erstmal das Dashboard überblicken. Wer generell nicht weiß wo er anfangen soll, scrollt bis „Größte Baustellen“ und legt los.

Server-Informationen

Zur Onsite Optimierung gehört eine anständige Reaktionszeit des Servers, eine gute Ladezeit der Website und natürlich ein sauberes Management für Weiterleitungen aller Statuscodes. All diese Informationen überwacht OnPage.org in der ersten Info-Box „Server“, wo für mich auch gleich 17 Fehler angezeigt werden.

Wenn man sehen möchte wie sich die Fehler auf die einzelnen Bereiche verteilen, kann man den Kopf der Box anklicken und bekommt eine schöne Übersicht. Man kann aber auch direkt über die Box in die Bereiche wechseln und das möchte ich jetzt machen. Mein erster Bereich sind die Status Codes, wo es für meine Website wahrscheinlich – allein schon wegen Affiliate-Cloaking – ein paar Sachen zu bereinigen gibt.

Alle fehlerhaften bzw. kritisierten Bereiche kann man auswählen und sich im Detail anschauen. Dort findet man die betroffenen URLs. Schauen wir als Beispiel mal in meine 302-Weiterleitungen. Diese werden übrigens bemängelt, weil die Methode nicht die optimalste aus technischer Sicht ist. Sie ist halt nur temporär, aber mal ehrlich, meine Affiliate-Links sind auch nur temporär. :-)

Wenn das für mich jetzt ein Fehler wäre, würde ich sofort erkennen welche URL gemeint ist und wohin die weiterleitet. Es ist für mich in dem Fall kein Fehler. Für solche Sachen wünsche ich mir für die Zukunft ein kleines Select Field, um diese Fehler auf die Domain bezogen als „gewillt“ zu markieren. Die Statistiken würden dann für meine Domain wesentlich positiver aussehen. Bei diversen Fehlern wie 404 sollte man diese Option jedoch nicht bereitstellen.

Die Antwortzeiten sind das nächste Thema. Hier gibt es solche, und solche Seiten. Meine Seite schneidet hier gut ab und die Antwortzeiten liegen alle innerhalb von einer Sekunde. Ich habe keine langsamen, sehr langsamen und auch keine Seiten mit Timeout. Da fällt dem Captain nur eines ein.

Hätte ich hier langsame Seiten, würden die Zeiten und URLs angezeigt, damit ich sofort weiß wo ich ansetzen muss.

Im nächsten Schritt – immer noch Bereich „Server“ – geht es um die Überwachung. Dabei wird geschaut ob die Seite immer erreichbar ist und welche Belastungsspitzen es gibt. Die Infos werden im Kleinformat auch auf dem Dashboard einer jeden Domain bereits angezeigt.

Bei mir sind die Antwortzeiten okay, aber es gibt schon auch so manch Spitze, der man ggf. mal nachgehen könnte.

Hier könnte man jetzt in den eigenen Logfiles noch Recherchen anstellen um die Gründe für solche Spitzenwerte zu erforschen. Das kann ein externes Tool einem so natürlich nicht abnehmen. Der Bereich Server ist damit abgeschlossen. Ich finde es sehr praktisch, da man sich hier – sofern man nicht noch viel, viel mehr Daten benötigt – ein weiteres Tool zur Überwachung der Erreichbarkeit sparen kann.

Meta-Daten

Okay, genug mit langen Ladezeiten beschäftigt, kommen wir zu den Meta-Tags, die einen wichtigen Bestandteil einer jeden umfassenden Suchmaschinenoptimierung darstellen. Der Bereich besteht aus Seitentitel, Beschreibung, Robots und Canonical. Wenn jemand Keywords vermisst, bitte altes Yahoo runterladen und dort optimieren. ;-) In meiner Box werden mir 136 Fehler angezeigt (extra für den Testbericht vorbereitet :P) und wir steigen direkt beim Seitentitel ein.

Seitentitel

Alle meine Seitentitel sind zu lang. Der Captain ist unzufrieden, zum Glück ereilte ihn das gleiche Problem wie Schildkröten, er kann seine Mimik nicht verändern. :-) Oberhalb der Anzahl der Fehler und den ganzen Balken, kann man zu den Problem wechseln. Dieses Prinzip ist bei allen Funktionen identisch.

Wechseln wir mal zu den langen Seitentiteln.

Die Erklärung zur Tabelle sollte ganz einfach sein. Die URL, dann der OnPage.org Wert, der die Stärke einer URL innerhalb der Website berechnet, ohne externe Einflüsse einzukalkulieren, sowie am Ende noch die Länge des Seitentitels in Zeichen inkl. Leerzeichen. Zur Anzahl der Zeichen möchte ich anmerken das man hier im Web unterschiedliche Grenzwerte findet. Die einen sagen 65 Zeichen sind das Limit, andere nennen dafür 70 und wieder andere haben ihre Grenze bei 80 Zeichen. Wobei 80 Zeichen heute tatsächlich begraben sind.

Ich vertrete auch eher die Ansicht der 70 Zeichen bzw. innerhalb dieser Anzahl gehe ich in Richtung „sieben Wörter im Titel“. Mit dem Grenzwert von 70 Zeichen liegt man sehr oft innerhalb der Schwelle die Google ansetzt. Denn Google zählt nicht die Zeichen sondern die Länge in Pixelbreite.

Ich habe auch den blauen Button „Download“ (auf dem Bild, oben rechts) mal aufgeklappt. Ihr seht, man kann die Tabelle jeweils als CSV oder Excel-Datei herunterladen oder sich auf Wunsch per E-Mail senden lassen. Das funktioniert soweit bei allen Datenbeständen.

Die Analyse der „Beschreibungen“ überspringe ich mal und wir wechseln direkt zu „Robots“. Ebenfalls noch immer im Bereich der Meta-Tags.

Ich habe mal die Übersicht und die Details zusammen auf einen Screenshot gepackt. Bei mir handelt es sich um ein typischen Klassiker unter den WordPress-Seiten.

Diese „?replytocom=X“ URLs kann man übrigens auch vernichten. Das WordPress SEO von Yoast bietet dafür eine Standardfunktion. Also einfach das Plugin installieren und aktivieren, dass diese URLs unterdrückt werden sollen. Dann verschwinden auch solche Fehler. Ansonsten würde hier bei vielen Domains noch Impressum, Datenschutz etc. stehen. Bei Shops die Versandkosten, Lieferzeiten usw. Eben all das, was man gerne auf Nofollow und ggf. Noindex stellt. Bei manch großen Brands findet man dadurch auch spannende SEM-Landingpages die auf Noindex sind, weil sie die gleichen Inhalte nutzen wie andere. Die werden meist nur für AdWords genutzt und daher ist organische Sichtbarkeit egal. Aber das nur am Rande.

Canonical

Canonical! Ein wichtiger Bereich in der Onsite Optimierung. Schließlich kann das Attribut bei korrektem Einsatz vor vielen Duplikaten und darauffolgenden Problemen schützen. Die Canonical-Tags einer Domain im Auge zu haben finde ich super. Die Art, wie sie hier aufgeteilt werden ist top. Man sieht Canonicals zu sich selbst, zu anderen URLs und zu ähnlichen URLs, außerdem noch URLs ohne Canonical.

Canonical-Tags zu sich selbst sind sicher die, die am häufigsten vorkommen. Schließlich setzt man heute fast immer pauschal den „zu sich selbst Tag“ ein, wo man keine andere URL nutzt. Die Tags zu anderen URLs nutzt man nur in bestimmten Situationen. Daher sollte man in alle Bereiche immer sehr genau reinschauen. Wichtig ist auch, Seiten zu kennen wo man den Tag nicht verwendet. Ich möchte auf dem Screenshot die Tags zu anderen Seiten zeigen.

Wie man sieht, setze ich den Canonical-Tag bei der Blätterfunktion innerhalb von Kategorien ein. Man darf den Tag aber nicht pauschal bei allen Blätterfunktionen nutzen. Die zweite Seite eines Artikels zu Beispiel, sollte man nicht unbedingt mit einem Canonical-Tag zur ersten Seite verweisen. Über den Einsatz muss man sich daher stets individuelle Gedanken machen. OnPage.org zeigt auch Canonical-Tags zu „ähnlichen Seiten“ an. In meinem Fall sind das wieder die dubiosen replytocom Seiten.

Das Grundprinzip der Fehleranalyse mit OnPage.org sollte jeder soweit verstanden haben. Ich muss dazu ja nicht bei jedem Seitentitel und jedem Canonical einzeln rein. Aus diesem Grund möchte ich hier noch die Übersicht aller „Navigationspunkte“ die im Moment verfügbar sind zeigen. Anschließend geht es mit einem neuen Bereich weiter.

Den Inhalt optimieren

Onsite bedeutet natürlich nicht nur alles am Quellcode, sondern auch alles was Texte sind. Überschriften, Text-Content usw. Im jetzt anstehenden Bereich „Inhalt“ werden solche Dinge analysiert. Steigen wir bei den Überschriften ein. Diese beziehen sich auf die H1 bis H4 Tags. Schon in der Übersicht bekommt man einen guten Eindruck davon, was ich falsch mache. ;-)

Die Kennzahl im farbigen Feld ist der Durchschnittswert für das Vorkommen eines Tags pro Seite. Wir wissen ja, der H1 Tag sollte auf einer URL nur einmalig vorkommen. Das ist im Grunde bei mir auch immer korrekt, aber wenn man ein WordPress Theme nicht „nach-optimiert“, kommt es schnell zu seltsamen Ergebnissen. Hat man die Überschriften eines Blogbeitrages auf H1, ist das richtig. Wird aber in Kategorien eine Anzahl von 10 Beiträgen ausgegeben und die Überschriften sind auch dort H1, wird es knifflig, dort sollte man eigentlich H2 oder H3 einsetzen. Solche Quellen findet man mit OnPage.org sehr schnell.

Man kann jede H1-Überschrift sich anzeigen lassen, oder direkt über den Button „Details“ einfach in eine Komplettübersicht springen.

Texteinzigartigkeit

Als nächstes wird die Einzigartigkeit vom Text-Content kontrolliert. So findet man vollständige Duplikate, aber auch ähnliche Seiten die nicht komplett übereinstimmen, aber vielleicht teilweise Textabschnitte einer anderen URL beinhalten.

Bei meiner Seite gibt es noch verschiedene Unterseiten, wo die Beschreibungen der Schildkrötenarten fehlen, die Unterseiten aber schon online sind. Und da dort nur „…“ drauf ist, habe ich öfters doppelte Inhalte. Interessant sind aber auch die Seiten mit einer geringen Texteinzigartigkeit. Hier liegt teilweise doppelter Inhalt vor.

Der nächste Punkt wären die Autorenverknüpfungen. Da habe ich auf meiner Domain jetzt keine drin. Ansonsten würde man dort sehen, welche Autoren und welche URLs zusammengehören. Solche Informationen sind interessant, da die Autorenanzeige auch in Google via Avatare umgesetzt wird und das die Klickrate erhöht. Anschließend kommt die „Dateigröße“. Ein Bereich den ich überspringe. Hier sieht man alle URLs, deren Dokumente zu groß sind.

Zu große und große Seiten kann man sich dann im Detail ansehen.

Keyword Monitoring

Ein weiterer spannender Bereich ist das Keyword Monitoring. Auch hier kann man viele Informationen rausziehen. Generell hat man im Keyword-Monitoring zwei Möglichkeiten. Man kann Keywords manuell importieren – also einfach per Hand eintragen – oder die Daten aus den Webmaster Tools exportieren und hochladen. So bekommt man auch CTR, Klicks etc. ausgeliefert.

Rankings in der Übersicht

Die Tabelle muss ich nicht erklären, daher hier gleich der Überblick über die Anzahl der Positionen und als zweites noch eine Übersicht über die Long Tails.

In einer weiteren Tabelle kann man sich die Wettbewerber mit verschiedenen Daten wie „Rankings, Ranking Pages etc.“ ansehen. Man kann all seine Rankings mit denen der Wettbewerber vergleichen. Das wird in einer neuen Tabelle gemacht. Alles was grün ist habe ich gewonnen und bei allen anderen ist der Konkurrent besser.

Links

Spannend und zugleich auch sehr wichtig, ist alles was mit internen Links zutun hat. Die interne Verlinkung entscheidet sehr viel über gute oder schlechte Rankings. Unter Umständen auch über gar keine Rankings. Man sollte wissen welchen Status Code ein Linkziel aufweist und welche Attribute bei Verlinkungen eingesetzt werden. Der Status ist für interne und externe Links bedeutsam. Auf tote Seiten zu verlinken macht nicht den achtsamsten Eindruck.

Die Anzahl der Links ist ein weiterer Menüpunkt. Hier kann man sich seine URLs anzeigen lassen und die dazugehörige Anzahl an internen, externen und ausgehenden Links anzeigen. Über den OnPage.org eigenen Juice-Wert, kann die interne Stärke der URL eingesehen werden. Nicht zwangsläufig muss die Startseite die stärkste Seite einer Domain sein. Ich habe auf nachfolgenden Bild mal die Tabelle nach Stärke sortiert und einen Ausschnitt zu zeigen.

Obwohl die Startseite, Impressum und verschiedene andere Seiten intern gleichermaßen über die Navigation verlinkt sind, ranken sie intern unterschiedlich. Was daran liegt, dass viele Unterseiten im Content noch extra Links erhalten. Das steigert die Wichtigkeit einer URL und macht sie intern stärker. Ich finde es gut, hier rein auf die interne Stärke blicken zu können. Die meisten anderen Tools legen den Stellenwert auf Backlinks von außen.

externe Linkziele

Weiter kann ich mir eine Liste mit allen Domains anzeigen lassen, die ich von meiner Seite aus verlinke. Sowohl alle Subdomains, als auch alle Domains. Die Auflistung zeigt mir nicht nur die Ziele, sondern auch die Anzahl, die Anchor Texte und die Herkunft des Links, also die Seite, von der aus ich die Zielseite verlinke. Eine kleine Flagge zeigt den Serverstandort der Zielseite. Auf einer eigenen Karte kann man die Verteilung der ausgehenden Links nach Standorten betrachten.

Linktexte

Interne Linktexte sind eine weitere wichtige Sache. Onsite-Optimierung ohne Beachtung der Linktexte ist Autofahren ohne Hupe in Ägypten – planlos! Wer eine Zielseite von URL 1 aus mit verschiedenen Linktexten verlinkt, bringt Google einfach durcheinander und setzt keine internen Prioritäten. Man sollte jede Seite immer nur mit einem einzigen Linktext pro Dokument verlinken. Was anderes ist es wenn man URL 1 von einer anderen URL aus mit einem neuen Linktext verlinkt. Wichtig ist nur, nicht zwei Linktexte innerhalb einer URL für eine identische Zielseite zu nutzen. Begeht man den Fehler wird es in OnPage.org übersichtlich dargestellt und man kann es direkt ausbessern.

Waisenkinder

Verwaiste Seiten und schlecht verlinkte Seiten sind entweder Kandidaten für ein Noindex, oder aber echt vergessen. Alternativ sind es Seiten die man gar nicht mehr braucht und löschen könnte. Verwaiste Seiten sind die, die intern gar nicht verlinkt werden. Solche Seiten kann OnPage.org finden und anzeigen. Die Entscheidung was damit passiert muss man selbst treffen.

Alles was mindestens einen internen Link hat ist eine „schlecht verlinkte“ Seite. Manchmal ist so, dass man eine Seite nur als Ergänzung zu einer anderen Seite anlegt und die Informationen darin eigentlich nur interessant sind, wenn man die Seite zuvor gelesen hat. Für solche Inhalte macht es nicht immer Sinn organisch gut zu ranken, aber sie sind trotzdem wichtig. Eventuell sollte man hier mit Noindex arbeiten.

Beim nächsten Thema lassen wir mal Prof. Mario Serpino sprechen.

Der Professor steht in allen Bereich mit seinem Rat bereit. Wenn ihr also mal nicht weiter wisst, einfach schauen was der Professor zu sagen hat. Auch ein Wiki wird es geben was immer weiter mit Inhalten gefüllt wird. Dort findet man auch Antworten und Erklärungen.

Bilder

Den Bereich „Bilder“ überspringe ich. Nicht weil er nicht gut ist, sondern weil es auch ein Bereich nach dem Prinzip „Fehler sichten, Fehler beheben“ ist. Und das kennen wir aus OnPage.org jetzt bereits. Bilder werden hier auf ALT-Tags, Status, Lokale Bilder und externe Bilderquellen untersucht. Ich denke da steigt jeder durch.

Architektur

Wo ich noch drauf eingehen möchte ist der Bereich der Seitenarchitektur. Die Seitenarchitektur ist sehr wichtig. Hier kommen Faktoren wie die Pfadlänge, URL-Länge und Parameter ins Spiel. Besonders Onlineshops mit tiefgehenden Kategorien und anschließend eingegliederten Produktseiten stoßen hier oft an ihre Grenzen. Aber auch die kleinste Installation von WordPress kann schon Alarmsignale auslösen. Denn WordPress hat so manch Ebene im Pfad die nicht sein muss. Die /category/ zum Beispiel. Kann man übrigens mit Yoast SEO auch löschen. ;-) Und damit steigen wir auch bei den Klickpfaden direkt ein.

Die Klickpfade die 5 bis 6 Ebenen haben sollte ich mir anschauen. Wie man sieht, ist das ein WordPress-Problem. Es wird die Autorenseite und dann noch die Blätterfunktion gesetzt. Das verlängert die URL immer weiter. Aber auch Pfade von Bildern werden analysiert und können zu lang sein. Vielleicht möchte Martin Mißfeldt irgendwann mal was dazu testen, in wie weit der Pfad eines Bildes auf das Ranking sich auswirkt.

Weiter gibt es die Analyse der Verzeichnis-Ebenen. Damit kann man übersichtlich analysieren, wie tief die Ebenen einer Website gehen. Man sollte nie vergessen, Ebenen sind eine Art Zeichen für die Priorisierung. Wer Inhalte in die letzte „Ecke“ seiner Seite einlagert, der möchte scheinbar nicht, das diese Inhalte gesehen werden. Lieber weniger Ebenen und dadurch alle Inhalte etwas wichtiger darstellen.

Blockierte Inhalte zeigt OnPage.org auch an. Sowohl Seiten, als auch Bilder. Dies sind Inhalte die der Google Crawler nicht aufrufen kann / darf. Es kann aber auch mal vorkommen das man Inhalte versehentlich sperrt und sich lange Zeit wundert warum in Google weit und breit nichts passiert. Für solche Sachen ist auch diese Funktion im Bereich Architektur sehr hilfreich.

Die Sitemap untersucht Captain OnPage.org auch. Er zeigt auch die Status Codes der darin eingetragenen Seiten mit an. Außerdem zeigt das Tool an, wenn und welche Seiten sich nicht in der Sitemap befinden. Einen Screenshot spare ich mir. Ihr könnt euch denken wie viele Seiten bei mir nicht in der Sitemap sind, oder? Alle! :-D

Länge der URLs

Wichtig. Wenn man den Aussagen von Matt glaubt, werden zu viele Keywords innerhalb einer URL geringer gewichtet. Hinzu kommt, dass kurze Domains laut einer Studie deutlich häufiger angeklickt werden als lange URLs. Aber was schreibe ich, das erzählt auch der Professor alles.

Die zu langen URLs kann man sich in einer Liste dann anzeigen lassen.

Jetzt kommen noch die GET-Parameter und Dateinamen. Manchmal weiß man gar nicht was man für Parameter auf der Seite hat. Das Tool zeigt alle an und auch die häufigsten. Ich denke ich brauche nicht erwähnen das dies bei mir „replytocom“ ist. Bei der Analyse der Dateinamen geht es um Sonderzeichen, Umlaute und Groß- und Kleinschreibweise.

Das war’s (fast)

Ihr könnt auch einfach alle eure URLs innerhalb einer Domain als Liste abfragen. Das macht keinen Sinn? Doch, denn hier kommt – wie ich finde – eine kleine Besonderheit des Tools. Ich habe im Testbericht einen Durchlauf (Workflow) von „Oben nach unten“ durch die einzelnen Fehlerquellen gezeigt. Das ist aber nur eine Vorgehensweise. Es gibt einen zweiten Weg. Man kann direkt in einer URL einsteigen und dann URL-basierend alle Fehler und Probleme analysieren. Im gezeigten Modus wurden ja fehlerbasierend alle URLs analysiert. Verstanden? :-) OnPage.org hat also 2 Workflows!

Wenn man in eine URL einsteigt – was bei jeder URL, egal wo im Tool, per Klick geht – bekommt man die folgende Ansicht.

Fazit

Eines kann ich sagen, Captain OnPage.org kommt durch den TÜV.

Als ich mich erstmals in OnPage.org einloggte fühlte ich mich in der ersten Vor-Verurteilung „Nicht noch ein Seitwert oder SEOmoz Clone“ ein bisschen bestätigt. Liegt an den Basics (die springen einen mit der Zeit automatisch ins Sichtfenster) die man vermittelt bekommt. So Fehler wie doppelte Seitentitel sind halt keine Besonderheit und kein Grund für mich, ein weiteres Tool zu bestellen. Hier muss ich mich aber selbst fragen, ob ich die richtige Zielgruppe bin. Jemand der kein Tool einsetzt in dem solche Punkte analysiert werden, ist bei OnPage.org nämlich goldrichtig. Und noch viel mehr an der richtigen Stelle ist die Person, die mit SEO sonst gar nicht viel am Hut hat und ein Tool sucht, von dem man sich „an die Hand“ nehmen lassen kann.

Ich muss aber mein Vorurteil auch beiseite legen. Ich habe den ersten Eindruck falsch auf mich wirken lassen. Nachdem ich mich einige Zeit mit den Inhalten befasst habe – und erst recht heute nach dem Testbericht (der ja immer live geschrieben wird, daher auch manchmal garantiert Schreibfehler hat ;)) sehe ich OnPage.org als Bereicherung. Das Tool reagiert auf Problemstellen sehr sensibel, geht beim Crawlen deutlich tiefer als ich es von anderen Tools bisher gesehen habe. Die Inhaltsanalyse mit den prozentualen Übereinstimmungen, die Klickpfade und zahlrieche andere Feature tragen ihren Teil dazu bei, hier von einem wertvollen Onpage-Tool zu sprechen. Die Anleitungen bzw. Ratschläge sind ebenfalls sehr gut. Und wenn man bedenkt, hier bald noch ein umfangreiches Wiki an der Hand zu haben, wird es noch hilfreicher.

Die zwei verschiedenen Workflows machen Spaß. Je nach Art einer Website macht das auch Sinn. Denn wenn mehrere Fehler auf einer URL sind, sollte man erst mal an der URL arbeiten und nicht pro Fehler handeln.

Open Beta Version

Vermutlich liest sowieso niemand mehr mit. Ich bremse euch auch nicht länger. Die Open-Beta wird vorerst auf 100 Leute beschränkt sein. Der Start der Open-Beta ist heute, nämlich jetzt gleich in wenigen Minuten. Ihr könnt euch also schon mal im neuen Fenster auf die Website von OnPage.org begeben. Parallel verfasst ihr einfach noch einen Kommentar hier im Blog, damit ich weiß das ihr da wart. :-) … Bei der Open-Beta läuft es nach dem „Wer zuerst kommt, optimiert zuerst“-Prinzip. Für die Registrierungsphase steht auf der Bestellseite ein entsprechendes Formular bereit. Sind 100 Registrierungen drin, erscheint nur noch ein Formular um sich für Updates anzumelden.

Also, auf zum Captain!

Jetzt kostenlos für meinen Nischenseiten-Newsletter anmelden

Über eisy (521 Artikel)
Hi, ich bin eisy (Soeren Eisenschmidt) und blogge seit 2007 auf eisy.eu. Meinen Weblog fülle ich bevorzugt mit Fachthemen rund um SEO, Affiliate-Marketing und relevanter Software. Regelmäßig ist mein Wissen bei Print- und Online-Magazinen gefragt.

71 Kommentare zu Wichtige Durchsage: Captain OnPage.org, bitte zum Testbericht

  1. So, da war ich und bin gespannt auf das Tool. :)

  2. Ich war hier und habe mich schon lange auf das Tool gefreut. Vielen Dank für den detaillierten Einblick. Das besagte Formular konnte ich leider nicht entdecken. Aber vielleicht erscheint das ja gleich noch.

  3. nun kann man es sich auch ganz offiziell buchen. 89 Euro pro Monat für eine Domain, das ist mir doch glatt zu wenig. Lieber 200 für ne Flatrate :-)

  4. Open-Beta = Early Adopter für € 89,90 pro Monat, für 3 Monate im Voraus? Oder sitze ich gerade auf meinem Kabel und habe etwas übersehen?

  5. Guter Artikel,

    onpage.org sollte man auf jeden Fall auf dem Schirm haben, zumal das ja noch die Beta ist.
    Die Jungx von TDP werden sicherlich dafür sorgen, dass das Ding #1 der deutschen Onpage Analyse Tools sein wird. Jedem dem Screaming Frog + Excel zu kompliziert ist, kann ich dieses Tool nur weiterempfehlen.

  6. Toller Testbericht!!! Da hat Tandler und Partner ein echt hilfreiches Tool geschaffen. Mal schauen, ob es in der Praxis so gut funktioniert, wie es verspricht…

  7. sind die 100 schon weg, ich konnte auch nur die ganz normale Registrierung sehen

  8. Das hast Du schon richtig gesehen Carsten. Wir haben halt doch recht hohe Kosten für Crawling & Crunching, so dass wir die 100 Open Beta Accounts leider nicht for free anbieten können. Dafür sichern wir den Open Beta Testern zu, dass dieser Preis auf Lebenszeit für Sie Bestand hat, egal wie hoch der letztendliche Preis später sein wird.

  9. Klasse Bericht, schön lang und umfangreich, das „Live-testen“ find ich eine sehr gute Idee. Zur Sache an sich kann ich mich leider Holger anschließen, im Moment finde ich 1 Domain zu wenig. Vielleicht gibts es ja bald ein Update auf Premium und mehr Domains.

  10. Hallo Marcus, passt schon… bei dem Umfang/den Auswertungen wie oben gesehen – kein Thema. Ich musste nur meine Definition von Open-Beta updaten.

  11. Eisy, ein heftig geiler Artikel. Herzlichen Glückwunsch!!! Den Import mit GWMT hab‘ ich bisher noch gar nicht gesehen, bei den vielen Funktionen bin ich erst bei der Hälfte angekommen. Da muss ich nochmal ran :)

    Gruß aus Stuttgart,

    Tobi

  12. Open Beta für 89,90€ im Monat, gehts noch….

  13. Wieviel Domains kann ich zukünftig mit dem Tool testen ? Auch nur 1 Domain pro Monat ?
    Wer bestellt sich denn sowas wenn er nur 1 Domain testen kann ??? Da bin ich dann in 2 Tagen durch mit testen und optimieren und was mach ich die restlichen Tage mit dem Tool ?
    Das wäre dann doch ein wenig Geld zum Fenster raus geworfen…

  14. @Carsten: Das ist richtig und sehen wir genau so. Es wird auch schon bald eine Möglichkeit geben weitere Domains hinzuzfügen. Um dies anbieten zu können fehlen uns aktuell leider valide Daten, die wir durch die Open-Beta ermitteln können. Selbstverständlich können SEOs mit einem Open-Beta Account dann auch Domains hinzufügen.

  15. Klingt auf jeden Fall sehr gut, nur der Preis für eine Beta ist natürlich ein wenig happig!

  16. Und wieviel Domains können hinzugefügt werden für 89.- ?

  17. Danke eisy für den TÜV-Bericht. Ich war im ersten Moment auch skeptisch, aber nachdem ich deinen Artikel gelesen hab, bin ich neugierig geworden. Vor allem der Teil mit dem Canonical-Tag und der Seiten-Architektur find ich interessant. Schade, dass ich den Artikel nicht früher lesen konnte, sonst hätte ich vielleicht noch einen Platz bekommen.

  18. So, nach dem ich Eisys Bericht noch mal sehr gründlich gelesen habe und gerade auch auf den Screenshots einige richtig nette Features entdeckt habe, habe ich mir die bis jetzt teuerste Open-Beta meines Lebens auch gegönnt :) Fazit: Crawl läuft noch, was ich bis jetzt schon an Ergebnissen gesehen habe, schmeißt echt Schatten. Respekt – TDP Team, damit habt ihr die Messlatte ganz schön hoch gelegt.

  19. @Sabrina: Es sind zwar schon einige Plätze weg, aber akutell gibt es noch welche. Also nicht lange warten.
    @Carsten: Vielen Dank für das fette Lob! Sowas freut uns natürlcih sehr. Solltest du fragen haben, bitte sofort mailen. Einer von uns ist fast immer am Rechner und uns liegt extrem viel daran, dass jeder Open-Beta-Tester mit dem Tool happy ist!

  20. hej,
    gerade bestellt und versucht mit kreditkarte zu bezahlen. der 3. schritt (bestätigung) wird nicht angezeigt. habe es um sicher zu gehen ein weiteres mal versucht und jetzt wahrscheinlich 2x bestellt? kann dies jedoch nicht nachprüfen, da keine bestätigung bzw. information angezeigt wird.
    ist das ein bug?

  21. Thomas Rafelsberger // 19. Juli 2012 um 23:02 // Antworten

    Guter Artikel, schaut auf jeden Fall sehr interessant aus – schade, dass es nur so wenige Zugänge gibt – ein Testaccount wäre schon sehr hilfreich ;)

  22. Ganz nett gemacht, aber es gibt doch schon hunderte dieser Tools.
    Einziges Highlight die Aufmachung. Zielgruppe der „dumme“ (bayerische) Webseitenbetreiber um die Ecke?

  23. scheint ein problem mit firefox zu sein. habe es in chrome nochmal versucht und es ging. ich schreibe den jungs direkt, falls es jetzt 3 buchungen gab.
    danke!

  24. Ich verstehe das Preismodell nicht ganz.

    Man zahlt 89,- Euro / Monat für eine einzige Domain? Oder kann man die Domain nach erfolgtem Test archivieren/einfrieren und dann eine andere testen?

    So einen Test macht man ja höchstens 1 mal pro Monat mit einer Domain, und dafür finde ich es ehrlich gesagt recht teuer (vorausgesetzt, ich hab alles richtig verstanden).

    Vielleicht kann mich ja jemand aufkären?!

  25. Öhm, sind die positiven Kommentare und der Bericht hier gekauft oder komme ich da gerade nicht mit? Screaming Frog, Microsoft, Google & Excel = Onpage.org. Excel Sheet inkl Makros biete ich morgen an, dann dürften nur noch die Bilder vom Captain fehlen. Darf dann gerne verglichen werden … auch der Preis. :)

  26. Für den normalen Websiten-Betreiber, der seine Seite optimieren möchte, ist das Toll zu teuer. Für Agenturen und andere, die mit der Optimierung Geld verdienen, ist das Preis-Leistungsverhältnis mehr als interessant.

  27. Toller Test, tolles Tool! Vielen Dank für deine Ausführungen hier, eisy! Eines ist mir noch aufgefallen, im Abschnitt „Waisenkinder“, da steht einmal: „Verwaiste Seiten sind die, die intern gar nicht verlinkt werden“ und kurz danach „Alles was mindestens einen internen Link hat ist eine verwaiste Seite.“ Aber auf jeden Fall: Thumbs Up!

  28. @Rebecca:Wir prüfen dies gerade eben und melden uns gleich bei dir. Bitte künftig bei Problemen einfach an info@onpage.org schreiben. Vielen Dank :-)

  29. sieht nach einem tollen Tool aus das ich gerne testen würde jedoch kann ich bei einem Großkonzern leider nicth mit PayPal oder Kreditkarte zahlen :-(… Würde mich sehr freuen wenn es trotzdem klappt.

  30. @Thomas: Vielen Dank :-)
    @Hubertus@Maik@Thomas: Ich poste hier am besten kurz Merlins Facebook-Kommentar. Dieses gibt einen schönen Einblick über unsere Intention und klärt sicherlich einige Fragen: „Allen Recht machen ist leider immer schwer – Wir versuchen das Ganze so fair wie möglich zu halten – und damit die Nutzer happy sind, werden noch weitere Features die kommenden Tage und Woche dazukommen. Einige wurden auch nicht in eisys Bericht erwähnt (zB unser spannendes Keyword-Tracking). Abseits davon muss man auch dafür offen sein, sich auf onpage seo einzulassen – es gibt immer noch viele SEOs, die meinen mit Title und Description wäre es schon gewesen. Schließlich ist das auch alles sehr technisch und somit eher dröge. Dabei haben unsere internen Tests gezeigt, dass man mit richtiger OnPage Optimierung so einiges mehr reißen kann, als mit ein paar überteuerten Links.

    Ziel des Tools ist jedenfalls, die Website so detailiert wie möglich zu untersuchen, detailierter als die meisten es manuell machen würden, weil es einfach nervt sich durch den Quellcode von hunderten Seiten zu arbeiten und gleichzeitig nicht das große Ganze aus den Augen zu verlieren. Dabei werden natürlich limitiert durch Kosten (anders als die meisten SEO Tools, haben wir variable, statt fixe Kosten) was das Pricing etwas schwierig macht – daher geht es nun darum Erfahrungswerte zu sammeln (darum auch Open Beta), statt in Schönheit zu sterben (das Ding hat jetzt schon einige Monate Entwicklungszeit auf dem Buckel).

    Auf der anderen Seite steht die Performance (auch nen Kostentreiber) – da werden wir die kommenden Wochen am Meisten schrauben, damit wir es schaffen noch mehr Daten zu sammeln, die trotzdem noch in akzeptabler Zeit ausgewertet und angezeigt werden können.

    Long story short -> Wir haben keine Risikokapitalgeber im Rücken und das Tool ist aus internen Assistenz-Tools heraus entstanden – und diesmal haben uns halt dafür entschieden, wirklich mal eines Publik zu machen (da wir immer wieder auf unsere internen Tools angesprochen wurden). Daher brauchen wir am Anfang etwas Nachsicht, wenn vielleicht das eine oder noch nicht ganz so rund läuft – aber wir sind heiß auf innovative Features, verrückt nach SEO und brennen darauf es jedem Recht zu machen … bleibt zu hoffen, dass wir auf dem Weg dahin nicht verrückt werden ;)“

  31. @Philipp: Bitte schreibe mir kurz eine E-Mail an andi@onpage.org – da finden wir ne Lösung ;-)

  32. Andreas Ganter // 20. Juli 2012 um 09:53 // Antworten

    Kann evtl. jemand meine Fragen beantworten (siehe weiter oben)??

  33. Habs auch getestet. Nettes Tool, dass vor allem Anfänger begeistern kann. Aber auch Fortgeschrittene oder Experten bekommen durch das Tool ein schön übersichtliches Dashboard mit den wichtigsten KPIs. Allerdings war das Tool bei meinem Test noch extrem buggy, was mich ziemlich gestört hat.

  34. @Daniel: Einfach eine Mail an uns und wir beheben es in Kürze ;-)
    @Andreas Ganter: Richtig, aktuell kann man eine Domain eintragen und diese umfangreich durchchecken lassen. Es wird dir vielleicht auf den ersten Blick nicht klar, aber das Tool bietet dir schon ne Menge Möglichkeiten, bsp den WMC-Import, dich umfangreich mit einer Domain zu beschäftigen und sie sauber zu optimieren. In Kürze wird es dann Preismodelle für weitere Domains geben.

    • Andreas Ganter // 20. Juli 2012 um 14:25 // Antworten

      … ich besitze ca. 80 Domains, resp. mindestens 50, die mir wichtig sind :-(

      Ich denke das wird unbezahlbar. Schade, aber ich verstehe, dass Ihr Rechenpower ohne Ende braucht.

      • Hey Andreas,
        es wird spätestens zum finalen Launch eine Agentur Version geben, die dein Nutzungsprofil abdeckt, allerdings wird sich dann die Nutzungsgebühr auch im 3stelligen Bereich bewegen.

  35. Das nenne ich mal einen ausführlichen Testbericht, wow. ;-)

  36. Die Frage von Andreas Ganter interessiert mich ebenfalls. Wenn ich doch nur eine Domain eingeben kann, lohnt sich das doch nur für riesige Shopprojekte oder ähnliche welche ich ständig durch neue Unterseiten usw. verbessern muss.
    Ansonsten ist es doch in der Regel zb bei Infoseiten so, dass dann einmal verbessert werden und dann 95 % für immer ok ist.
    Ist der Onpagebereich bei Sistrix oder Xovi auf ähnlichem Niveau? Dort kann ich für 100 bzw 99 Euro so viele Seiten prüfen wie ich möchte. Das ist viel sinnvoller da man wie gesagt bei den meisten Projekten oder Kundenseiten nur einmal eine Verbesserung durchführt und diese dann nach SEO Gesichtspunkten fertig sein sollte.

    • Hey Benjamin,

      unserer Meinung nach ist onpage Optimierung nicht etwas was man „einmal“ macht und das wars dann.

      Es gehört auch das Monitoring der Server, das beobachten ausgehender Links, entdecken von Broken Content, ständige Optimierung von CTR, Entlarvung von Thin / Duplicate Content und einiges mehr dazu. Das ist ein fortlaufender Prozess und wir wollen die Tools dafür liefern.

      Abseits davon wirds für Agenturen, bzw professionelle Website Betreiber mit mehreren Seiten eine „Agentur Version“ geben, die mehr kostet, dafür dann auch mehr Freiheiten bietet (bzg. Anzahl der Seiten / Recrawlintervall etc.)

  37. Testbericht gelesen und Beta-Account geholt. danke.

  38. Gibt leider keine BETA Accounts mehr. Hätte das Tool gerne getestet. Werden nochmal welche nachträglich vergeben, weiß das jemand von euch?

  39. Was ist wenn man 10 Seiten / Blogs hat? Würde das Tool sofort kaufen. Aber für 90 Euro kann ich das Tool nur für eine Seite verwenden? Damit ist das Tool absolut wertlos für mich.

    • Wenn man nur 10 Unterseiten pro Projekt hat und mit den ganzen Parametern vertraut ist, kann man sie wirklich besser per Hand kontrollieren, geb ich dir Recht. Da hilft whrs auch seitwert.de schon weiter. Viel Erfolg beim Optimieren!

  40. Macht ja einen ganz guten Eindruck, mal sehen ob es sich lohnt. Schade das man allerdings nur eine Domain durchlaufen lassen kann.

  41. @Merlin

    Ich meinte damit nicht, dass meine Seiten nur 10 Unterseiten hat. Ich meinte damit, dass ich mehr als 10 Projekte habe. Man kann ja nur ein Projekt testen lassen. Das finde ich sehr schade!!!

    • Ja, das Problem ist uns bewusst (hätten wir selbst ja auch) – und es wird definitiv auch gelöst. Im ersten Schritt wollen wir uns aber auf mittelgroße Projekte konzentrieren, bei denen eine langfristige Beobachtung und Optimierung der OnPage Parameter Sinn macht – darauf sind auch die Features ausgerichtet.

      „1-mal Checks“ halten wir eigentlich nur im Agentur-Umfeld für sinnvoll, wenn es darum geht nen schnellen Eindruck von einer fremden Seite zu erhalten. Aber im Endkundenbereich wäre es auf gewisse Weise fahrlässig zu sagen „einmal checken, einmal optimieren und das wars“.

  42. Ehrlich – ich bin positiv überrascht vom betriebene Aufwand. Sehr detailiert und gut gemacht. Sogar Serverkosten wie beim Dauer-Lasttest wurden nicht geschohnt. Dabei noch hübsch aufbereitet. Das einzige was hakt – ist der Preis. Man sollte zumindestens am Anfang einen PReis anbieten ;) Viel Glück und ich würde mich über einen Daypass oder 3Tagepass freuen.

    • Hey Nedim,
      dann warte bitte noch ein paar Berichte / Screenshots ab. OnPage-Optimierung ist kein Einmalaufwand, sondern ein fortlaufender Prozess. Daher macht ein Daypass oder 3Tagepass absolut keinen Sinn. Damit man sich in Zukunft nen besseren Überblick über den Funktionsumfang machen kann, wird es aber einen Demo-Zugang geben.
      Beste Grüße, Merl

  43. Da ich sowas wie ein absoluter OnPage Fan bin, habe ich mir das Tool einfach selbst angeschaut. Das Potential und der Sinn eines solchen Tools sind ersichtlich – nicht nur für Endkunden. Das Crawling eines mittelgroßen Projekts ging ziemlich fix, das Tool macht einen aufgeräumten Eindruck und schön, schön, schön…

    ABER, momentan finde ich es insgesamt noch ziemlich buggy. Angefangen von schnöden Übersetzungs- oder Templatefehlern bis hin zu Schlussfolgerungen und Gewichtung bei der Empfehlung oder auch ausbleibende Empfehlungen bei Anzeige von Fehlern, die so nicht immer übersichtlich sind.

    Die Raster bei bei der Auswertung sind für meinen Geschmack noch zu grob. Für Endkunden sollten die Empfehlungen und Prioritäten noch besser passen, da sie dort eher als Handlungsanweisung gesehen werden statt als interessante Analyse des Bestehenden.

    Wenn man dann mal ein Detail wissen möchte, steht es nicht im Wiki. In meinem Fall war es der 405 Statuscode, den ich nicht im Kopf hatte. Alles in allem kein Untergang, aber in der Summe eben etwas unfertig.

    Ein einzelnes Tools, dass in dieser Tiefe crawlt und auswertet, ist mir bisher nicht bekannt. Aktuelll braucht es wohl aber noch etwas Entwicklungszeit, bis es uneingeschränkt empfehlenswert ist.

  44. Sehr sehr schöner Testbericht! Großes Lob an dieser Stelle! Eine Frage habe ich aber noch: Wie oft wird die Domain gecrawlt? Ich konnte dazu auf onpage.org nichts finden. Falls jemand dazu eine Antwort hat, immer her damit :)

  45. Das Tool schaut wirklich sehr vielversprechend aus. Es gibt zwar schon einiges da draußen, was die einzelnen Themen abdeckt, aber spannend ist, dass hier alles in einem Tool zusammen kommt.
    Was sicher enorm in der Analyse hilft, ist das Canonical-Thema oder die Möglichkeit DC einfach und schnell zu erkennen.
    Schade, dass die Beta geschlossen ist. Ich freue mich jedenfalls schon darauf, dass man (hoffentlich) bald wieder an neue Accounts rankommt…
    Großes Lob schonmal an die Entwickler. Was man hier sieht, macht echt Lust auf mehr! :)

  46. Also wenn man die Kommentare hier so liest, dann kann man sich nur wundern. Die Zielgruppe für das Tool ist doch offensichtlich. Mittlere bis größere Websites, bei denen die kontinuierliche Onpage-Optimierung im Vordergrund steht. Wenn das Tool ordentlich macht, was es soll, dann sind 100 Euro im Monat völlig ok. Die Zeit, die ein Mitarbeiter bräuchte, um händisch alles zusammenzusuchen ist deutlich teurer. Wo neue Inhalte erstellt werden, da passieren Fehler. Je schneller man diese findet, umso besser. Wenn dies dann auch noch automatisch erfolgt, dann zahl ich auch gerne 200 Euro im Monat. Wer sich bereits intensiver mit Onpage auseinander gesetzt hat, der weiß wie viel Wert eine ordentliche Optimierung hat. Onpage ist jedoch auch weit aus mehr, als ein paar Titel, Beschreibungen und H1 Überschriften.

  47. Wow… das nenn ich mal ein Review. Klasse, geschrieben und auch das Tool sieht auf den ersten Blick echt gut aus. Werde mir das ganze bei Zeiten sicherlich mal genauer anschauen!!!

  48. Danke für den heftig langen Artikel. Habe ihn komplett gelesen ;-)

  49. Du machst Dir wirklich immer eine Heidenarbeit mit Deinen Berichten. Respekt, auch für die Kontinuität. Was onpage.org angeht, darf man das Kompliment gleich weitergeben. Denn da steckt auch eine Menge an Entwicklungs- und Textarbeit drin, die den Preis des Dienstes sicher rechtfertigt.

  50. Ups, da bin ich ja reichlich spät dran. Lese gerade das erste Mal von diesem Tool und bin begeistert von dem was du hier schreibst, eisy. Nach dem Urlaub heißt es also erstmal „neues Spielzeug“ (viel eher geniales Tool) austesten.

    Danke für den guten Artikel!

  51. Ein toller Testbericht so wie man sich das wünscht. Klar der Preis ist nicht gerade ganz günstig, aber bei der Leistung sicherlich durchaus akzeptabel. Andere SEO Tools, siehe Sistrix kosten noch einiges mehr.

  52. …da ist man mal ein paar Wochen im Urlaub, um dem Sommerloch zu entfliehen und dann sowas… ;-)

    Glückwunsch Merlin, sehr schöne Sache! Gibt es schon ein Zeitfenster, wann neue Accounts wieder möglich sind. Ich würde das gerne mal ausgiebig testen!

  53. Das liest sich ja sehr gut. Für Menschen die mit dem Internet ihr Geld verdienen müssen ist das sicher ein sehr nützliches Tool. Für Leute die nur hobbymässig eine Webseite betreuen ist das Tool natürlich zu teuer.

  54. Natürlich zu spät… aber bei dem Preis hätte ich eh nicht zugeschlagen. Irgendwie pendeln sich alle diese Tools, sei es Xovi, Seolytics, What Ever bei 90-100 Euro / Monat ein. Das ist einfach kein bezahlbarer Preis für jemanden, der nur eine Seite hat und diese optimieren möchte. Vielleicht sollte man sich noch 1-2 weitere Preisklasse überlegen, die auf solche User optimiert/reduziert wird!? Ich denke es geht vielen so, dass sie Interesse an der Nutzung für kleinere Projekte hätte, aber die hohen monatlichen Kosten scheuen!?

  55. Hey Sören, was ein toller Bericht den du hier geschrieben hast! Ausführlicher und besser kann man kaum ein Tool vorstellen. Ich würde es mir sehr gerne auch bestellen. Leider habe ich das gleiche Problem wie Andreas Ghanter. Ich versuche mir gerade verschiedene Nischenseiten aufzubauen (ca. 15-20) mit jeweils am Anfang nur um die 10-20 Unterseiten und wenn ich dafür monatlich dann 500 Euro für einen Agentur-Account bezahle (oder was er auch immer kostet) übersteigt es leider mein Budget. Was natürlich kein Vorwurf an Merlin sein soll.

    VG Andi

  56. Klingt zwar nach einem super ausgestatteten Tool… aber auch hier werden viele wegen dem happigen Preis auf der Strecke bleiben

  57. ein super ausführlicher bericht – leider bin ich erst heute drübergestolpert und ja, ich habe ihn bis zum Ende gelesen, wenngleich das Tool aufgrund des Preises derzeit für mich dennoch nicht in Frage kommt… – aber Danke dass Du das Thema so schön aufbereitet hast!

  58. Langer und ausführlicher Test – Werde es mir auch ansehen denk ich !

  59. Danke für Deinen gewohnt detaillierten Testbericht (ist man ja gewohnt von Dir…). Hatte diesen zwar schon im Sommer überflogen, aber da das Tool noch nicht live für Normalsterbliche war, wieder aus meinem Blickwinkel verschwunden.

    Jetzt, Dank der Weihnachtsfeiertage und nicht gebuchten Urlaubs, wegen des angekündigten Weltuntergangs, habe ich endlich mal wieder Zeit mich damit zu befassen. Zumal alle Tools zur Onpageoptimierung, die ich einsetze, mich nicht so ganz zufrieden stellen.

    Bei onpage.org ärgert mich allerdings, dass es keine Testversion gibt. 99,- Euro für eine „vielleicht“Katze im Sack ist tatsächlich auch Geld. Schade. Wenigstens ein „Daypass“, wie es z.B. bei Cempers LinkReseachTools angeboten wird, wäre nicht schlecht. Bei 20 – 30 Euro ist die Hemmschwelle nicht ganz so groß, um einen Test zu riskieren. Bei Zufriedenheit hat man den Kunden dann eh im Sack (statt der Katze…).

    Nun, ich werde es aber trotzdem antesten, weil Deine Zusammenfassung einiges verspricht.

    Danke für die Aufmerksamkeit und noch schöne Restweihnachten!

  60. Das Tool scheint einiges zu können. Weiß jemand wann man sich da wieder registreieren kann?

8 Trackbacks & Pingbacks

  1. SEO Woche: OnPage, OffPage und ein Nachrichten-Wurmloch | SEO Book
  2. Der SEO-Blog-Wochenrückblick KW 29 | SEO Trainee - Ab hier geht´s nach oben
  3. SEO mit Links – Wochenrückblick KW30: Don’t panic about unnatural inbound links — Linkwissenschaft
  4. OnPage Optimization: What Tools do you use? | Social Media Blog
  5. Onpage.org: Neues SEO-Tool zur Onpage-Optimierung » t3n News
  6. News: Onpage.org beendet Beta, Optimizer bekommt Upgrade-Feature - Optimizer, Xovi, Onpageorg, Domains, Schweiz, Fall - eisy - Affiliate-Marketing & SEO Blog
  7. KW38: E-Mail Marketing, Google Analytics, Conversion Attribution, OnPage.org | eBusiness Blog | about eCommerce
  8. Onpage.org: Eierlegende Wollmilchsau für Onpage-Maßnahmen √ Seokratie

Kommentar hinterlassen

E-Mail Adresse wird nicht veröffentlicht.


*