Wichtige Durchsage: Captain OnPage.org, bitte zum Testbericht

Vor ein paar Monaten hatten wir alle (alle die, die sie hatten) die Möglichkeit auf der Domain „onpage.org“ erstmals einen Bayern, verkleidet in einem Superhelden ähnlichen Outfit zu sehen. Seither stand Webmastern bei OnPage.org nur ein Anmeldeformular für die Beta-Phase zur Verfügung. Zutritt? Untersagt. Im ausgewählten Kreise fanden sich einige Testpersonen um die geschlossen Beta anzutreiben, dies deuteten ja verschiedene kleine Screenshots auf Facebook an. Heute ist alles ein bisschen anders, denn heute muss Captain OnPage.org zum TÜV!

Der OnPage.org Testbericht

Heute möchte ich den Testbericht von OnPage.org veröffentlichen und somit zeigen, wie der aktuelle Stand der Beta-Version ist. Welche Funktionen euch in diesem Tool erwarten und welchem Einsatzzweck das Tool dient. Schließlich bringt alle Neugierde auf ein Tool nichts, wenn man so gar nichts darüber weiß. In der Hoffnung, hier erneut einen guten Testbericht zu publizieren (Ergebnis offen, ich Teste und schreibe ja stets live), geht’s jetzt los.

Die Website verrät über das Projekt (Tool) rein gar nichts. Einzig der Name lässt darauf schließen, es könne um Onpage-Optimierung gehen. Mehr gibt es auf der Startseite nicht. Kommen wir daher ins Tool.

Dashbord

Wenn ihr eine neue Domain in OnPage.org eintragt, dauert es eine Weile und dann stehen euch alle wichtigen Daten zur Verfügung. Die Dauer der Erhebung liegt natürlich auch an der Performance eurer Seite und an der Größe. Habt ihr 1.000 Unterseiten dauert es einen Moment länger als bei Domains hinter denen nur 100 Seiten liegen. Laden eure Seiten in 0,4 Sekunden geht es schneller als bei schlechterer Performance. Man bekommt eine E-Mail sobald die Daten zur Verfügung stehen. Nach ca. 20 Minuten stehen schon Daten zur Verfügung. In der Zeit wo man vielleicht schon Daten anschaut, schiebt das Tool im Hintergrund immer mehr Daten rein. Nach spätestens 8 Stunden ist der Crawl beendet und man hat alles.

Anschließend rein ins Tool und erstmal das Dashboard überblicken. Wer generell nicht weiß wo er anfangen soll, scrollt bis „Größte Baustellen“ und legt los.

Server-Informationen

Zur Onsite Optimierung gehört eine anständige Reaktionszeit des Servers, eine gute Ladezeit der Website und natürlich ein sauberes Management für Weiterleitungen aller Statuscodes. All diese Informationen überwacht OnPage.org in der ersten Info-Box „Server“, wo für mich auch gleich 17 Fehler angezeigt werden.

Wenn man sehen möchte wie sich die Fehler auf die einzelnen Bereiche verteilen, kann man den Kopf der Box anklicken und bekommt eine schöne Übersicht. Man kann aber auch direkt über die Box in die Bereiche wechseln und das möchte ich jetzt machen. Mein erster Bereich sind die Status Codes, wo es für meine Website wahrscheinlich – allein schon wegen Affiliate-Cloaking – ein paar Sachen zu bereinigen gibt.

Alle fehlerhaften bzw. kritisierten Bereiche kann man auswählen und sich im Detail anschauen. Dort findet man die betroffenen URLs. Schauen wir als Beispiel mal in meine 302-Weiterleitungen. Diese werden übrigens bemängelt, weil die Methode nicht die optimalste aus technischer Sicht ist. Sie ist halt nur temporär, aber mal ehrlich, meine Affiliate-Links sind auch nur temporär. 🙂

Wenn das für mich jetzt ein Fehler wäre, würde ich sofort erkennen welche URL gemeint ist und wohin die weiterleitet. Es ist für mich in dem Fall kein Fehler. Für solche Sachen wünsche ich mir für die Zukunft ein kleines Select Field, um diese Fehler auf die Domain bezogen als „gewillt“ zu markieren. Die Statistiken würden dann für meine Domain wesentlich positiver aussehen. Bei diversen Fehlern wie 404 sollte man diese Option jedoch nicht bereitstellen.

Die Antwortzeiten sind das nächste Thema. Hier gibt es solche, und solche Seiten. Meine Seite schneidet hier gut ab und die Antwortzeiten liegen alle innerhalb von einer Sekunde. Ich habe keine langsamen, sehr langsamen und auch keine Seiten mit Timeout. Da fällt dem Captain nur eines ein.

Hätte ich hier langsame Seiten, würden die Zeiten und URLs angezeigt, damit ich sofort weiß wo ich ansetzen muss.

Im nächsten Schritt – immer noch Bereich „Server“ – geht es um die Überwachung. Dabei wird geschaut ob die Seite immer erreichbar ist und welche Belastungsspitzen es gibt. Die Infos werden im Kleinformat auch auf dem Dashboard einer jeden Domain bereits angezeigt.

Bei mir sind die Antwortzeiten okay, aber es gibt schon auch so manch Spitze, der man ggf. mal nachgehen könnte.

Hier könnte man jetzt in den eigenen Logfiles noch Recherchen anstellen um die Gründe für solche Spitzenwerte zu erforschen. Das kann ein externes Tool einem so natürlich nicht abnehmen. Der Bereich Server ist damit abgeschlossen. Ich finde es sehr praktisch, da man sich hier – sofern man nicht noch viel, viel mehr Daten benötigt – ein weiteres Tool zur Überwachung der Erreichbarkeit sparen kann.

Meta-Daten

Okay, genug mit langen Ladezeiten beschäftigt, kommen wir zu den Meta-Tags, die einen wichtigen Bestandteil einer jeden umfassenden Suchmaschinenoptimierung darstellen. Der Bereich besteht aus Seitentitel, Beschreibung, Robots und Canonical. Wenn jemand Keywords vermisst, bitte altes Yahoo runterladen und dort optimieren. 😉 In meiner Box werden mir 136 Fehler angezeigt (extra für den Testbericht vorbereitet :P) und wir steigen direkt beim Seitentitel ein.

Seitentitel

Alle meine Seitentitel sind zu lang. Der Captain ist unzufrieden, zum Glück ereilte ihn das gleiche Problem wie Schildkröten, er kann seine Mimik nicht verändern. 🙂 Oberhalb der Anzahl der Fehler und den ganzen Balken, kann man zu den Problem wechseln. Dieses Prinzip ist bei allen Funktionen identisch.

Wechseln wir mal zu den langen Seitentiteln.

Die Erklärung zur Tabelle sollte ganz einfach sein. Die URL, dann der OnPage.org Wert, der die Stärke einer URL innerhalb der Website berechnet, ohne externe Einflüsse einzukalkulieren, sowie am Ende noch die Länge des Seitentitels in Zeichen inkl. Leerzeichen. Zur Anzahl der Zeichen möchte ich anmerken das man hier im Web unterschiedliche Grenzwerte findet. Die einen sagen 65 Zeichen sind das Limit, andere nennen dafür 70 und wieder andere haben ihre Grenze bei 80 Zeichen. Wobei 80 Zeichen heute tatsächlich begraben sind.

Ich vertrete auch eher die Ansicht der 70 Zeichen bzw. innerhalb dieser Anzahl gehe ich in Richtung „sieben Wörter im Titel“. Mit dem Grenzwert von 70 Zeichen liegt man sehr oft innerhalb der Schwelle die Google ansetzt. Denn Google zählt nicht die Zeichen sondern die Länge in Pixelbreite.

Ich habe auch den blauen Button „Download“ (auf dem Bild, oben rechts) mal aufgeklappt. Ihr seht, man kann die Tabelle jeweils als CSV oder Excel-Datei herunterladen oder sich auf Wunsch per E-Mail senden lassen. Das funktioniert soweit bei allen Datenbeständen.

Die Analyse der „Beschreibungen“ überspringe ich mal und wir wechseln direkt zu „Robots“. Ebenfalls noch immer im Bereich der Meta-Tags.

Ich habe mal die Übersicht und die Details zusammen auf einen Screenshot gepackt. Bei mir handelt es sich um ein typischen Klassiker unter den WordPress-Seiten.

Diese „?replytocom=X“ URLs kann man übrigens auch vernichten. Das WordPress SEO von Yoast bietet dafür eine Standardfunktion. Also einfach das Plugin installieren und aktivieren, dass diese URLs unterdrückt werden sollen. Dann verschwinden auch solche Fehler. Ansonsten würde hier bei vielen Domains noch Impressum, Datenschutz etc. stehen. Bei Shops die Versandkosten, Lieferzeiten usw. Eben all das, was man gerne auf Nofollow und ggf. Noindex stellt. Bei manch großen Brands findet man dadurch auch spannende SEM-Landingpages die auf Noindex sind, weil sie die gleichen Inhalte nutzen wie andere. Die werden meist nur für AdWords genutzt und daher ist organische Sichtbarkeit egal. Aber das nur am Rande.

Canonical

Canonical! Ein wichtiger Bereich in der Onsite Optimierung. Schließlich kann das Attribut bei korrektem Einsatz vor vielen Duplikaten und darauffolgenden Problemen schützen. Die Canonical-Tags einer Domain im Auge zu haben finde ich super. Die Art, wie sie hier aufgeteilt werden ist top. Man sieht Canonicals zu sich selbst, zu anderen URLs und zu ähnlichen URLs, außerdem noch URLs ohne Canonical.

Canonical-Tags zu sich selbst sind sicher die, die am häufigsten vorkommen. Schließlich setzt man heute fast immer pauschal den „zu sich selbst Tag“ ein, wo man keine andere URL nutzt. Die Tags zu anderen URLs nutzt man nur in bestimmten Situationen. Daher sollte man in alle Bereiche immer sehr genau reinschauen. Wichtig ist auch, Seiten zu kennen wo man den Tag nicht verwendet. Ich möchte auf dem Screenshot die Tags zu anderen Seiten zeigen.

Wie man sieht, setze ich den Canonical-Tag bei der Blätterfunktion innerhalb von Kategorien ein. Man darf den Tag aber nicht pauschal bei allen Blätterfunktionen nutzen. Die zweite Seite eines Artikels zu Beispiel, sollte man nicht unbedingt mit einem Canonical-Tag zur ersten Seite verweisen. Über den Einsatz muss man sich daher stets individuelle Gedanken machen. OnPage.org zeigt auch Canonical-Tags zu „ähnlichen Seiten“ an. In meinem Fall sind das wieder die dubiosen replytocom Seiten.

Das Grundprinzip der Fehleranalyse mit OnPage.org sollte jeder soweit verstanden haben. Ich muss dazu ja nicht bei jedem Seitentitel und jedem Canonical einzeln rein. Aus diesem Grund möchte ich hier noch die Übersicht aller „Navigationspunkte“ die im Moment verfügbar sind zeigen. Anschließend geht es mit einem neuen Bereich weiter.

Den Inhalt optimieren

Onsite bedeutet natürlich nicht nur alles am Quellcode, sondern auch alles was Texte sind. Überschriften, Text-Content usw. Im jetzt anstehenden Bereich „Inhalt“ werden solche Dinge analysiert. Steigen wir bei den Überschriften ein. Diese beziehen sich auf die H1 bis H4 Tags. Schon in der Übersicht bekommt man einen guten Eindruck davon, was ich falsch mache. 😉

Die Kennzahl im farbigen Feld ist der Durchschnittswert für das Vorkommen eines Tags pro Seite. Wir wissen ja, der H1 Tag sollte auf einer URL nur einmalig vorkommen. Das ist im Grunde bei mir auch immer korrekt, aber wenn man ein WordPress Theme nicht „nach-optimiert“, kommt es schnell zu seltsamen Ergebnissen. Hat man die Überschriften eines Blogbeitrages auf H1, ist das richtig. Wird aber in Kategorien eine Anzahl von 10 Beiträgen ausgegeben und die Überschriften sind auch dort H1, wird es knifflig, dort sollte man eigentlich H2 oder H3 einsetzen. Solche Quellen findet man mit OnPage.org sehr schnell.

Man kann jede H1-Überschrift sich anzeigen lassen, oder direkt über den Button „Details“ einfach in eine Komplettübersicht springen.

Texteinzigartigkeit

Als nächstes wird die Einzigartigkeit vom Text-Content kontrolliert. So findet man vollständige Duplikate, aber auch ähnliche Seiten die nicht komplett übereinstimmen, aber vielleicht teilweise Textabschnitte einer anderen URL beinhalten.

Bei meiner Seite gibt es noch verschiedene Unterseiten, wo die Beschreibungen der Schildkrötenarten fehlen, die Unterseiten aber schon online sind. Und da dort nur „…“ drauf ist, habe ich öfters doppelte Inhalte. Interessant sind aber auch die Seiten mit einer geringen Texteinzigartigkeit. Hier liegt teilweise doppelter Inhalt vor.

Der nächste Punkt wären die Autorenverknüpfungen. Da habe ich auf meiner Domain jetzt keine drin. Ansonsten würde man dort sehen, welche Autoren und welche URLs zusammengehören. Solche Informationen sind interessant, da die Autorenanzeige auch in Google via Avatare umgesetzt wird und das die Klickrate erhöht. Anschließend kommt die „Dateigröße“. Ein Bereich den ich überspringe. Hier sieht man alle URLs, deren Dokumente zu groß sind.

Zu große und große Seiten kann man sich dann im Detail ansehen.

Keyword Monitoring

Ein weiterer spannender Bereich ist das Keyword Monitoring. Auch hier kann man viele Informationen rausziehen. Generell hat man im Keyword-Monitoring zwei Möglichkeiten. Man kann Keywords manuell importieren – also einfach per Hand eintragen – oder die Daten aus den Webmaster Tools exportieren und hochladen. So bekommt man auch CTR, Klicks etc. ausgeliefert.

Rankings in der Übersicht

Die Tabelle muss ich nicht erklären, daher hier gleich der Überblick über die Anzahl der Positionen und als zweites noch eine Übersicht über die Long Tails.

In einer weiteren Tabelle kann man sich die Wettbewerber mit verschiedenen Daten wie „Rankings, Ranking Pages etc.“ ansehen. Man kann all seine Rankings mit denen der Wettbewerber vergleichen. Das wird in einer neuen Tabelle gemacht. Alles was grün ist habe ich gewonnen und bei allen anderen ist der Konkurrent besser.

Links

Spannend und zugleich auch sehr wichtig, ist alles was mit internen Links zutun hat. Die interne Verlinkung entscheidet sehr viel über gute oder schlechte Rankings. Unter Umständen auch über gar keine Rankings. Man sollte wissen welchen Status Code ein Linkziel aufweist und welche Attribute bei Verlinkungen eingesetzt werden. Der Status ist für interne und externe Links bedeutsam. Auf tote Seiten zu verlinken macht nicht den achtsamsten Eindruck.

Die Anzahl der Links ist ein weiterer Menüpunkt. Hier kann man sich seine URLs anzeigen lassen und die dazugehörige Anzahl an internen, externen und ausgehenden Links anzeigen. Über den OnPage.org eigenen Juice-Wert, kann die interne Stärke der URL eingesehen werden. Nicht zwangsläufig muss die Startseite die stärkste Seite einer Domain sein. Ich habe auf nachfolgenden Bild mal die Tabelle nach Stärke sortiert und einen Ausschnitt zu zeigen.

Obwohl die Startseite, Impressum und verschiedene andere Seiten intern gleichermaßen über die Navigation verlinkt sind, ranken sie intern unterschiedlich. Was daran liegt, dass viele Unterseiten im Content noch extra Links erhalten. Das steigert die Wichtigkeit einer URL und macht sie intern stärker. Ich finde es gut, hier rein auf die interne Stärke blicken zu können. Die meisten anderen Tools legen den Stellenwert auf Backlinks von außen.

externe Linkziele

Weiter kann ich mir eine Liste mit allen Domains anzeigen lassen, die ich von meiner Seite aus verlinke. Sowohl alle Subdomains, als auch alle Domains. Die Auflistung zeigt mir nicht nur die Ziele, sondern auch die Anzahl, die Anchor Texte und die Herkunft des Links, also die Seite, von der aus ich die Zielseite verlinke. Eine kleine Flagge zeigt den Serverstandort der Zielseite. Auf einer eigenen Karte kann man die Verteilung der ausgehenden Links nach Standorten betrachten.

Linktexte

Interne Linktexte sind eine weitere wichtige Sache. Onsite-Optimierung ohne Beachtung der Linktexte ist Autofahren ohne Hupe in Ägypten – planlos! Wer eine Zielseite von URL 1 aus mit verschiedenen Linktexten verlinkt, bringt Google einfach durcheinander und setzt keine internen Prioritäten. Man sollte jede Seite immer nur mit einem einzigen Linktext pro Dokument verlinken. Was anderes ist es wenn man URL 1 von einer anderen URL aus mit einem neuen Linktext verlinkt. Wichtig ist nur, nicht zwei Linktexte innerhalb einer URL für eine identische Zielseite zu nutzen. Begeht man den Fehler wird es in OnPage.org übersichtlich dargestellt und man kann es direkt ausbessern.

Waisenkinder

Verwaiste Seiten und schlecht verlinkte Seiten sind entweder Kandidaten für ein Noindex, oder aber echt vergessen. Alternativ sind es Seiten die man gar nicht mehr braucht und löschen könnte. Verwaiste Seiten sind die, die intern gar nicht verlinkt werden. Solche Seiten kann OnPage.org finden und anzeigen. Die Entscheidung was damit passiert muss man selbst treffen.

Alles was mindestens einen internen Link hat ist eine „schlecht verlinkte“ Seite. Manchmal ist so, dass man eine Seite nur als Ergänzung zu einer anderen Seite anlegt und die Informationen darin eigentlich nur interessant sind, wenn man die Seite zuvor gelesen hat. Für solche Inhalte macht es nicht immer Sinn organisch gut zu ranken, aber sie sind trotzdem wichtig. Eventuell sollte man hier mit Noindex arbeiten.

Beim nächsten Thema lassen wir mal Prof. Mario Serpino sprechen.

Der Professor steht in allen Bereich mit seinem Rat bereit. Wenn ihr also mal nicht weiter wisst, einfach schauen was der Professor zu sagen hat. Auch ein Wiki wird es geben was immer weiter mit Inhalten gefüllt wird. Dort findet man auch Antworten und Erklärungen.

Bilder

Den Bereich „Bilder“ überspringe ich. Nicht weil er nicht gut ist, sondern weil es auch ein Bereich nach dem Prinzip „Fehler sichten, Fehler beheben“ ist. Und das kennen wir aus OnPage.org jetzt bereits. Bilder werden hier auf ALT-Tags, Status, Lokale Bilder und externe Bilderquellen untersucht. Ich denke da steigt jeder durch.

Architektur

Wo ich noch drauf eingehen möchte ist der Bereich der Seitenarchitektur. Die Seitenarchitektur ist sehr wichtig. Hier kommen Faktoren wie die Pfadlänge, URL-Länge und Parameter ins Spiel. Besonders Onlineshops mit tiefgehenden Kategorien und anschließend eingegliederten Produktseiten stoßen hier oft an ihre Grenzen. Aber auch die kleinste Installation von WordPress kann schon Alarmsignale auslösen. Denn WordPress hat so manch Ebene im Pfad die nicht sein muss. Die /category/ zum Beispiel. Kann man übrigens mit Yoast SEO auch löschen. 😉 Und damit steigen wir auch bei den Klickpfaden direkt ein.

Die Klickpfade die 5 bis 6 Ebenen haben sollte ich mir anschauen. Wie man sieht, ist das ein WordPress-Problem. Es wird die Autorenseite und dann noch die Blätterfunktion gesetzt. Das verlängert die URL immer weiter. Aber auch Pfade von Bildern werden analysiert und können zu lang sein. Vielleicht möchte Martin Mißfeldt irgendwann mal was dazu testen, in wie weit der Pfad eines Bildes auf das Ranking sich auswirkt.

Weiter gibt es die Analyse der Verzeichnis-Ebenen. Damit kann man übersichtlich analysieren, wie tief die Ebenen einer Website gehen. Man sollte nie vergessen, Ebenen sind eine Art Zeichen für die Priorisierung. Wer Inhalte in die letzte „Ecke“ seiner Seite einlagert, der möchte scheinbar nicht, das diese Inhalte gesehen werden. Lieber weniger Ebenen und dadurch alle Inhalte etwas wichtiger darstellen.

Blockierte Inhalte zeigt OnPage.org auch an. Sowohl Seiten, als auch Bilder. Dies sind Inhalte die der Google Crawler nicht aufrufen kann / darf. Es kann aber auch mal vorkommen das man Inhalte versehentlich sperrt und sich lange Zeit wundert warum in Google weit und breit nichts passiert. Für solche Sachen ist auch diese Funktion im Bereich Architektur sehr hilfreich.

Die Sitemap untersucht Captain OnPage.org auch. Er zeigt auch die Status Codes der darin eingetragenen Seiten mit an. Außerdem zeigt das Tool an, wenn und welche Seiten sich nicht in der Sitemap befinden. Einen Screenshot spare ich mir. Ihr könnt euch denken wie viele Seiten bei mir nicht in der Sitemap sind, oder? Alle! 😀

Länge der URLs

Wichtig. Wenn man den Aussagen von Matt glaubt, werden zu viele Keywords innerhalb einer URL geringer gewichtet. Hinzu kommt, dass kurze Domains laut einer Studie deutlich häufiger angeklickt werden als lange URLs. Aber was schreibe ich, das erzählt auch der Professor alles.

Die zu langen URLs kann man sich in einer Liste dann anzeigen lassen.

Jetzt kommen noch die GET-Parameter und Dateinamen. Manchmal weiß man gar nicht was man für Parameter auf der Seite hat. Das Tool zeigt alle an und auch die häufigsten. Ich denke ich brauche nicht erwähnen das dies bei mir „replytocom“ ist. Bei der Analyse der Dateinamen geht es um Sonderzeichen, Umlaute und Groß- und Kleinschreibweise.

Das war’s (fast)

Ihr könnt auch einfach alle eure URLs innerhalb einer Domain als Liste abfragen. Das macht keinen Sinn? Doch, denn hier kommt – wie ich finde – eine kleine Besonderheit des Tools. Ich habe im Testbericht einen Durchlauf (Workflow) von „Oben nach unten“ durch die einzelnen Fehlerquellen gezeigt. Das ist aber nur eine Vorgehensweise. Es gibt einen zweiten Weg. Man kann direkt in einer URL einsteigen und dann URL-basierend alle Fehler und Probleme analysieren. Im gezeigten Modus wurden ja fehlerbasierend alle URLs analysiert. Verstanden? 🙂 OnPage.org hat also 2 Workflows!

Wenn man in eine URL einsteigt – was bei jeder URL, egal wo im Tool, per Klick geht – bekommt man die folgende Ansicht.

Fazit

Eines kann ich sagen, Captain OnPage.org kommt durch den TÜV.

Als ich mich erstmals in OnPage.org einloggte fühlte ich mich in der ersten Vor-Verurteilung „Nicht noch ein Seitwert oder SEOmoz Clone“ ein bisschen bestätigt. Liegt an den Basics (die springen einen mit der Zeit automatisch ins Sichtfenster) die man vermittelt bekommt. So Fehler wie doppelte Seitentitel sind halt keine Besonderheit und kein Grund für mich, ein weiteres Tool zu bestellen. Hier muss ich mich aber selbst fragen, ob ich die richtige Zielgruppe bin. Jemand der kein Tool einsetzt in dem solche Punkte analysiert werden, ist bei OnPage.org nämlich goldrichtig. Und noch viel mehr an der richtigen Stelle ist die Person, die mit SEO sonst gar nicht viel am Hut hat und ein Tool sucht, von dem man sich „an die Hand“ nehmen lassen kann.

Ich muss aber mein Vorurteil auch beiseite legen. Ich habe den ersten Eindruck falsch auf mich wirken lassen. Nachdem ich mich einige Zeit mit den Inhalten befasst habe – und erst recht heute nach dem Testbericht (der ja immer live geschrieben wird, daher auch manchmal garantiert Schreibfehler hat ;)) sehe ich OnPage.org als Bereicherung. Das Tool reagiert auf Problemstellen sehr sensibel, geht beim Crawlen deutlich tiefer als ich es von anderen Tools bisher gesehen habe. Die Inhaltsanalyse mit den prozentualen Übereinstimmungen, die Klickpfade und zahlrieche andere Feature tragen ihren Teil dazu bei, hier von einem wertvollen Onpage-Tool zu sprechen. Die Anleitungen bzw. Ratschläge sind ebenfalls sehr gut. Und wenn man bedenkt, hier bald noch ein umfangreiches Wiki an der Hand zu haben, wird es noch hilfreicher.

Die zwei verschiedenen Workflows machen Spaß. Je nach Art einer Website macht das auch Sinn. Denn wenn mehrere Fehler auf einer URL sind, sollte man erst mal an der URL arbeiten und nicht pro Fehler handeln.

Open Beta Version

Vermutlich liest sowieso niemand mehr mit. Ich bremse euch auch nicht länger. Die Open-Beta wird vorerst auf 100 Leute beschränkt sein. Der Start der Open-Beta ist heute, nämlich jetzt gleich in wenigen Minuten. Ihr könnt euch also schon mal im neuen Fenster auf die Website von OnPage.org begeben. Parallel verfasst ihr einfach noch einen Kommentar hier im Blog, damit ich weiß das ihr da wart. 🙂 … Bei der Open-Beta läuft es nach dem „Wer zuerst kommt, optimiert zuerst“-Prinzip. Für die Registrierungsphase steht auf der Bestellseite ein entsprechendes Formular bereit. Sind 100 Registrierungen drin, erscheint nur noch ein Formular um sich für Updates anzumelden.

Also, auf zum Captain!

Soeren
Ich bin Soeren, Blogger und Betreiber von eisy.eu. Über die Jahre hat es sich ergeben, dass mich viele einfach eisy nennen. Das ist okay. :-) Ich blogge seit 2005 und teile hier mein Wissen und meine Erfahrungen.