(interne Notiz) Faktoren und Erkenntnisse beim Google Panda Update

Dieser Artikel ist kein normaler Blogbeitrag sondern eher eine Notiz für mich selbst. Wer das mitlesen will, kann es gern tun. Ich werde Fortsetzungen / Updates immer unten anfügen und mit „Update vom 15. Oktober, 19:58 Uhr“ kennzeichnen. Kommentare könnt ihr natürlich schreiben. Da es eine Notiz und kein Blogbeitrag im ursprünglichen Sinne ist, möchte ich um Nachsicht bitten wenn ich mir irgendwo selbst widerspreche. Das ist eben so bei Notizen. Man fügt immer neue Sachen hinzu.

Im Laufe des Artikels möchte ich natürlich auch die einzelnen Stichpunkte aufschlüsseln und sicher auch erweitern. Wundert euch nicht über meine Schreibe, ich notiere es wie gesagt „public“ für mich und alle Leser. Das ist einfach mal ein Versuch wie das klappt. :-)

Erste Stichpunkte / Erkenntnisse (wenn, oder, und)

  • starkes Linkbuilding auf kommerzielle Keywords schadet
  • zu wenig neue Backlinks mit dem eigenen Namen
  • zu starkes Linkbuilding für die Startseite
  • zu kurze Verweildauer der Besucher
  • zu große Absprungrate
  • Ad Farm

Viele Websites bei denen man sich fragt warum diese gestiegen (gemessen an Sichtbarkeitswerten von Searchmetrics, SISTRIX und SEOlytics) sind, sind gar nicht real auf Seiten der Gewinner, sondern nur auf derer der Abstauber. Wenn vor einer Abstauberseite durchs Panda Update drei Seiten abrutschen, steht man natürlich kurzfristig auf der besseren Position und ist somit irgendwo der Gewinner. Nur finde ich nicht, dass man dies so bewerten darf, als würde man da nun durch bessere Leistungen stehen. Wobei es andersrum so zu sehen ist, als hätte man ja wirklich was besser gemacht, denn sonst wäre man auch abgerutscht. ;-)

Subdomains werden durchaus unterschiedlich behandelt und man könnte sich vor einem Update wie Google Panda teilweise auch schützen. Seit Jahren wird gepredigt, man solle riskante, denkwürdige oder themenfremde Inhalte auf Subdomains auslagern. Wer das nicht tut und am Ende eine auf den Deckel bekommt, ist „teilweise“ auch selbst mit in der Schuld. Bei einigen Affiliate-Seiten konnte man sehr gut beobachten wie Subdomains flogen und andere Subdomains der gleichen Domain gestiegen sind bzw. ihre Positionen behalten konnten. Und das u.a. auch dann, wenn die eigentliche Domain an Sichtbarkeit verlor. Die Auswertung meinerseits bezieht sich immer auf Sub- oder Domain-Ebene und Unterverzeichnisse. Wenn ich eine Domain analysiere, beziehe ich die Subdomains nicht mit ein. Und bei Subdomains auch die Domain allein nicht.

Hopfen und Malz sind nicht verloren

Was beim ersten Durchlauf vom Panda Update nicht oben hielt, sollte nicht sofort angepackt und durch Maßnahmen editiert werden. Denn das ist natürlich eine Reaktion die zeigt, man könne es besser. Beobachtet man die Bewegungen in den USA etwas genauer, sieht man das noch mindestens zwei weitere Updates auf den großen Rollout folgten. Und bei jedem Update sind Seiten teilweise oder sogar komplett reanimiert im Index.

Update 15. August / 20:08 Uhr

Das Nutzerverhalten hat eine Auswirkung auf Panda. Besonders die in den Stichpunkten genannte Bounce Rate und die Verweildauer eines Nutzers sind es, die Google Panda meiner Ansicht nach einen weiteren Faktor in die Mischung geben.

Einkaufstipps.ebay.de als Negativbeispiel

Schauen wir uns diese Seite mal genauer an. Der Nutzer ruft die Startseite auf. Gibt er etwas in die Suche ein, landet er direkt in ebay. Klickt er auf eine Elternkategorie, sitzt er auf einer sehr unübersichtlichen Liste mit Unterkategorien und unterhalb einem Bröckchen Content. Klickt man dort wieder auf eine Kategorie, sitzt man auf einer Übersicht mit aktuellen Angeboten auf ebay selbst. Sobald dann der Klick entsteht, verlässt man die Subdomain und geht auf die normale Sub vom Auktionshaus. Alles in allem braucht man für einen Aufenthalt auf einkaufstipps.ebay.de keine zwei Minuten. Meist dauert es nur wenige Sekunden da man die Suchanfrage einsetzt und sofort bei ebay ist.

Kleinanzeigen.ebay.de als Positivbeispiel

Ganz anders als bei Einkaufstipps ist es auf den Kleinanzeigen von ebay. (Ja, auch hier geht die Tendenz runter, aber bitte, eher wie ein normaler Abstieg und nicht wie ein fast freier Fall.) Das alte Kijiji wurde hier zum Glück nicht stark verändert. Man durchstöbert in Ruhe die Kategorien oder gibt seine Suche in den Schlitz. Bei Bedarf erstellt man eine eigene Kleinanzeige. Was sehr viel Zeit in Anspruch nimmt. Die Angebote sind alle direkt auf der Subdomain zu finden. Man liest die Beschreibungen anderer Nutzer und schaut sich die Bilder an. Das kostet jede Menge Zeit. Findet man ein Angebot, schreibt man dem Nutzer eine Mail – auch direkt via Portal. Findet man kein Angebot, erweitert man ggf. die Postleitzahl und sucht auf größeren Radien. Das alles nimmt genug Zeit in Anspruch um eine hohe Verweildauer auf dem Portal zu erzeugen.

Für Google sind das zwei Zeichen an denen Qualität „auch“ aber sicher nicht allein, gemessen werden kann. Wer länger auf einer Seite bleibt und dort navigiert, wird auch interessante Inhalte dort für sich erwarten und wohl schon mal gefunden haben. Wer schnell durchklickt, kann aber andererseits auch sehr schnell fündig geworden sein. Genau da widerspricht sich der Faktor „Verweildauer“ ein bisschen. Aber alles in allem denke ich trotzdem das es ein Ansatz ist.

Update: 15. August / 20:32 Uhr

Was ich bislang noch überhaupt nicht nachvollziehen kann ist, warum Frag-einen-Anwalt.de von Panda betroffen ist. Ich kann hier nur von einer Pauschalisierung für “Q&A Portale” ausgehen, zu denen dieses Portal selbstverständlich auch gehört. Jedoch hat es einen ganz anderen Stellenwert und sehr hohen Mehrwert für den Nutzer und auch für den Suchenden der aus Google direkt einsteigt. Ist die Verweildauer zu gering weil man viele Infos nicht ohne Geld bekommt und somit der Nutzer zu früh abspringt?

Update: 15. August 2011 / 22:17 Uhr

Frag-einen-Anwalt.de könnte durch eine zu hohe Bounce Rate (siehe auch Kommentare) von Googles Panda Update betroffen sein. Bezahlte Inhalte die ein Leser nicht nach dem Aufruf aus der Suchmaschine einsehen kann, bringen für gewöhnlich auch hohe Absprungraten. Denn die Leute wissen das sie ihre Antworten ggf. auch auf anderen Seiten finden können. Außerdem sind Fragen und Antworten in diesem Portal sehr speziell und passen nicht immer auf pauschale Gegebenheiten. Obwohl der Content sehr hochwertig ist und in großer Menge vorhanden ist, kommt es trotzdem zu einem Signal für mangelnde Qualität. Zudem hat die Seite stellenweise auch Long Tails im Erotikbereich „gehabt“ und manchmal noch immer. Das bringt Traffic der auch nur zu sofortigen Ausstiegen führt. Danke hierfür an Chris für die Anmerkung in den Kommentaren.

Update: 16. August 2011 / 14:17 Uhr

Ein weiteres Indiz für die hohe Wertigkeit der Besuchszeit auf einer Website, ist die Tatsache, dass jede Menge Seiten im Bereich der Gutscheine und Coupons kräftig an Sichtbarkeit verloren haben. Was macht ein Besucher auf einer Gutscheinseite? Richtig, nix. Der Besucher befindet sich irgendwo in einem Bestellprozess einer Shopseite, öffnet nebenher schnell Google und sucht nach „eisy Gutschein“ (eisy steht für Shopname). Er ruft die Gutscheinseite auf, klickt aufs Cookie-Banner und verlässt damit der Website auf der identischen Seite auf der er sie aufrief. Das ergibt eine hohe Bounce Rate, denn diese ermittelt man aus einem 5 – 10 Sekunden kurzen Besuches, welcher den Ein- und Ausstieg auf der gleichen Seite hat.

Gutscheinseiten haben eine Bounce Rate von 80 bis 90 Prozent. Schlechte Gutscheinseiten kommen sogar über 90 Prozent und gute Gutscheinseiten liegen bei 65 bis 75 Prozent. Das sind auch keine Zahlen die ich mir aus dem Himmel ziehe, sondern reale Werte die mir vorliegen.

Wenn eine Seite wie meingutscheincode.de die ganze Zeit ackert und sich in Google verbessert, stürzt die nicht aus Spaß einfach ab und schon gar nicht mit dem Hauptkeyword aus dem Domainnamen wozu sie ewig auf Platz 2 rankte. Heute nur noch Platz 4, 5 oder 6. Je nachdem. Auch Seiten wie Gutscheinrausch und viele, viele weitere… da freut sich dann ein Gutscheine.de welche stark profitiert von den Schwierigkeiten der anderen. Welche aber auch grundsätzlich einen guten Job macht.

Die Besucherzahlen und die Sichtbarkeiten der Seiten hängen übrigens nicht immer direkt zusammen. Ich jetzt schon einige Panda-Opfer hier per E-Mail erhalten und auch Screenshots aus Traffic usw. vorliegen. Da sieht man längst nicht immer die fallenden Linien. Das bleibt im Moment bei der Mehrheit noch recht konstant auf dem Niveau von vor Google Panda.

Warum Gutscheine.de nicht betroffen ist? Wenn man sich den Content der Seite genau ansieht, wird man deutliche Unterschiede zu dem der anderen Mitbewerber erkennen. Das durchlesen und genau hinschauen überlasse ich aber jetzt mal euch. Es gibt in jedem Fall verschiedene Dinge die dort anders sind. Und diese bringen auch gleichzeitig eine bessere Bounce Rate. Aber schaut euch da selbst um. Ich möchte Gutscheine.de den Vorteil nicht öffentlich abnehmen. Wäre gemein!

Wie ihr merkt, bleibe ich derzeit sehr intensiv an der Bouce Rate als Indikator dran. Ich suche da im Moment noch nach den richtigen Gegensätzen die mir diesen Faktor aus der Hand nehmen. Natürlich schaue ich nebenbei auch andere Indikatoren genauer an. Geht nur nicht so fix, muss ja auch arbeiten. :-)

Update: 16. August 2011 / 14:54 Uhr

Noch ein klassischer Fall einer Website aus dem Reisebereich. Wie verdient oder unverdient das kommt, entscheidet selbst. Aber eine hohe Bounce Rate wird man sicher auch bei diesem Problemfall vorfinden. Noch dazu ist es wirklich nichts was man unbedingt vorne sehen möchte, oder? Entscheidet selbst.

Update: 17. August 2011 / 09:26 Uhr

Gestern Abend war der Onlinestammtisch.net mit dem Hauptthema „Panda Update“ gespickt. Unter den fast 40 Teilnehmern wurden zahlreiche Theorien diskutiert. Unter anderem wurde auch ein Blick auf das im Februar, März und April 2011 ausgerollte Panda Update in den USA geworfen. Dort hatte es bereits 4 Updates dazu gegeben. Daher wird auch für Deutschland und andere Märkte erwartet, dass Google noch mindestens zwei weitere Panda Updates einspielt. Die Beobachtungen am US-Markt sind aber nicht nur positiv zu werten. In den folgenden Updates wurden einige Seiten die fälschlicherweise betroffen waren wieder „eingerankt“, aber es hat auch haufenweise weitere Websites betroffen die erst dachten sie hätten es überstanden. Dazu gehörten besonders Affiliate-Seiten die viel mit Reviews etc. arbeiteten und somit auch beim Content sehr ähnlich an Amazon & Co. angelehnt waren.

Kommen wir zu ein paar weiteren Theorien wg. Panda.

Kategorisierung der Bounce Rate etc. auf Branchen

In den Kommentaren haben einige Leser bereits angemerkt, die Bounce Rate hätte nichts mit Panda zutun. Man hätte eine Bounce Rate von 80% und höher und wurde trotzdem nicht abgestuft. Dazu stellt sich die Theorie in den Raum, dass Google sehr wohl in der Lage sei, zu unterscheiden in welchen Branchen eine hohe Bounce Rate üblich ist und wo nicht. Nachrichtenseiten zum Beispiel haben eine relativ hohe Bounce Rate. Besucher kommen, lesen die Meldung und steigen meist schnell wieder aus. Google kann deshalb aber Nachrichtenseiten nicht negativ bewerten, denn Google weiß, eine hohe Bounce Rate ist hier normal.

Bilder und Videos im Content sind hilfreich

Betrachtet man die Seiten die unter Panda gelitten haben, fällt einem schnell auf das es fast nur Seiten sind die im Content kein Bild- oder Video-Material verarbeitet haben. Aus diesem Grund könnten Videos und Bilder – also multimedialer Content – ein Faktor von vielen sein, mit denen man sich halbwegs gegen den Bären verteidigen kann. Man muss es meiner Meinung nach aber auch differenziert sehen. Eine Seite die gegen alles an Qualität verstößt, lässt sich auch mit Bild- und Video-Content nicht mehr retten. Wohingegen es aber sonst schon gute und hochwertige Websites sehr wohl auch mehr in Schutz nehmen kann.

Backlinks von anderen Panda-Opfern

Am US-Markt konnte man teilweise gut erkennen wie es Seiten im zweiten, dritten und vierten Update traf, die eine hohe Anzahl an Backlinks von den Seiten hatten, die bereits durchs erste Update zum Opfer des Bären wurden. Das klingt gar nicht so unlogisch. Denn wenn man sich die Netzwerke vieler Affiliates etc. anschaut, sind dort bei den minderwertigen Seiten selten sonst nur hochwertige Seiten zu finden. Viele Leute haben ja doch ein kleines Netzwerk an minderwertigen Seiten und da es sich mit den korrekten Netzwerkstrukturen leider immer noch nicht jeder in den Kopf hämmerte, findet man nach dem ersten Fundstück auch gleich die hundert anderen Seiten. Im Sog der Panda-Opfer sollte es also schnell passieren das man auch eigene Seiten verliert die vielleicht ohne die Backlinkstrukturen gar nicht so schlecht bewerten worden wären (oder so ähnlich).

Panda ist ein neuer Score

Google hat mit Panda gar keinen einmaligen Schub zur Verbesserung des Index gebracht. Es handelt sich bei Panda um einen komplett neues Scoring wie man es durch den PageRank bereits auf anderer Ebene kennenlernen durfte. Dadurch wird es in Zukunft für Seitenbetreiber auch nicht mehr so einfach neue, minderwertige Seiten schnell nach oben zu pushen. Bzw. diese überhaupt nach oben zu bringen. Wenn Google den Score immer weiter verfeinert und ähnlich dem PageRank einfach ¼ jährlich ein Update ausrollt, werden immer wieder neue Zeichen gesetzt. Das könnte auch erklären warum Google am US-Markt schon vier Updates zu Panda brachte. Wir werden Panda also nicht wieder los, sondern alle paar Monate jetzt darüber sprechen das Google ein Panda Update brachte. So wie sonst immer über das PageRank Update gesprochen wurde. Ein Glück für Abakus und ähnliche Foren, so gehen denen die Topics nicht aus. Zuletzt kam kurzfristig noch der Einwand, dass Google den Score hoffentlich niemals optisch darstellt. Denn ab dann ist er wie der PageRank wieder zu sehr zu beeinflussen und dient als Instrument für einige Leute.

So viel zum Mittwochmorgen…

Fortsetzung folgt…

Hinweis
Natürlich hat der Sichtbarkeitsindex einer Website nicht direkt etwas mit der Anzahl der Rankings in Suchmaschinen zutun. Dafür müssten Toolanbieter uneingeschränkt „alle“ Rankings einer Website aufzeichnen und das ist schlichtweg nicht der Fall. Jedoch ist der „Sichtbarkeitsindex“ als statischer Wert eine Kennzahl die während der Momentaufnahme ein Profil erlaubt. Schließlich hat man keinen Zugriff auf die Analytics-Daten jeder Domain und kann Traffic-Werte nicht vergleichen. Ich würde mich also freuen wenn wir das Thema hier nicht auf Sichtbarkeitswerte von Tools ausbreiten, sondern bei den gegenwärtigen Themen rund ums Google Panda Update bleiben. :)

Linkaufbau LektionenJetzt lesen: Linkaufbau Lektionen
Eine Vielzahl an Linkaufbau Lektionen zeigen dir, wie du Links für deine Webseite oder Kundenseiten bekommst. Von der Planung, Strukturfindung und Recherche, bis zur Umsetzung.

Über eisy
Hi, ich bin eisy (Soeren Eisenschmidt) und blogge seit 2007 auf eisy.eu. Meinen Weblog fülle ich bevorzugt mit Fachthemen rund um SEO, Affiliate-Marketing und relevanter Software. Regelmäßig ist mein Wissen bei Print- und Online-Magazinen gefragt.

51 Kommentare zu (interne Notiz) Faktoren und Erkenntnisse beim Google Panda Update

  1. Den Ansatz “Es gibt keine Gewinner, nur Verlierer” hab ich auch beobachtet. Panda bestraft schlechte Webseiten, aber wertet gute deshalb nicht zwangsweise auf. Positionsverbesserungen kommen meist daher, dass Konkurrenten, die zuvor vorne in den SERPs standen, erwischt wurden und deshalb jetzt weiter hinten stehen.

    Möglich, dass das zu pauschal ist, aber das würde zumindest erklären, dass einige Bereiche so gut wie gar nicht vom Update betroffen zu sein scheinen.

  2. @Pascal Finde ich nicht zu pauschal, solche kleinen mittelbaren Gewinne können sicher gerade viele gerade nachvollziehen. Und gerade E-commerce-Seiten haben bisher ja meist eine ganze Reihe Preisvergleicher und Meinungsportale vor sich gehabt und dürfen sich jetzt ohne eigenes Zutun über ein paar Positionsgewinne freuen.

    @Eisy zu Frag-einen-Anwalt.de -> finde ich auch merkwürdig, passt strukturell eigentlich nicht so sehr in das Q&A Schema. Oft gibt es eine kurze Frage und eine lange Antwort, jedoch selten Diskussionen. Der Content ist sprachlich und inhaltlich naturgemäß sehr hochwertig und relevant.

    Dass hier eine hohe Bounce-Rate eine mögliche Quelle des Übels ist, halte ich für sehr wahrscheinlich, da rechtliche Sachverhalte meist sehr speziell sind und selten genau zur Intention des Google Besuchers passen dürften. Schau Dir mal die Top Keywords in Sistrix an, dann weisst Du was ich meine. Nur so als Beispiel, die Seite rankt(e) überwiegend für Long Tail wie “teen model” und andere extrem irrelevante Keywords ;-)

    • Ja, die Bounce Rate kann eine große Rolle bei Frag-einen-Anwalt.de spielen. Wie ich schon schrieb, kommen viele Besucher aus Google auf Inhalte, die sie leider nicht kostenfrei lesen können. Das sorgt natürlich für hohe Absprungraten. Addiert man jetzt die von Dir erwähnten Long Tail Visits mit rein, steigt die Bounce Rate immer weiter. Was am Ende irgendwann auf die Qualität der Seite im “Ganzen” eine Wirkung zeigen “kann”.

      • In welcher Konstellation kann man denn bei frag-einen-anwalt.de die Inhalte nicht kostenlos lesen? Ich habe in Google eine längere Phrase eingegeben, um eine Seite zu finden und habe dann mit aktivierten Referrer die gefundenen Seite aufgerufen. Zumindest die Frage und Antwort wurden mir ohne Probleme angezeigt und auch beim Rumklicken danach habe ich keine Einschränkungen festgestellt.

        Die Bouncerate darf/dürfte m.E. immer nur zusammen mit der “Bouncedauer” (gibt es das?) gesehen werden und müsste außerdem davon abhängen, ob der Suchende danach auf weitere Treffer in der SERP klickt.

        Für mich wieder ein Grund mehr, weder Google-Analytics noch die Googlesuche (für die interne Suche) oder andere Googletechnologien zu verwenden, die Google mehr verraten als unbedingt notwendig.

        Die Hochwertigkeit der Texte kann Google m.E. nicht aus dem Text heraus erkennen. Schön wär’s, aber bis dahin ist es für die Suchmaschinen meiner Meinung nach noch ein sehr weiter Weg. Daher wird das der Domain keinen Bonus geben können.

      • Hallo GG,

        ja, hast vollkommen Recht, man kann bei Frag-einen-Anwalt.de die Inhalte auch als Gast vollständig lesen. Ich hatte das als recht aktiver Nutzer der Plattform leider falsch in Erinnerung – oder es war mal tatsächlich anders – und habe es verpasst hier vorher noch eine Nachprüfung anzustellen, sorry.

      • @Chris @eisy
        Vielen Dank für eure Analysen zum Update. Hier ein paar Infos aus erster Hand: Ich kann eure Vermutung bestätigen. Unsere Bounce Rate liegt bei 77%. Wir haben die immer schon für hoch gehalten, aber uns fehlen die Ideen, wie wir das mit unserem hoch speziellen Content reduzieren können.
        Vor einiger Zeit haben wir angefangen mit einem gleitenden Archiv zu experimentieren. Es hat den Anschein, dass das nicht hilfreich für Panda war. Als erste Maßnahme haben wir nun die Antworten wieder frei geschaltet, deswegen sieht man das von dir angesprochene Archiv nicht mehr. Wir wollen nun die nächsten Tage an der Darstellung der Inhalte und besseren weiterführenden Links zum Thema arbeiten. Vielleicht hilft das für die Bounce Rate.

      • Die Sache mit der Bounce Rate hab ich gelesen, kann ich aber nicht bestätigen, und würde ich persönlich auch nicht glauben, denn meinen Beobachtungen zufolge steigt die Bounce Rate jedesmal wenn Adwords geschalten werden. Die Gründe dafür kann sich jeder selbst ausmalen, aber man kann davon ausgehen, daß die Adwords-Kampagnen optimiert sind.
        Bei aktivierten Adwords liegt meine Bounce-Rate bei ~55%, ohne Adwords bei ~35%.

        Das würde ja bedeuten, daß man sich durch Google PPC Marketing ein gutes Ranking vermasselt.

        Mit Sicherheit gibt es auch die Gewinner. Da sind mir z.B. heute schon welche aufgefallen, die zuletzt in den Suchergebnissen überhaupt nicht mehr präsent waren. Ein Beispiel wäre eHow. Die waren vom ersten Panda Update betroffen und sind mittlerweile wieder sehr häufig in den Top 10 Ergebnissen zu finden.
        Meine Taktik ist zu beobachten wer sich regeneriert und oben gehalten hat, und währenddessen verstärkt auf OnPage-Improvements und Webseitenerweiterung zu setzen.

        Insgesamt habe ich den Eindruck, daß sich der Socialmedia-Faktor und die Online-PR Effektivität für das Ranking verringert hat.
        Kann das wer nachvollziehen?

  3. “Es gibt keine Gewinner, nur Verlierer”
    Aus meiner Sicht ist die Zurückstufung schlechter Seiten an dieser Stelle logisch, da gute Seiten dadurch zwangsweise aufgewertet werden. Ein zusätzlicher Boost für “gute Seiten” ist daher zur Verbesserung des Index im Grunde nicht nötig.

  4. Sehr schön! Genau mein Gedanke. Eines meiner Projekte hat seit Monaten eine recht hohe Bounce Rate und die allgemeine Verweildauer ist lange nicht optimal! Und nun habe ich ca. 40% Einbußen im Traffic! :( Tja, jetzt muss der Relaunch doch vorgezogen werden!

    Auch das einige Gutscheinportale gut einstecken mussten, lässt auf die extrem kurze Verweildauer bei genannten Portalen schließen! So schön es auch ist, einen schnellen Absprung auf einem Affiliate Projekt zu erzielen (schnell das Cookie loswerden), so böse rächt sich nun der Panda. Da muss man als Affiliate doch umdenken! ;)

  5. @eisy Bouncerate erscheint logisch, jedoch habe ich sehr viele Domains, die trotz Bouncerate von über 80 und kurzen Verweildauern zu den Gewinnern zählen. Doch das in Nischen. Ich gehe also davon aus, dass es wieder ein Basisset an Domains zum lernen gegeben hat. Das Ding ist also noch lange nicht durch, weil die Breite nach dem Learning sicherlich erweitert wird.

  6. Die großen Portale haben vor allem eines gemeinsam: viele viele Tagseiten zu ähnlichen Themen. Ich vermute, dass hier stärker gefiltert wird. Daher zieht es beispielsweise auch Gutefrage und Co so nach unten, da die ja wirklich zu jeder Suche irgendeine Frage haben. Ob hilfreiche Antworten usw. ist damit ja nicht zwangsläufig gesagt.

  7. @crowd
    Ein äußerst interessanter Ansatz ist auf jeden Fall die Tendenz zum “nichts tun” und abwarten, da man ansonsten die falschen Signale sendet: “Man kann es besser” – finde ich gut.

    Viele “verteufeln” den Abfall von Sichtbarkeit. Vielleicht sollte man aber die Erstellung der Werte genauer hinterfragen. Vielleicht hat Google tatsächlich nur einen Weg gefunden Relevanz besser einzuschätzen und unsere geliebten Tools kommen noch nicht hinterher?

    @verweildauer

    Das dieser Fakt wichtiger geworden ist zeigt der Anstieg bei Youtube. Tatsächlichen Inhalt findet man dort seltener aber der User wird gerne belustigt. Qualität muss das nicht zwangsweise haben :)

    These: Sistrix
    Der Maximalwert liegt sicherlich bei etwa 7k (Wikipedia), dann gibt es lange nichts und Spitzenwerte von um die 1k. Und wieder lange nichts! So kann eine Klassifizierung eingeführt werden. Der User sucht allerdings vermehrt nach längeren Keywordkombinationen, die mit dem Index nicht korrekt abgedeckt werden. Wenn Google nun die Hälfte aller Keywords für eine Domain abstraft/ abschaltet muss es zu einem Knick der Sichtbarkeit kommen.
    Das bedeutet aber auch, dass die Relevanz der verbliebenen Wörter zugenommen haben dürfte. Durch diesen Umstand sollte die Verweildauer der Besucher wieder ansteigen, denn diese finden das was sie suchen. Und was passiert nun? Die Sichtbarkeit steigt automatisch wieder ;)

    –> These: Abwarten :)

    Was hat das mit der statischen Sichtbarkeit zu tun? Vielleicht wurde uns nun von Google nur eine neue Klassifizierung eingeführt? 1000 Punkte = Spitzenwerte, > 100 = Optimum; > 10 hervorragend; > 1,00 extrem Themenrelevant

    Ich möchte damit sagen: Vielleicht ist es gar nicht so häufig eine Abstrafung, sondern eine “Neubewertung”!?

    Sorry, ist bissl viel geworden ^^

  8. Erstmal abwarten und Tee saufen. Der Algorithmus ist sicherlich noch in der “Lernphase” und wird auch noch Fehlerhaft sein, des Weiteren wird Tante Google, dass Teil das ein oder andere Mal anpassen und optimieren.

    Dem entsprechend ist das eine Momentaufnahme, die einige Seiten sehr schwer getroffen hat. Ich hab auch Seiten gesehen, die absolut in Ordnung sind und dennoch jetzt bis zu 80 % weniger Besucher haben und wir immer noch auf der Suche nach dem Fehler sind.

    Aber obige Notizen von Eisy konnte ich auch schon stellenweise bemerken. Ich bin mal gespannt.

  9. Ich frage mich wirklich, ob und wieviele Seiten von Google wirklich händisch bewertet wurden?! Es sind doch recht eindeutig Seiten gefallen, die Googles “Macht abgraben”….

    • Wieso “händisch” bewertet werden? Du meinst das man mit manuellen Kräften hier diversen Domains Filter setzte? Das bezweifle ich stark. Es sind so dermaßen viele Websites von Panda betroffen, da kann man eigentlich nicht manuell durchgegriffen haben. Das würde auch der Tatsache widersprechen das teilweise sehr kleine Seiten richtig gut gefallen sind.

      Und das man bei Panda von Seiten spricht die in Branchen sind wo Google ist oder rein will, dürfte niemanden verwundern. Ich sage nur “Verschwörungstheorien”.

  10. Deine Auswertungen sind bisher super nachvollziehbar und bringen einem weitere Ansätze zum ausprobieren. Vielen Dank Carsten

    • Das freut mich. Ich schreibe es so, dass ich es auch morgen noch selbst verstehe. :-) Das ist mir schon immer sehr wichtig. Freut mich wenn es auch jeder andere gut nachvollziehen kann.

      • Aufjedenfall ist die Art gelungen. Komisch ist ich habe gerade einen Fall wo ich die Ansätze leider überhaupt nicht bestätigen kann. Sonst past es eigentlich immer. Nur hier sind die angesprochen Probleme alle da und trotzdem keinerlei Veränderung der Positionen. Sehr komisch.

  11. ….uns bei den Panda-Analysen extrem aufgefallen, dass es viele Seiten getroffen hat, deren Content nicht durch Bilder oder Videos angereichert war…. Kan natürlich subjektiv und/oder Zufall sein, da die Datenmenge sicher nicht das Prädikat “repräsentativ” bekommt… ich finde es dennoch sehr auffällig!

    Alle eigenen MFA-Projekte mit mittelmäßigem Content ranken nach wie vor gut oder sogar besser als zuvor…. Der Content ist aber auch durchweg bebildert oder hat eingebetteten Videocontent.

    Grüße
    Nico

  12. Ich denke nicht, dass es die Bouncerate ist. Ich vermute eher diese korreliert in einigen begründeten Fällen mit dem eigentlichen Fakt, denn die Bouncerates der verschiedenen Länder hätten sie auch früher ausrollen können oder warum genau warten sie noch mit koreanisch, japanisch und chinesisch? Da ist wohl kaum die Bouncerate die Hürde, oder?

  13. hallo !

    viel wird über bounce rate diskutiert, aber nicht wie google hier zu sinnvollen werten kommen soll. es gibt 2 möglichkeiten

    1. analytics daten werden benützt. würde google nie zugeben und glaub ich auch nicht.

    2. es wird sucherverhalten analysiert. google kann noch feststellen, auf welches suchergebnis ich klicke, aber dann ??? der user kann jetzt mehrere seiten in tabs aufmachen, kann google ganz schliessen usw. dann kann er mal wieder zurückkommen und das gleiche suchen, oder was ähnliches, oder was ganz anderes usw. da läßt sich doch keine sinnvolle bounce rate oder verweildauer oder was auch immer rauskitzeln.

    also so interessant es für google vielleicht ist eine bounce rate in die bewertung zu nehmen, woher soll sie die technisch haben ????

  14. Der Superclix Newsletter hat Dich gerde erwähnt :)

  15. Sehr interessanter Artikel – Was man heute nicht alles für E-Mails erhält!

  16. Danke für die gute Information über das Panda Update. Hatte bis jetzt noch wenig Zeit micht damit zu beschäftigen ( leider) aber dank deiner Analysen kann ich mir da sicher viel Zeit sparen

  17. @muchacho doch, Google hat Daten über Bounce Rate, oder zumindest über Average Actions per User und Average Time on Site … im Google Ad Planner lassen sie sich ja nachschlagen, und dort finden sich auch Sites, die weder Analytics noch AdSense einsetzen (wie z.B. http://www.bundestag.de). Dort finden sich auch “Audience Interests” und “Sites also visited” …

    andere mögliche Anhaltspunkte: Suche nach der Domain … bei vielen Sites ist der Domain-Name selbst eine der häufigsten Suchen. Ein hoher Anteil davon spricht natürlich für die Qualität der Site … und würde auch erklären, warum gutscheine.de besser abschneidet, weil das einfach so naheliegend ist.

    ich hatte ursprünglich noch etwas anderes vermutet, nämlich ob sich von Page zu Page nur ein kleiner Text-Anteil ändert… die Vermutung läßt sich aber bei meinen Sites überhaupt nicht bestätigen… und Twitter müßte dann ja auch im Nirvana landen.

    • teufel auch …. das verblüfft mich ja jetzt schon sehr, mit den daten im ad planner.

      das mit der suche nach der domain ist interessant, aber müßte dann nicht auch meingutscheincode besser werden, weil nach gutschein gesucht wird. oder du meinst nur exakte domainsuche. wäre denkbar, aber man könnte sicher keine seiten strafen, weil nicht nach ihrer domain gesucht wird. und angeblich gibt es ja nur verlierer, keine gewinner.

      ich selbst zähle mich übrigens schon zu den gewinnern. die letzten 2 tage plus 20% besucher find ich nicht schlecht. panda ist eigentlich meine einzige erklärung dafür. nach der domain wird auf meiner seite nicht gesucht.

  18. Bouncerate und Aufenthaltsdauer kann nicht so schwer gewichtet sein

    Erstaunlicherweise hab ich mit einer Seite seit Freitag fast 100% Zuwachs die ich eigentlich abgeschrieben hatte wenn das Update kommt.

    Absprungrate um die 80% weil der Besucher direkt zum passenden PP weitergereicht wird.
    Aufenthalt max. 1 Minute

    Das kann also nur ein Kriterium von vielen sein.

  19. Händische Bewertungen gibt es. Es hat 2008 eine Seite von mir erwischt und 2 weitere Mitbewerber. Danach war Platz 41 das Maximum beim Hauptkeyword für alle 3 Internetseiten. Alle 3 wurden nach 2 Jahren wieder freigegeben.

    Meine Seite war sofort wieder Top10, da ich diese weiter gepflegt habe. Die Mitbewerber haben die Seite nicht so gepflegt und sind nun zwischen 10-20.

    • “Alle 3 wurden nach 2 Jahren wieder freigegeben.” > Ich bekomme nen Herzinfarkt, ich war die letzten Jahre immer noch der Meinung, dass der längste Zeitraum für eine manuelle Abwertung wohl ein gutes Jahr ist…

      Was meinste mit “gepflegt”… Content oder aktives Linkbuilding?

      Danke.

      Viele Grüße,,,
      OAK

      • Der Content wurde richtig ordentlich verfasst, so dass die Internetseite so informativ ist, dass diese auch da oben stehen sollte. Das Linkbuildiung wurde nicht mehr übertrieben insbesondere keine gemieteten Links.

  20. hi,

    echt cooler Artikel. Ich betreibe selber ein Gutscheinportal und beobachte die Entwicklung der genannten Seiten! Ich persönlich finde Gutscheine.de nicht so berauschend. Aber gut die Zahlen sprechen für sich ;-)

  21. Danke eisy dass Du Deine Notizen mit uns teilst, sehr interessant.
    Gewonnen haben ja wieder die ganz grossen, was vielleicht auch dafür spricht, dass Panda auch “Brand-Merkmale” berücksichtigt. Und ich kann mir vorstellen, dass viele Leute nach “Wikipedia XY” oder nach “Youtube ABC” suchen, während zB die Gutscheinportale beliebig austauschbar sind. Zudem wurden ja soeben die erweiterten Sitelinks eingebaut, was den “Brands” noch mehr Gewicht in der SERPs gibt.
    Ein zweiter Aspekt ist, dass dummerweise fast zeitgleich mit Panda die Messung der Verweildauer in Google Analytics geändert wurde, mit Implikationen u.a. auf total Besucher (höher) % neue Besucher (tiefer) und Besuchszeit (tiefer). Das macht Vergleiche sehr schwierig und verleitet zur falschen Annahme, dass die Besucherzahlen dank Panda gestiegen seien.

  22. Danke für den Artikel. Ich habe auf meinen Seiten Gott sei Dank nur positives erfahren :-) Alle Seiten sind aufgewertet worden (ausschließlich Blogs). Gut für mich :-)

  23. Der Theorie mit der Bouncerate und der Kategorisierung stimme ich zu. So denke ich mir das auch seit längerem.

    Ich habe beispielsweise 2 Affiliate Seiten, beide Seiten vergleichen Prepaid Tarife. In der Nische ist die Absprungrate ziemlich hoch, der User kommt auf die Seite, schaut kurz auf die Übersichtstabelle und klickt auf den gewünschten Anbieter.

    Das Denkwürdige ist, eine Seite rankt sehr gut (2 Jahre alt und gute Links) hat aber eine Absprungrate von ~77% und eine Verweildauer von 1~ Minute…

    Die andere Seite rankt im Schnitt um 10 Positionen schlechter (1 1/2 Jahre alt und nicht so viele Links) hat allerdings derzeit eine Bounce Rate von nur ~35% und eine Verweildauer von 4~ Minuten…

    Bei beiden hat sich am Traffic nach dem Panda Update nichts geändert. Das obwohl die Besucher auf der Seite mit der niedrigen Bounce Rate öfter mehr als 10 Seiten durchklicken.

  24. Das Verhältnis von Absprungrate und Aufenthaltsdauer kann auch qualitativ sehr guten Seiten somit zum Verhängnis werden.

    Besuche ich ein informative Webseite die super übersichtlich ist und eine hervorragende Usability hat, komme ich schneller ans Ziel > so wie es sein muss > tortzdem negativ für Panda

    Besuche ich dagegen eine Webseite die auch sehr informativ ist, aber ich erst 10 mal gucken muss bis ich zum Ziel gelange, habe ich einen höheren Aufenthalt > obwohl die obere Variante für den Nutzer viel besser ist.

    Man bedenke, das also nicht nur schlechte Webseiten, sondern auch relativ gut Sites negativ betroffen sein können und das ist absoluter Quatsch.

  25. Sehr interessant ist das Video von Matt Cutts zum aktuellen Panda Update:

    http://goo.gl/QQ3OE

    Demzufolge wurde (mit Stand 14.08.2011) das Update noch nicht mal mehrsprachig angewendet.

  26. Nun ja, einige Contentschleudern haben verloren, andere sind nachgekommen, das Update ist ein Witz.

  27. @Martin
    “Das Verhältnis von Absprungrate und Aufenthaltsdauer kann auch qualitativ sehr guten Seiten somit zum Verhängnis werden.
    Besuche ich ein informative Webseite die super übersichtlich ist und eine hervorragende Usability hat, komme ich schneller ans Ziel > so wie es sein muss ”

    Es gibt wahrscheinlich für Google mehrere Arten von Bounces. Z.B.:
    a) Der Suchende beendet auf der Zielseite aufgrund des guten Contents seine Recherche. Er kehrt nicht zum Google-Suchergebnis zurück = “gute Seite”
    b) Der Suchende kehrt nach wenigen Klicks zum Google-Suchergebnis und besucht weitere Seiten aus dem Suchergebnis = “schlechte Seite”

  28. Schnuffelschnecke // 17. August 2011 um 22:35 // Antworten

    Ich denke auch, dass ein wichtiges Kriterium die Bounce Rate ist. Später verbunden mit einem +1 Button der sicher mit einfliest in den neuen Algo.

  29. Ob alles so gut ist, was mit dem Panda Update passiert ist, stelle ich als fraglich hin…

    Thema BounceRate:
    es wird der Konkurrenz doch schon ein bißchen zu einfach gemacht, schlechten Einfluss zu nehmen, bspw. mehrere (evtl skriptgesteuerte?) Bounces auf einer Konkurrenzsite zu produzieren und somit das Ranking zu beeinflussen…

    seien wir gespannt, was die Zukunft hierzu bringt.

    • Ich denke nicht, dass das so einfach ist. Früher konnte man zum Beispiel Suggest noch relativ einfach mit dem Mechanical Turk beeinflusse. Klappt heut auch nicht mehr.

      Google kennt die statistische Verteilung von Clickraten, Bouncerates etc. für jedes Keyword und wenn es auf einmal einen hohen Anstieg bei einer Seite gibt, werden die da genauer hinschaun, ob das mit rechten Dingen zugeht. Sprich: Die automatisierten Clicks können (genauso wie manche Links) schlichtweg entwertet werden.

      Außerdem kommt dazu, dass es auch Seiten mit schlechter Bouncerate gibt, die nicht vom Panda getroffen worden sind. Es ist eben nicht nur “das eine Signal”, was zu Abstrafung führt und letztendlich stehst du vor dem gleichen Problem, wie wenn du einen Wettbewerber mit schlechten Links abschießen willst: Du weißt vorher nicht, ob es überhaupt was bringt (oder ihm gar hilft?) und deswegen überlegst du zweimal, ob du da deine Resourcen nicht besser anders investierst.

      Grüße
      Pascal

  30. Wow, das sind ja mal echt gute Analysen. Generell finde ich, dass die Wissenschaft sich langsam mal daran machen sollte, um die Grewichtung von den Kriterien zu messen. Ich finde diese Analyse hier wirklich sehr gut. Weiter so.

  31. Hallo,

    neben einem Forum betreibe ich ich in einem Unterverzeichnis auch ein News-Portal. Das Forum hat so gut wie keine Veränderungen, doch mit dem News-Portal ging es um 40% nach unten.

    Die Artikel sind alle eigener Content sowie Ratgeber. Natürlich ist es schwierig bei News immer der erste zu sein….

    Mal ein Frage, würde es Sinn machen das News Verzeichnis auf die Haupturl (Forum) einzugliedern, weil das Ranking dort besser ist, oder wäre das ein Schuss ins Knie?

    Ich dachte eher das, dieses Update das ganze umgekehrt beeinflusst. Denn ein Forum-Beitrag mit 40 Wörtern war für mich nicht so qualitativ wie ein gut rechierter Artikel mit 300 Wörtern…

    Ps. Sistrix Index liegt bei Haupturl bei etwa 7,5 und bei Verzeichnis jetzt nur noch bei 0,4 vorher ca. 1,8

  32. wirklich sehr schöne und interessante erkenntnisse.
    vielen dank dafür

  33. Ich habe bei meinen Seiten eine durchweg positive Entwicklung beobachtet. Zwar nicht im großen Stil, aber dennoch um ein paar Plätze

  34. Gibt ja hier schon einige Infos zum Update.
    Hier mein “zusätzlicher” Senf zum Thema.
    Artikel
    -auf mehrere Seiten aufsplitten
    -aktualisieren!(was soll alter Inhalt auf P1)
    -interne Verlinkung aus dem Content
    -Click-Fallen(Bilder, Kommentare aufsplitten etc)
    -Schrottseiten auf ne Subdomain auslagern oder noindex/ canonical

  35. Hallo eisy,

    guter Beitrag plus Fakten. Danke dafür. Selber gings auch bei einigen Projekten hoch, nun wieder etwas runter. Fraglich, ob schon alle Algorithmen durch sind. Bin gespannt, welche weiteren Erkenntnisse Du ziehst und Gedanken Du mit uns teilst :-)

    Im Gutschein-Sektor scheint geschickt verpackte Keyword-Dichte immer noch wichtiger zu sein als abwechslungsreicher Content und Details zum Anbieter. Das hat sich auch nach Panda (noch?) nicht verändert.

    Viele Grüße

  36. Ich habe mich damals gefreut, dass eine Affiliate-Seite plötzlich beim Haupt-Keyword auf Platz 1 war und deutlich mehr Traffic lieferte, doch leider pendelte sie sich wieder am alten Platz 3 ein.

    Vor mir sind jetzt wieder die Preisvergleichsseiten welche vorhin “weg” waren, also wieder alles beim alten bei mir…

  37. Es bleibt spannend zu sehen, wie sich das Thema search weiter entwickelt! Ich denke wir werden da dieses und nächstes Jahr noch große Veränderungen erleben!

7 Trackbacks & Pingbacks

  1. Auswertung der lustigen Tipprunde zum Panda-Update
  2. Das Google Update Panda in Deutschland
  3. Panda-Update angekommen - SuperClix Aktuell 16.08.2011
  4. Was tun beim Panda-Update? ─ Der Panda-Trainee klärt auf | SEO Trainee - Ab hier geht´s nach oben
  5. Pandalyse – Google Panda Analyse | SEO Mentor
  6. Google Panda Update – Überlegungen - complex economy GmbH
  7. Googles Panda Update belohnte guten Content | content.de

Kommentar hinterlassen

E-Mail Adresse wird nicht veröffentlicht.

*



Zum eisy.eu Marketing Newsletter anmelden