Matt Cutts beantwortet im neuen Video eine wichtige Frage die viele Seitenbetreiber interessiert. Vorweg kann ich sagen, es ist diesmal keine „Wischiwaschi-Antwort“ sondern einfach mal eine nützliche Information.
Inhaltsverzeichnis
Die Frage
How does Google handle duplicate content and what negative effects can it have on rankings from an SEO perspective?
Gary Taylor, Stratford Upon Avon, UK
Wie geht Google mit doppelten Inhalten um und welche negativen Auswirkungen hat es aus Perspektive der Suchmaschinenoptimierung auf die Rankings?
(sinngemäß)
Hören wir uns hierzu die Antwort von Matt Cutts an.
Gleich zu Beginn weißt Matt Cutts darauf hin, dass im Internet über ein Viertel der Inhalte doppelt sind. Man geht von 25% bis 30% aus. Gemeint sind dabei nicht nur Webseiten die sich 1:1 in Wort und Bild gleichen sondern auch jene, welche nur Wiederholungen darstellen. Beispielsweise die, die diesen Artikel umformulieren und inhaltlich gleich, aber mit anderen Worten erneut auf Ihren Blogs publizieren.
Wie geht Google damit um
Laut Matt Cutts greift sich Google alle doppelten Inhalte und steckt sie in ein Cluster. Also alle in ein Paket. Darin bleiben die Inhalte sozusagen unter Beobachtung. Sie konkurrieren fortlaufend gegeneinander. Verbessert ein Seitenbetreiber seinen Inhalt und schafft dadurch einen Mehrwert gegenüber den anderen Seiten im Cluster rückt dieser in den Suchergebnissen auf eine relevante Position.
Google will nur die für den Besucher besten Ergebnisse aus dem Cluster anzeigen. Deshalb rutschen auch jederzeit rankende Seiten mal wieder nach hinten und müssen sich neu beweisen. Doppelte Inhalte zu anderen Webseiten führen nicht unbedingt zu einer Abstrafung. Meistens fühlt es sich nur durch das Vorgehen von Google so an.
Nur wer übermäßig viel doppelten Inhalt produziert wird von Google eine Abstrafung erhalten. Sonst wären auch die meisten Onlineshops längst in einer Penalty wenn sie die Beschreibungen von Herstellern übernehmen. Tatsache ist aber, sie ranken nur nicht sonderlich gut weil sie gegenüber der anderen Seiten im Cluster keinen Mehrwert bieten.
Doppelte Inhalte als internes Problem
Viele Blogger, aber auch Shopbetreiber sollten interne Probleme mit doppelten Inhalten kennen. Da stellt man ein Produkt im Shop in mehreren Versionen online, nutzt aber für jede Farbe der Hose die gleiche Beschreibung. Nun rankt Google mal die URL und mal die andere URL. Bei Blogs rankt mal die Kategorie, mal die URL vom Schlagwort und dann mal wieder ein Blogbeitrag. Richtig entscheiden kann sich Google scheinbar nicht.
Die Suchmaschine wählt auch hier anhand der ihr verfügbaren Möglichkeiten die scheinbar beste Seite aus. Zum Glück kann heute mittels Noindex, Robots.txt und Canonical-Tag eine ganze Menge intern gelöst werden.
Es gibt aber auch hier seitens Google für solche Probleme keine Abstrafungen. Alles was an Schwankungen in den Rankings dadurch entsteht sind Ursachen der technischen Probleme. Aber keine erteilten Sanktionen durch Google.
Interessant ist auch, wie Google mit Lyrics Seiten umgeht. Hier ranken Seiten auf den Top Plätzen, obwohl sie alle den gleichen Inhalt bieten. Google macht aber hier eine Ausnahme und sagt, dass der Inhalt auf solchen Seiten immer nahezu gleich ist, da sich die Textversionen auf den einzelnen Seiten nur marginal unterscheiden können.
Interessant zu wissen wäre, welche anderen Branchen/Themenfelder genauso behandelt werden…
Hey Danke Sören für den neuen Beitrag. Es ist einfach immer wieder gut bei Dir auf die Seite zu kommen; immer wieder neue und aktuelle Themen. Ich habe daher den Beitrag gerne auf Facebook geteilt 😉
Ich bin richtig happy, dass mit dem Videobeitrag von Matt endlich mehr Klarheit zum Thema DC herrscht. Konnte es sogleich jemanden weiterempfehlen, damit man weiß, wie DC in Zukunft zu handhaben ist. Danke!
Eine gute Weise, mit doppeltem Content umzugehen, ist was hier gezeigt wird: Der Content wird übersetzt und von gesprochenem Inhalt in Text umformatiert. Inhaltlich 2x das gleiche, in der Form total veschieden 😉
War aber eigentlich doch jedem schon irgendwie klar, oder? Ansonsten würden Seiten der Konkurrenz, die einfach nur Kopien der eigenen Seite sind, um mich abrutschen zu lassen, viel effektiver sein.
Ich müsste dann unliebsame Konkurrenten (sind sie ja fast alle^^) nur mehrfach kopieren und ins Netz stellen (lassen) und schon wären sie verschwunden. Eine Zeit lang wurde dass doch von diversen russischen „Dienstleistern“ angeboten.
Egal was man sagt, aber langfristig siegt doch immer wieder einzigartiger und guter Content! Wer sich bei seinen Artikel Mühe gibt und sich in seine Kunden hineinversetzen kann, der kann am Ende nur gewinnen!
Grüße Ralf
Da stimme ich zu. Ich denke auch, dass Content King ist. Ich denke, dass ich den Lesern einen Mehrwert bieten muss und das wird Google bestimmt mitkriegen.
Bisher hieß es ja, das sich doppelter Content bei Google abstrafend in Bezug auf das Ranking auswirkt. Betrachtet man dies aber aus der Sicht von „Bo“, ist nachvollziehbar, dass man das so nicht verallgemeinern kann. Eine guter Artikel mit vielen interessanten Fakten. Danke und viele Grüße
Man sollte sich schon etwas mühe geben für guten content. Am ende gewinnt immer der ein guten content schreibt.
Ein schöner Beitrag, ich hätte mich allerdings um ein paar mehr konkrete Hinweise gefreut. Wie ist das aktuell mit einer Umleitung auf www. Ist dies noch notwendig, bzw erkennt google mittlerweile example.com und http://www.example.com als eine Adresse?
Meine Schwester betreibt einen Blog und ihr ist aufgefallen, dass es Beiträge gibt, die 1:1 kopiert werden. Wie kann man dies eigentlich komplett umgehen? Diese Frage wäre wohl auch sehr interessant und ob Google nicht einfach den dreist kopierten Beitrag nicht einfach komplett ausblenden kann….
Ein sehr hilfreicher Beitrag. Vielen Dank.
Man lernt nur daraus. Die Texte sollte man selber schreiben.
Wer kopiert ist selber schuld
Gruss
Herr Putzinstitut
Das ist natürlich ein sehr komplexes Thema.
Es ist wahnsinnig schwer immer wieder neuen Inhalt zu stellen. Eigentlich ein Ding der Unmöglichkeit, wenn man nicht gerade eine Nachrichtenseite hat…
Guter Content ist sehr wichtig, klar wer gut ist der bleibt und wer nicht der fliegt bzw. fliegt nach hinten im ranking und fängt wieder von neuem an, wie im wahren Leben, jeden tag aufs neue. Viele Grüße
Hallo Torben, aus dem Grund sollte man die Pflege der Webseite an ein professionelles Unternehmen abgeben, da dieses Gebiet so umfangreich ist, dass man es kaum selbst schafft. Viele Grüße Marc
Der Beitrag ist sehr schön. Ich finde es geht nichts über einen einzigartigen Beitrag. Natürlich ist es immer wieder schwer neuen Inhalt zu präsentieren aber ohne Fleiß kein Preis. Nur mit einem guten Content der aus der Masse sticht kann man auf dauer bestehen und die Leser binden.
Die Handhabung ist von Google gut geregelt. So werden die Seiten, die auch aktiv Betrieben werden, besser gerankt. Ich finds auch gut, das Seiten sich immer wieder neu beweisen müssen. An sich ist das eine recht gute Strategie. Leider kann man den Duplicate Content nicht immer verhindern werden, auch abweichende Texte wird es immer geben, da es einfach viele „News-Seiten“ gibt, die z.B. über aktuelle Michael Schumacher berichten oder Angela Merkel, die sich das Becken gebrochen hat.
@eisy danke an euch, das Ihr wiedermal ein super Bericht vorgestellt habt!
Wie bitte formuliert man genau „doppelte Inhalte“. Beispiel in meinem Fall: Lottozahlen. Ich weiß nicht wieviel tausend Seiten und Blogs jeden Mittwoch und Samstag den gleichen Content(aufbau) bringen: Kurze Einleitung, Lottozahlen, Auschluss von Gewähr. Werden da nicht automtaische alle neu hinzu kommenden Seiten abgestraft, weil sie (im Verständnis von Google) nur Content duplizieren?
Danke und Gruß
Das zeigt mal wieder dass man auch als Shopbetreiber darauf achten sollte, alle Artikelbeschreibungen individuell zu gestalten. Als Blogger sowieso.
Finde ich so weit ja schön und gut aber das Kernproblem ist doch die Frage, ob ich den doppelten Content überhaupt im Griff habe. Klar, geht es um doppelte Shopbeschreibungen usw. kriege ich das alles hin aber wenn mich jemand kopiert und wie im Kommentar von Bo zu sehen vielleicht sogar mehrere Konkurrenzseiten mit WP Robot und Co. hochzieht bin ich ja eher machtlos. Angenommen es wird mein RSS Feed abgefangen und für fremde Beiträge verwendet: Ich poste einen Artikeld er Feed geht raus, Konkurrent 1 kopiert alles und postet auch Minuten später und in der Indizierung siehts plötzlich aus als hätte ich abgeschrieben und nicht umgekehrt. Was kann ich hier tun?
Hallo,
ich habe deine Seite gerade erst bei Google gefunden und werde sicherlich öfter mal hier reinschauen, da deine Artikel ausnahmslos wirklich sehr interessant sind.
Ich bin noch ganz frisch, was die Bloggerei angeht und habe deshalb noch eine Menge zu lernen was die SEO Optimierung angeht.
Deshalb ist dieser Artikel für mich wirklich sehr hilfreich. Ich dachte bisher wirklich noch das Google lediglich nach Texten sucht die sich inhaltlich komplett gleichen, nicht aber das auch z.B. die Form des Artikels ausgewertet wird.
Ich habe wirklich noch eine Menge zu lernen, deshalb danke für diesen Beitrag von dir.
Gruß
David
Gute Frage Stefan. Das wüsste ich auch ganz gern wie Google solche Zeitnahen Kopien dann unterscheidet.