dms schrieb:
Du hast ja sinngemäß gesagt, du hast die Topinfos - aber beliben wollen viele nicht?
Doch, es bleiben viele. Nur gibt es auch viele Bouncer. Auf einer Website konnte ich die Bounce-Time hinauszögern, indem die User dazu angeregt werden sich mehr dafür zu interessieren und mehr zu erfahren als nur stetig stumpfsinnig durchs Internet zu klicken. Auf der Website, die ich neu strukturiert habe, ... darum geht es hier aktuell. Dazu vorher noch folgende Info:
Da können sich die Zero-Klicker auch bei Google beschweren, denn Google ... es geht dabei um sogenannten "Duplicate Content".
Wenn wir feststellen, dass Duplicate Content vorliegt, der beispielsweise durch Variationen von URL-Parametern hervorgerufen wird, dann fassen wir diese duplizierten URLs zu einer Gruppe zusammen.
https://developers.google.com/search/blog/2008/09/demystifying-duplicate-content-penalty?hl=de
Das habe ich bei einer meiner Websites erlebt, aber zugleich wurde es bei selben Content bei einer anderen nicht gemacht. Es ging um Fotos einer Location. Auf der anderen Website sind 2 Fotos über 2 Urls zu erreichen, mit selben Text. Beide Urls werden (update: wurden) bei Google gelistet. Auf meiner Website sind 5 Fotos über 5 Urls mit ungefähr gleichem Text, und diese sind wiederum über eine Übersichtspage erreichbar. Google listet (update: listete) keine der Urls zu den Fotos, sondern nur die Url zu der Übersichtspage, aber auch nur, wenn die Suche in "Quotes" gesetzt wird (wurde), also nur sehr schwer auffindbar. Aber selbst wenn, dann würde eben nur die Übersichtspage in Google gelistet werden und der User müsste mindestens 1 Klick zum Content machen, bzw. diesen vorher auf der Übersichtspage suchen. Das ist Google. Ich hatte mir schon Mühe gegeben, die Texte etwas verschieden zu gestalten, aber Google hat sie als "Duplicate Content" gerankt. Bei der anderen Website sind die Texte sogar identisch. Google unterscheidet leider nur anhand von Text und nicht von Fotos. Google will, dass alle Fotos, die ungefähr gleich sind, auf einer Page veröffentlicht werden. Das ist zu umständlich bei einer Fotowebsite. Da hat jedes Foto eine Page und jede eine Url. Siehe Flickr und sonstige.
Update: Ich hatte die Texte nochmals überarbeitet und sehr verschieden gestaltet und nun sind 3 Urls auf den ersten Plätzen. Aber noch kein Foto in Google Bildersuche. Jedoch die anderen beiden von der anderen Website sind scheinbar raus, dafür ein anderes einer anderen Website drin und in Google Fotos vorn. Hinzu kommt noch eine Online-Zeitung, auch mit Foto.
Auf der neu strukturierten Website habe ich alle Subpages in Sub-Urls und eine Übersichtspage, auf der alle verlinkt sind. Da eine Subpage vorher die Übersichtspage war, listet Google weiterhin die Übersichtspage. Das ist nichts ungewöhnliches bei Google. Da ich zudem auf eine neue Domain umgestiegen bin, hatte ich die alte gleich der alten Struktur auf die neue redirected. Bei mir ist das aber noch sehr human mit unter 10 Subpages. Bei Ebay-Links listet Google auch Übersichtspages und da ist das Gesuchte fast nie zu finden, weil die Indexierung Jahre alt ist. Das ist sehr anstrengend. Bei mir ist nun aber zu sehen, dass einige User gleich wieder abspringen, nur weil der Content nun 1 Klick weiter ist. Andere sind so schlau und klicken und werden fündig. Warum Google und auch ChatGPT weiterhin wie vorher verlinken, weiß ich nicht. Sie könnten ja auch einfach mal neu indexieren. Aber vielleicht haben sie das und sich so entschieden? Der Content der Subpages ist auf jeden Fall sehr verschieden.
Das Interessante an der Beobachtung ist das Verhalten der Zero-Klick-Bouncer. Sorry, da gibts absolut NULL Verständnis. Das ist sinnloses Clickbaiten und Bouncen. Andere klicken einmal, finden und bleiben und sehen, aaahh da gibts noch mehr interessantes.