Webmaster Informationsaustausch

Die Blogs, die über Google Core Updates berichten, berichten auch davon, dass Webmaster berichten, dass sie Core Updates an starken Schwankungen in den Tracking-Reports erkennen. Bei mir ist das irgendwie anders. Bei mir sind Core Updates an ungewöhnlich gleichbleibenden Besucherzahlen zu erkennen (Kreis). Aber diesmal gefolgt von ungewöhnlich hohen Besucherzahlen (Rechteck). Normalerweise (zu dieser Jahreszeit) immer Sonntags ein Peak und Montags ein Pitch.
Diesmal Dienstag-Freitag ungewöhnlich hoch durch fehlgeleitete User.
Gestern und Heute Wochenende und alles scheinbar wieder OK.
Jetzt erstmal die kommenden Werktage abwarten. Viele surfen nur auf Arbeit/Schule.
google-core-update-202603.jpg
 
Ich weiß nicht was ich machen soll. Es gab seit letztem Jahr keine Änderung an der Website. Das neue Google Core Update März zerschießt mit alles. Letzte Woche (Dienstag-Freitag) doppelt so viele Besucher sowie die Verdoppelung reine Bouncer aus USA auf m/einer "de" Website. Samstag/Sonntag sowie diese Woche Montag/Dienstag wieder normal. Mittwoch 50 % zuviel und diese reine Bouncer aus USA. Donnerstag vage. Heute Freitag: dreimal so viele Besucher und die mehr Besucher reine Bouncer aus USA. Ich packs nicht mehr. Was soll das? Wie werde ich das wieder los?
 
Vollkommen irre ... heute viermal so viele Besucher und die mehr Besucher alles Bouncer aus USA. ... und da hatte ich mich über letzte Woche aufgeregt. Jetzt ist es vollkommen aus dem Ruder gelaufen.
Screenshot 2026-03-28 234725a.png
 
Darf ich kurz eine Zwischenfrage stellen, wie genau Google die Abspringrate von deiner Website technisch erkennen soll, um so die Besucheranzahl zu beeinflussen und dir damit schaden zu wollen? Das erschließt sich mir noch nicht.
 
jumper schrieb:
wie genau Google die Abspringrate von deiner Website technisch erkennen soll
Wenn User Google Search nutzt, dann wird User von Google getrackt. Wenn User einen Link in den Suchergebnissen zu meiner Website anklickt, dann trackt das Google. Wenn User auf meiner Website sofort zurück zu Google Search bounct, trackt Google das und registriert: Auf Website xxx nach x Sekunden gebounct.

Ich habe jetzt mal ein bisschen genauer hingesehen. Es scheint sich um einen oder mehrere Bots zu handeln, die nicht als Bots zu erkennen und zu filtern sind. Es gibt Serien an Visits, aber pro Visit eine neue IP. Das Feature kann man in der Cloud kaufen. Da die IPs gekürzt getrackt werden, ist ein Filtern nur sehr grob mittels IP möglich.

Eine andere Möglichkeit wäre, dass es Humans sind, die ein Browser-Plugin verwenden, dass bei jedem Visit eine neue IP verwendet. Eventuell ein VPN-Service? Eventuell einer aus den USA. Aber das würde nicht den immensen Anstieg an Visitors erklären. Dann wohl doch eher ein f_cking Bot.

Letztes Jahr im März hatte ich auf einem anderen Webhost massiv Bot-Traffic. GB-weise auf KB-Websites. März ist wohl Bot-Time.
 
  • Gefällt mir
Reaktionen: jumper
Mirlo schrieb:
Wenn User einen Link in den Suchergebnissen zu meiner Website anklickt, dann trackt das Google. Wenn User auf meiner Website sofort zurück zu Google Search bounct, trackt Google das und registriert: Auf Website xxx nach x Sekunden gebounct.
Spannend...
Wie wuerde ein Nutzer wie ich registriert?
Wenn ich google, dann oeffne ich interessante Treffer in einem neuen Tab. Meisstens mehrere, ohne mir die gefundenen Seiten sofort anzuschauen.
Die Treffer gehe ich dann nacheinander durch, und nur wenn nichts passendes dabei ist springe ich zum Google Tab zurueck, dann starte ich meisstens eine neue Suche mit etwas angepassten Suchbegriffen.
 
Mirlo schrieb:
Wenn User Google Search nutzt, dann wird User von Google getrackt. Wenn User einen Link in den Suchergebnissen zu meiner Website anklickt, dann trackt das Google. Wenn User auf meiner Website sofort zurück zu Google Search bounct, trackt Google das und registriert: Auf Website xxx nach x Sekunden gebounct.
Das heist also auch du benutzt Google Analytics ... dachte du arbeitest nicht mit Google zusammen. Was passiert mit Leuten, die Google Tracking Scripts unterdrücken?
 
Ranayna schrieb:
Wie wuerde ein Nutzer wie ich registriert?
Du bist also ein Desktop-User. Google trackt, welche Links du wann anklickst und wann du die nächste Suche startest. Der Zeitabstand fließt dann in das Ranking der von dir geöffneten Websites ein. Es ist allerdings etwas ungenau.
Janush schrieb:
Das heist also auch du benutzt Google Analytics
Nein.
Janush schrieb:
Was passiert mit Leuten, die Google Tracking Scripts unterdrücken?
Das betrifft nur das JavaScript-Tracking. Es kann zudem per PHP und per Server Access log Dateien getrackt werden. Da nützt ein AdBlocker nichts. JavaScript-Tracking ist vor allem um Events (click, scroll, etc. ...) zu tracken.
 
  • Gefällt mir
Reaktionen: 1st April
Mirlo schrieb:
Wenn User Google Search nutzt, dann wird User von Google getrackt. Wenn User einen Link in den Suchergebnissen zu meiner Website anklickt, dann trackt das Google. Wenn User auf meiner Website sofort zurück zu Google Search bounct, trackt Google das und registriert: Auf Website xxx nach x Sekunden gebounct.
Das heist also auch du benutzt Google Analytics?
Mirlo schrieb:

OK, das reicht mir ... ich wünsche dir viel Glück bei deinem Kampf gegen Google und die 0 Click User.
 
Ich musste radikal massenweise IPs blockieren, also nur fürs Erstellen der Reports aus den getrackten Daten. Wegen der IP-Kürzung 1.2.*.* ist das eine sehr grobe Sache.

Aber unglaublich wie viel Ressourcen diese Bots verbrauchen: Pro Request eine andere IP. Wobei einigen eine gewisse Anzahl an verschiedenen IPs zur Verfügung steht, die dann wiederholt verwendet werden. Bisher wusste ich davon nur rein theoretisch, dass sowas in der Cloud gekauft werden kann.

Man sollte allgemein jede IP schon am Server blockieren, die jemals von einem nicht identifizierbaren Bot genutzt wurde. Da wird es sehr schnell eng bei IPv4 in Anbetracht der Anzahl an Bots. Nur noch seriöse IPv4s durchlassen und alle IPv6 für einfache Websitebesuche pauschal blockieren. Einfach massenweise IPv4s unbrauchbar machen. Gegen radikale Bots helfen nur radikale Maßnahmen.
 
mmmmhhhh, jetzt wirds langsam interessant ... schonmal sowas wie Blocklist.de ausprobiert. Ich denke da schon länger drüber nach, alle meine Server an so eine Blacklist "anzuschließen". Man kann ja auch sowas wie Cloudflare nutzen, aber da war ich mit den Ladezeiten nicht zufrieden ... war ein kostenloses Konto.
 
  • Gefällt mir
Reaktionen: Mirlo
Habe mal ein paar IPs bei Blocklist geprüft. Da sind ein paar Matches dabei, aber nicht alle. Da bei mir die IPs wegen DSGVO nur gekürzt gespeichert werden, ist keine genaue Aussage möglich.

Ich nutze Matomo. Die verwenden bereits den Device Detector zur Erkennung von Bots.
https://devicedetector.lw1.at/
https://github.com/matomo-org/device-detector
Matomo handhabt das aber nicht optimal und speichert die Blacklist als String in eine(!) Datenbankzelle. Diese ist auch ziemlich fett.

Zudem kann in Matomo das Plugin "TrackingSpamPrevention" verwendet werden, das mehrere Blacklist für Cloud-IPs inkludiert hat, die von den Clouds selbst angeboten werden und auch ziemlich fett sind.
https://github.com/matomo-org/plugin-TrackingSpamPrevention

Diese Blacklist von Blocklist hat fast 25.000 entries: https://www.blocklist.de/downloads/export-ips_all.txt
Das ist nochmals ziemlich fett.

Leider müsste bei Matomo ein Plugin gecoded werden, um die Blacklist von Blocklist zu integrieren, und diese würde wieder als String in eine DB-Zelle geschrieben werden. Meine Anfrage für sowas eine extra DB-Tabelle zu verwenden, in der weitere Blacklists eingepflegt werden könnten, verlief im Sande. Damit wäre es allerdings möglich Doppler aus verschiedenen Blacklists zu filtern.

Die manuelle Eintragung in Matomo (Einstellungen) in eine Textarea ist bei 25.000 zu fett.

Außerdem sieht es bei der Blocklist-Blacklist so aus, dass viele der IPs in IP-Ranges fallen und es effektiver wäre diese als CIDR zu blocken. Beispiel:
Code:
153.99.92.11
153.99.92.144
153.99.92.247
= 153.99.0.0/16
https://ipinfo.io/153.99.92.11

Dabei ist zu beachten, dass es mir nur ums Tracking geht. Solange es den Serverbetreibern nicht zu viel wird - es ist ihre Entscheidung. Einer der größeren meinte, dass sie aus Prinzip nichts pauschal blocken. Einer der kleineren blockt bereits, bzw. lässt von der Serverfarm blocken, weil es ihm zuviel geworden ist.

Für eine manuelle Verwendung der Blocklist bleibt nur die Möglichkeit die Blacklist mit PHP zu verwenden und diese IPs vom Tracking zu exkludieren. Aber wie zu sehen ist, ist die Blacklist nur ein Versuch und unvollständig. Sie würde das Tracking verfälschen, indem die Bots in den Reports nicht mehr eindeutig erkennbar sind.
 
Nagut, ich würde das direkt auf Server-Ebene implementieren ... also irgendwie in das NGINX Setup reinbasteln. Das mit PHP umzusetzen geht bestimmt auch ... ich fage mal Claude bei Gelegenheit :-)
 
Zurück
Oben