Webmaster Informationsaustausch

Mirlo

Lt. Junior Grade
Registriert
Feb. 2025
Beiträge
304
Hallo,

ab und zu suche ich nach einem Forum für Webmaster. Sowas gibt es leider nicht (mehr). Das Forensterben läuft parallel zum Websitesterben. Programmier-Foren gibt es noch einige wenige, so wie das hier. Es gab auch mal speziell eines für Advertising, aber da ist schon länger nichts mehr los. Infos zu Google Core Updates gibt es nur noch über einige Blogs. Zu Seo ... weiß ich nicht mehr, weil es mich nie interessiert hat.

Die neueste für Webmaster interessante Info ist von Ende letzten Jahres: Google kündigt keine Core Updates mehr an. Einige Blogs berichten weiterhin über die neuesten Infos rund um Google Search und nun auch über KI. Darüber diskutieren ist da eher nicht möglich. Wie wäre es, wenn Computerbase neben den Unterforen "Webseiten und soziale Netzwerke" und "Programmieren" auch eines für Webmaster anbieten würde? Beide passen nicht wirklich zu Webmaster.

Das neueste Google Search Core Update läuft seit etwa einer Woche (nach meinen Beobachtungen). Zu erkennen ist dies durch einen Unterschied zu sonst. Nach dem so ein Update durch ist, sind die Statistiken meist wie vorher.

Meine Websites sind sehr verschieden. Ein Vergleich der Websites untereinander ist nicht möglich. Jede hat ihre speziellen Eigenarten.

Beim derzeitigen Core Update gibt es bei einer Website eine gravierende Veränderung. Diese existiert unter dieser Domain seit über 10 Jahren. Bis 2023 war diese im Ranking auf Seite 1, also unter den ersten 10, beim entsprechenden Searchstring. Dannach bis vor wenigen Wochen bis auf Seite 12 und sogar zweitweise ganz raus (seitdem die Anzahl stark begrenzt wurde). Jetzt ist sie wieder auf Seite 1. Es wurde diesbezüglich nichts an der Website verändert. Ich habe meine Websites bisher nie an Google angepasst, sondern sie nach meinen Vorstellungen gestaltet. Der Grund für das massive Upranking ist bei Wikipedia zu finden. Ein Grund für das Re-Ranking auf Seite 1 kann nur durch das Core Update erklärt werden. Möglicherweise hat Google die Abhängigkeit zu Wikipedia gecancelt.

In den Blogs wird geschrieben, dass Google seit einiger Zeit nicht mehr auf SEO achtet, sondern auf "Helpful Content". Das tangiert wiederum Themen wie Zero-Click-User, die auf eine Website klicken, dort alle Infos sofort sehen wollen und keinen Klick auf der Website hinterlassen und manchmal noch nicht einmal scrollen, sondern sofort wieder zurück zu Google bouncen.

Das KI-Snippet soll auch angepasst worden sein. Es sollen nun dort direkt Produktkäufe möglich sein.

Ein Searchstring zu einem speziellen Content auf einer meiner Websites hatte bis vor kurzem ein KI-Snippet aktiviert, in dem die Infos von meiner Website veröffentlicht wurden. Die (meine) Webpage dazu war gleich darunter auf Platz 1. Die Info war aber schwierig, da im Kern uneindeutig. Ich hatte diese vor einigen Wochen angepasst und erweitert, und zwar so, dass sie nun neben der neuen eindeutigen Info viele zusätzliche uneindeutige Infos enthält. Das scheint die KI verwirrt zu haben? Denn nun wird kein KI-Snippet mehr aktiviert, und meine dazugehörige Webpage ist weiterhin auf Platz 1. Es ist also scheinbar möglich diese KI-Snippets loszuwerden. Aber das ist einfacher gesagt als getan.

Das sind nur zwei Erkenntnisse meinerseits zum Google Search Core Update. Bei dem, mit der Website, die nun nach vielen Jahren wieder auf Seite 1 ist, stellen sich viele Fragen. Hat Goggle sich damit einen Fehler eingestanden, dass es falsch war diese Website so weit hinten bis gar nicht zu listen? Google macht Fehler und diese - wie schon anderweitig zu hören war - können existenzbedrohend sein. Braucht es also eine größere Regulierung von Google? Demnach unbedingt ja. Aber auch Regulierung kann fehlerhaft sein und Schaden anrichten.

Eine neu angelegte Website mit eindeutigem exklusiven Domainnamen zu einem bereits bekannten Wort wurde mit diesem Wort als Suchstring nach 2 Tagen bei Bing auf Platz 1 gelistet und bei Goohle bisher gar nicht. Auch nicht in Quotes und auch nicht mit gesamter Domain "___.de". Stattdessen Vorschläge: Meinten Sie ... Sowie ein KI-Snippet, dass allerdings erst nach ein paar Tagen korrekte Infos dazu lieferte, jedoch auch nicht die Domain zur Website.

Vermutet wird, dass Google korrupt ist und darauf abzielt, dass AdWords verwendet werden soll. Erst wenn eine Schwelle der Bekanntheit anderweitig erreicht wurde (dafür gibt es Beispiele mit anderen Domains), cancelt Google diese künstliche Hürde. Aber da wird Google sicher irgendeine Ausrede mit irgendwelchen trendigen Begriffen finden, dass es ja nur zum Schutz der User wäre.

Vor ein paar Tagen bin ich auf ältere Websites von Künstlern und Künstlerkollektiven gestoßen, die noch oldschool Linklisten haben. Viele der Links/Websites waren entweder nur HTTP oder schon nicht mehr existent. Diese waren aber über das Web Archive zu finden. Gäbe es die Linkhaftung nicht, wären Linklisten vielleicht wieder eine Alternative. Also müsste die Linkhaftung abgeschafft werden. Doch die gegenwärtigen Internetuser klicken keine Links mehr an. Sie klicken nur noch von Google hin und bouncen sofort. Damit sind Linklisten auch keine Alternativen zu Google.

Dieses "Helpful Content" führte bereits nachweislich dazu, dass ein Original, auf dem Nachrichten-Artikel und Blog-Artikel basieren, hinter diesen gerankt wurde. Das führte sogar so weit, dass das Original ganz aus dem Ranking rausflog und nur noch Content gelistet war, der über das Original berichtete. Meist reißerisch, weil das bringt Klicks. Das Original interessiert nicht. Es wird ausgebeutet und verscheucht - es ist lästig. Es wird ausgezuzelt wie eine Weißwurst und der Saitling wie ein benutztes Kondom weggeschmissen.

Es gibt Beispiele, die dazu aufrufen, dass Google reguliert werden muss. Doch ich werde mich nicht zum Idioten machen und meine Beispiele veröffentlichen, nur damit alle darüber herziehen. No Way.

Es ist ähnlich wie Snowden. Es wussten eh schon alle, was er aufgedeckt hat. Nur wurden vorher alle, die es gesagt hatten, als Idioten dargestellt. Jetzt ist Snowden der Idiot. Heute ist es um weiten sensibler und gefährlicher. Da wird man gleich in eines der politischen Lager geschoben, auch wenn dieses Lager einen zugleich wieder woanders hinschiebt.
 
  • Gefällt mir
Reaktionen: BeBur und netzgestaltung
Bin ganz deiner meinung, aber ignoriere Google einfach - für mich fällt (OnPage-)SEO unter Barrierefreiheit (für Maschinen) und läuft in der allgemeinen Barrierefreiheitsschiene einfach mit. Sich mit Marketing auf SEO zu verlassen hat schon einigen blaue Augen gekostet, daher würd ich nie alles darauf setzen.
 
  • Gefällt mir
Reaktionen: User007
Ich hatte das jetzt schon öfters, dass KI-Seiten weiter oben waren als echte Quellen.

Google ist groß geworden, weil deren Ranking-Algorithmus viel besser war als von der Konkurrenz und viel weniger Spam-Seiten angezeigt hat. Ich will bei meinen Recherchen keine KI-Seiten die beim Abbschreiben womöglich Fehler gemacht hat, sondern die Original Fachartikel von Experten. Wir gehen hier gearde full-circle, ich hoffe nur ich bin nicht der einzige, der nur Originalartikel haben möchte.
 
Danke für die Comments und die Links.

Ich habe das Thema hier extra nicht in das Unterforum "Websites", sondern "Programmieren", weil ich mir dadurch erhoffte, dass nur Webmaster und nicht (wie wir sie nennen) "Visitors" (oder "User") antworten, weil deren Sichtweise immer und ausschließlich von der anderen und somit falschen Seite aus ist. So also auch bei dem verlinkten Frank und bei Bebur.

Bei Frank schlägt User vor die (neue) Websuche (Tab) in Google Search zu verwenden. Ein vollkommen hirnloser Vorschlag, da ich als Webmaster den Usern nicht vorschreiben kann, welche Suche sie verwenden sollen. Stellt euch vor, dass macht jeder wie er will! Wahnsinn, oder? ;)
netzgestaltung schrieb:
aber ignoriere Google einfach
Ich weiß wie du das meinst, aber User denken da eher an sowas wie Startpage und DuckDuckgo oder Bing verwenden. Auch an mir ging das nicht vorbei, dass ich dazu gedrängt wurden all die Sachen, die sich nach einiger Zeit als Google-Luftnummer herausgestellt hatten, UNBEDINGT zu verwenden: "Das musst du unbedingt machen!". Da hab ich schon immer abgewunken. SEO ja, aber nichts besonderes, sondern Standard. HTML 5, <html lang="...">, <title>..., verschiedene <meta ..., und vor allem valides HTML und CSS → eine cleane Browser-Console. Einzig sinnvoll fand ich Googles Vorschlag die Requests pro Page zu minimieren, weil ich das auch anderweitig praktisch finde. Keine solchen CMS die bei einem Webpage-Aufruf 80 Requests machen. Bei Images lazy load verwenden. Sowas halt, allgemeines, nicht spezielles. Speziell hatte ich mich von Anfang an dazu entschieden keine meta-Tag keywords zu verwenden, sondern nur description. Google hatte das (später) sogar mal vorgeschlagen, oder wenn ich mich recht erinnere Keywords sogar ignoriert. Kurze Zeit später sollte wieder jeder welche verwenden.

Die Tips von Google sind nicht immer verkehrt. Sie müssen nur richtig verstanden werden. Zum Beispiel in Titles keine Zwischenwörter, sondern nur Substantive, Verben und Tätigkeitswörter, weil die Zwischenwörter beim Indexieren eh rausgelöscht werden.
Beispiel:
Code:
Office Home Business 2024 als 32bit Version installieren
Code:
Office Home Business 2024 32bit installieren

Was bei Google gleich geblieben ist, ist die Verbindung zwischen Suchstring und Domainname. "Administrator" listet deswegen "administrator.de". Würde Google diese Verbindung canceln, sehe es anders aus. Da kenne ich eine Website, die schon lange tot ist, aber noch vor einer meiner Websites gerankt ist, weil diese Verbindung zwischen Suchstring und Domainname noch besser matcht als bei meiner. Das ist auch wieder so ein Fehler bei Google.

Was mir auffällt ist, dass viele (Webmaster) nur noch über KI meckern. Dabei ist KI ziemlich primitiv. Diese Content-Creaturen haben nur anhand von Kursen gelernt Content zu erstellen, und die KI benutzt diese/n. Sie sind nicht fähig kreativ zu sein. Sie produzieren anstatt kreiern. Das wird ihnen nun zum Problem.

Meine Wenigkeit hat davon noch nie viel gehalten und auch nie einen Kurs oder Lehrgang gemacht, weder für Code noch für Content. Die Kreativität zeigt, dass KI austricksbar ist. Da KI vorwiegend textbasiert ist, wäre die kreative Lösung, Tutorials nur noch als Canvas anzubieten. Vielleicht würden auch JPEGs dem genügen. Oder gleich nur noch Videos bei YT. Da dann eventuell am Sprachskript arbeiten, so dass KI mit dem gesprochenen nicht viel anfangen kann, aber Human schon.

Es ist ählich wie in der derzeitigen Kulturkrise. Die Kultur besteht mittlerweile aus 99,99 % nur noch aus Produktion (Musikproduktion) und Konsum (Konsumprodukte). Wo ist da noch Kultur? Konsumkultur. Wo ist da noch Kunst? Kunstkonsum. "Der Kunstmarkt regelt alles." Das kann also alles weg. Dann bleibt noch 0,01 wahre Kultur und Kunst, mit der niemand mehr etwas anzufangen weiß.

Aber diese eine Info, mit dem nun auch Advertising in KI, ist schon interessant. Zuerst wurde nur der Content geklaut, meist von denen die ihn monetarisierten. Nun monetarisiert die KI den geklauten Content gleich selbst. Aber das war auch schon ohne KI so. Viele meiner neuesten Ideen schafften es im Google Search Ranking auf die vordersten Plätze und es dauerte nicht lange und meine Idee wurden von anderen übernommen und meine durch diese verdrängt, weil sie finanzstärker waren und AdWords und alle schmutzigen Tricks angewendet hatten. Nun ergeht es denen so mit der KI und sie heulen rum.

Was sich mit KI derzeit herausstellt, dass diese vorwiegend Content dupliziert, der relevant zu sein scheint. Das ist meist Mainstream-Content. Das war noch nie mein Ding. Es ist zu beobachten, dass KI eine gewissen Schwelle impliziert hat, ab wann diese Content dupliziert. Bei mir ist es so, dass viel Content sehr speziell, aber gefragt ist. Es gibt aber auch da Unterschiede. Einerseits sozusagen To-go Content, bei dem sehr schnell gebounct wird (oder Affiliate-Link angeklickt). Das sind meist Kurzinfos zu irgendwas, so allá kurze Frage - kurze Antwort. Andererseits tiefgründigerer, bei dem dann interessierte User weitere Pages mit mehr Infos anklicken.

Das eigentliche Problem mit Google ist ganz anders gelagert. Es betrifft mehr das Bestreben nach dem Ideal des "Helpful Content". Das ist eine Sackgasse, ein Irrweg. Dieses "Frage - Antwort" ist der falsche Weg. Es ging schon immer darum dem User mehr und weiteres und anderes anzubieten, so dass dieser ein Erlebnis hat. Diese Idee ist leider ins Dead Scrolling abgeglitten, und beim Gegenpart ins Zero-Click-Verhalten. Das Internet wird nicht mehr als Abenteuer verstanden, in dem es stetig neues zu entdecken gibt. Die Erwartungen ans Internet wurden zu einer Dienstleistung (und Webmaster zu Dienstleistern). Einerseits das Berauschen wie im Fernsehen (mit Werbung). Andererseits das Shopping-Paradies zum unendlichen Konsumieren. Zu entdecken gibt es nur noch was andere bereits entdeckt und produziert haben. Dieses "1 + 1 ergibt 3" gibt es fast nicht mehr. Es gibt nur noch das "1 + 1 ergibt €".

Bei Bandcamp gibt es die Option im eigenen Bandprofil drei verschiedene andere Tracks/Alben zu "recommenden". Das können eigene oder auch die von anderen Bands sein. Interessant daran ist, dass das fast niemand nutzt. Diese Option verdrängt 3 der durch Bandcamp vorgeschlagenen anderen Tracks/Alben. Insbesondere interessant ist diese Option für Musiker, die nicht nur eine Band am laufen haben. Da es sonst keine andere Möglichkeit außer reinen Text gibt darauf aufmerksam zu machen. Doch da stellt sich raus, was anderweitig schon herausgefunden wurde, dass die User sowas gar nicht mehr interessiert. Ihnen ist der Künstler im Grunde egal, außer was dessen Benutzung zum eigenen Wohlgefallen betrifft.

Google Search wurde zur meist benutzen Suchmaschine, weil die anderen damaligen (um 2000) sehr einfach waren. Das war vergleichbar mit dem Unterschied zwischen einer simplen Textsuche und einer Datenbankabfrage mit AND / OR und so weiter.

In der Welt des Marketings geht es hauptsächlich um das Mitverdienen an dem was irgendwer produziert oder kreiert. Das ist ähnlich wie bei Büchern. Da verdient der Autor so gut wie nichts und der Verlag und die Druckerei leben davon. Stell dir vor, keiner schreibt mehr Bücher.

Was der CEO von Cloudflare da von sich gibt zielt auch nur auf ein Mitverdienen und ein Optimieren und Erweitern des Mitverdienens ab. Exakt das wird passieren. Alles andere ist bereits vorbei.
 
Mirlo schrieb:
Ich weiß wie du das meinst, aber User denken da eher an sowas wie Startpage und DuckDuckgo oder Bing verwenden.
Für mich gilt das sowohl als Webseiten Betreiber als auch als User :) - das Google Pagespeed-Tool ist schon ganz OK, schnellere Ladezeiten haben auch eher was mit Absprungraten nach dem Suchmaschinen-Aufruf zu tun als mit der Auffindbarkeit - also das lohnt sich eigentlich immer.
Mirlo schrieb:
Die Kreativität zeigt, dass KI austricksbar ist. Da KI vorwiegend textbasiert ist, wäre die kreative Lösung, Tutorials nur noch als Canvas anzubieten.
Ich denke nicht, dass solche Barrieren lange halten - da braucht es nachhaltigere Lösungen, Idee hab ich da aber auch keine - bin ja aus der OSS Ecke, sollen die doch alle Texte nutzen - eine Quellenangabe sollte halt nicht fehlen.
 
Hier noch eine aktuelle Info bezüglich der Info mit der neuen Domain/Website, die nach 2 Tagen bei Bing auf Platz 1 und bei Google bisher gar nicht ... heute listet Google unter dem Suchstring (Domainname) die Website, auf der ich die Website verlinkt habe. Das ist eine uralte Google-Regel, in der der Link-Text zum Link-href indexiert wird. Aber eigentlich eher dafür, um den Linktext mit der verlinkten Website in der Google Search Database zu verknüpfen, also dass die verlinkte Website unter dem Linktext als Suchstring gefunden wird. Hier ist also wieder entweder ein Fehler bei Google zu erkennen, da nicht die Website mit dem Link zur gesuchten Website, sondern die verlinkte Website in den Suchergebnissen gelistet werden müsste, oder es ist wieder eine Korruption im Spiel (AdWords).
Code:
neue Domain/Website: neu###.de
alte Domain/Website: alt###.de
Link auf alter Website: <a href="neu###.de">neu###</a>
Suchstring: neu###
Suchergebnis: alt###.de
 
Zuletzt bearbeitet:
netzgestaltung schrieb:
sollen die doch alle Texte nutzen - eine Quellenangabe sollte halt nicht fehlen.
Das sehen die Content-Creator anders. Wieso sollen sie Content erstellen, wenn ihre Website mit dem Content nicht mehr besucht wird? Da können Sie es ja gleich auf einen Zettel schreiben und diesen in den Papierkorb werfen, oder es sich gleich sparen. Die Zero-Click-User klicken keine Links zu Websites, außer es ist unvermeidbar. Sie wollen alles bereits in Google und Google nicht verlassen. Content-Creator würden aber gerne ein bisschen mit ihrem Content verdienen, damit die Mühe nicht ganz umsonst war. Oder sie würden zumindest gerne ein bisschen bekannt werden. Wenn all das aber nichts mehr wird, gibt es für sie keinen Grund mehr Content zu erstellen. Einige erstellen den Content dann mit KI, weil weniger Aufwand. Dann klaut die KI den von KI erstellten Content, oder sie klaut ihn nicht, weils KI Content ist. Dann kann man sich das also auch schenken.

Es sind die kuriosesten Sachen zu beobachten. User kopieren Links zu meinen Websites, die in Social Media, Google oder Foren verlinkt sind und besuchen meine Websites mittels diesem Direktlink, weil sie keinen Referrer senden wollen. Dann hat eine meiner Webpages zwar einen Peak, aber nur 1% einen Referrer der Website mit der Verlinkung. Andere wiederum klicken keine Links in Foren und suchen lieber danach bei Google und gelangen so auf meine Websites. Wenn dann der Content bereits bei Google veröffentlicht ist, genügt ihnen das und sie besuchen meine Website nicht. Es ist schon ziemlich crazy.
 
Zurück
Oben