News Google härtet seinen Suchalgorithmus gegen Spam

Fetter Fettsack

Fleet Admiral
Registriert
Nov. 2009
Beiträge
10.216
Google hat laut dem Blog des Chef-Ingenieurs in der sich nun dem Ende zuneigenden Woche seinen Suchalgorithmus adaptiert, um der immer weiter um sich greifenden Neigung von Seitenbetreibern, sich in den Suchresultatsranglisten durch sogenannten „Keyword-Spam“ nach oben zu befördern, einen Riegel vorzuschieben.

Zur News: Google härtet seinen Suchalgorithmus gegen Spam
 
Dann geht ja bestimmt wieder eine riesige Debatte los, wie es neulich der Fall war, dass Google die Ergebnisse zu Ungunsten einiger Anbieter beeinflusst. Fand die Debatte damals schon sinnlos und finde den Schritt Seitens Google "aus Gründen der Quallitätssicherung" richtig.
Mich regt es ohne Ende auf, wenn auf der ersten Seite von Google nur weitere Suchmaschinen inkl. Ergebnis verlinkt sind. Oder Seiten, die mir alles erzählen wollen, außer das was ich suche.
 
Werden dann endlich die 1.000 Link-Foren / Newsgroups entfernt, die nerven ganz gewaltig.
Nichts dagegen, dass man Kopien von Seiten und Inhalten findet (evtl. sogar anders aufgebaut), aber wenn es nur darauf abzielt Links zu generieren, dann ist dass für den Benutzer unnötig.
 
Brandkanne schrieb:
Dann geht ja bestimmt wieder eine riesige Debatte los, wie es neulich der Fall war, dass Google die Ergebnisse zu Ungunsten einiger Anbieter beeinflusst. Fand die Debatte damals schon sinnlos und finde den Schritt Seitens Google "aus Gründen der Quallitätssicherung" richtig.

sollen diese debatten doch starten. so werden wohl so drecks seiten wie ciao weiter nach unten rutschen genau die die sich beschwert haben das ihr spam nicht weiter oben ist.

google macht das richtig. ich will gute suchergebnisse nicht ciao müll
 
echt heftig wie oft der suchalg. geändert wird. ich war am donnerstag auf einer antrittsvorlesung in göttingen und da ging es auch gerade um diese sachen. Gestern war eine Tagung dazu und dort war sogar ein Google Mitarbeiter.
1-2 pro Tag wird der meist geändert, echt übel.
 
Das ganze könnte man viel effizienter lösen wenn man in der Suche ne Art Bewertungssystem für die User einbaut.
Sprich direkt bei den Suchergebnissen nen Daumen nach oben für "das was ich gesucht habe" und ne Daumen runter für Crap-Seiten.
Je mehr neg. Bewertungen eine Seite dann hat desto schlechter wirk das Ranking.
Ich glaube die Bewertung von Tausenden Usern ist präziser als irgendein Code der versucht zu sortieren.
 
@ Blutschlumpf das klappt wegen diverser Scripts nicht.
Das wäre ziemlich schnell stark verfälscht
 
eikira schrieb:
sollen diese debatten doch starten. so werden wohl so drecks seiten wie ciao weiter nach unten rutschen genau die die sich beschwert haben das ihr spam nicht weiter oben ist. google macht das richtig. ich will gute suchergebnisse nicht ciao müll

klar. am besten amazon, chip & co. gleich mit über bord. genau solche seiten sind natürlich NICHT gemeint. die rutschen eher nach oben...

---

hier der link:

http://googleblog.blogspot.com/2011/01/google-search-and-search-engine-spam.html
 
@bugmum:

Das bezweifle ich, man kann ja prüfen ob derjenige der die Bewertungs-URL aufrufst auch die Seite aufgerufen hat und ob zwischen den aufrufen soviel Zeitverging, dass man von einem realistischen Useraufruf ausgehen kann. Dann sperrt man die IP für die Seite für ne Weile.
Sobald man nen Robot ausmacht sperrt man den ganz.
 
Zuletzt bearbeitet:
Mal sehen ob es hilft. Ich nutze nun seit zwei Wochen Bing statt Google. Zuerst eigentlich nur weil ich mich wegen ein paar Dingen über Google geärgert habe und auch so schon genug Dienste von Google nutze. Aber inzwischen bin ich positiv überrascht, dass Bing eigentlich genauso gut ist. Habe zwar 1-2mal etwas recht spezielles nicht sofort gefunden, aber dafür finde ich dort auch nicht soviel Müll der meine Zeit vergeudet. Dass Google bei uns über 90% Marktanteil bei den Suchen hat ist jedenfalls rational nicht zu erklären und leicht bedenklich.
 
Das ist jawohl Googels ureigenes Interesse, wenn beim dritten mal die top 10 Ergebnisse nur Müll alla ciao sind, benutzt man nämlich eine andere Seite. Leider sind die Ebay und Amazon Ergebnisse bei Produktsuchen damit wohl nicht wegzubekommen, sinnlos sind die aber auch.
 
Woran kann Google denn erkennen, welche Seite das Original ist, und welche nicht?

Soweit ich mich erinnere, sollte dafür mal irgendein Metatag zum Einsatz kommen - in dem der Autor seine Seite als Original kennzeichnet -, aber das scheint's in diesem Fall nicht zu sein (sonst müssten ja die Seitenbetrieber aktiv werden).
 
M-X schrieb:
@Blutschlumpf und den imensen Rechenaufwand bezahlt wer?
Soll das ein Witz sein ?
Verglichen mit dem Rechenaufwand um die Suche and sich durchzuführen und dem Rechenaufwand Milliarden Seiten regelmäßig zu crawlen und über diverse Programme zu bewerten, dürfte das hier bestenfalls in die Kategorie Peanuts fallen, evtl. ist es sogar weniger rechenintensiv als den Suchalgorithmus zu erweitern.

@Hovac:
ciao nervt mich auch, aber so auf die Seiten von Geizhals oder Amazon zu kommen finde ich nicht schlecht, oft sind die Informativer als Einträge in Foren etc.
 
Zuletzt bearbeitet:
Blutschlumpf schrieb:
@bugmum: [...] Dann sperrt man die IP für die Seite für ne Weile. Sobald man nen Robot ausmacht sperrt man den ganz.

Genau, und zwar für immer und ewig. Sammelwut olé. Datenschutz is' Wayne. Du hältst die Leut' bei G$$gle doch wohl nicht für innovationsfremd oder finanzschwach ("Peanuts")? Ginge das, gäb's das schon seit Jahren.

b2t, Wer sucht, der findet. Google indexiert so gut wie alles, was verlinkt ist und das auch noch schnell. 8. Weltwunder. Über ein simples "-" kann man Dreck aus der Trefferliste filtern. Diese Optimierungen dienen wohl in erster Linie dazu, (anspruchsvolle) Anzeigenkunden zu schützen, deren Budget auf Spam-Seiten (z. B. http://de.wikipedia.org/wiki/Screen_Scraping#Missbrauch ) durch den Schornstein geht bzw. ehrlich formuliert, werbefinanzierte, gute Seiten damit zu stärken, um noch mehr Kohle zu generieren.
 
M-X schrieb:
@Blutschlumpf ich glaube du unterschätzt etwas den Aufwand der betrieben werden müsste um jede Suchanfrage so zu analysieren wie du es forderst....
Bullshit. Das baut dir ein mittelmäßiger Coder in 2 Stunden für deine Website zusammen, der Aufwand ist minimal. PHP Anfänger-Niveau, vielleicht 100 Zeilen Code.
Lass es in der Luxus-Version mit allen Features mal 1000 Zeilen sein. Verglichen mit der normalen Suche ist das nichts.
Das scheitert nie und nimmer am Aufwand oder der Rechenpower, sondern höchstens daran, dass Google den Anwendern nicht Einfluss auf die Suchergebnisse gewähren will.
Und Datenschutzrechtlich ist das absolut unkritisch. Es reicht ja die IP und die "gevotete" Seite nen Tag oder 2 vorzuhalten, dazu ne Table mit der Blacklist (die es vermutlich in anderen Formen eh schon gibt damit andere Seiten nicht Google missbrauchen und die Ergebnisse parsen oder um dos zu verhindern, etc.).
 
Blutschlumpf schrieb:
Bullshit. Das baut dir ein mittelmäßiger Coder in 2 Stunden für deine Website zusammen, der Aufwand ist minimal. PHP Anfänger-Niveau, vielleicht 100 Zeilen Code. [...] Und Datenschutzrechtlich ist das absolut unkritisch.

Der "Chef-Ingenieur", wie der CB-Artikel ihn nennt, heißt Matt Cutts und betreibt einen Blog. Zu den jüngsten SERPs-Änderungen vgl. http://www.mattcutts.com/blog/algorithm-change-launched/ - Man kann dort einen Kommentar hinterlassen: Die Green Card ruft ( http://de.wikipedia.org/wiki/Greenc...B-2:_Personen_mit_besonderen_F.C3.A4higkeiten )...
 
Zurück
Oben