Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGoogle härtet seinen Suchalgorithmus gegen Spam
Google hat laut dem Blog des Chef-Ingenieurs in der sich nun dem Ende zuneigenden Woche seinen Suchalgorithmus adaptiert, um der immer weiter um sich greifenden Neigung von Seitenbetreibern, sich in den Suchresultatsranglisten durch sogenannten „Keyword-Spam“ nach oben zu befördern, einen Riegel vorzuschieben.
Dann geht ja bestimmt wieder eine riesige Debatte los, wie es neulich der Fall war, dass Google die Ergebnisse zu Ungunsten einiger Anbieter beeinflusst. Fand die Debatte damals schon sinnlos und finde den Schritt Seitens Google "aus Gründen der Quallitätssicherung" richtig.
Mich regt es ohne Ende auf, wenn auf der ersten Seite von Google nur weitere Suchmaschinen inkl. Ergebnis verlinkt sind. Oder Seiten, die mir alles erzählen wollen, außer das was ich suche.
Werden dann endlich die 1.000 Link-Foren / Newsgroups entfernt, die nerven ganz gewaltig.
Nichts dagegen, dass man Kopien von Seiten und Inhalten findet (evtl. sogar anders aufgebaut), aber wenn es nur darauf abzielt Links zu generieren, dann ist dass für den Benutzer unnötig.
Dann geht ja bestimmt wieder eine riesige Debatte los, wie es neulich der Fall war, dass Google die Ergebnisse zu Ungunsten einiger Anbieter beeinflusst. Fand die Debatte damals schon sinnlos und finde den Schritt Seitens Google "aus Gründen der Quallitätssicherung" richtig.
sollen diese debatten doch starten. so werden wohl so drecks seiten wie ciao weiter nach unten rutschen genau die die sich beschwert haben das ihr spam nicht weiter oben ist.
google macht das richtig. ich will gute suchergebnisse nicht ciao müll
echt heftig wie oft der suchalg. geändert wird. ich war am donnerstag auf einer antrittsvorlesung in göttingen und da ging es auch gerade um diese sachen. Gestern war eine Tagung dazu und dort war sogar ein Google Mitarbeiter.
1-2 pro Tag wird der meist geändert, echt übel.
Das ganze könnte man viel effizienter lösen wenn man in der Suche ne Art Bewertungssystem für die User einbaut.
Sprich direkt bei den Suchergebnissen nen Daumen nach oben für "das was ich gesucht habe" und ne Daumen runter für Crap-Seiten.
Je mehr neg. Bewertungen eine Seite dann hat desto schlechter wirk das Ranking.
Ich glaube die Bewertung von Tausenden Usern ist präziser als irgendein Code der versucht zu sortieren.
sollen diese debatten doch starten. so werden wohl so drecks seiten wie ciao weiter nach unten rutschen genau die die sich beschwert haben das ihr spam nicht weiter oben ist. google macht das richtig. ich will gute suchergebnisse nicht ciao müll
Das bezweifle ich, man kann ja prüfen ob derjenige der die Bewertungs-URL aufrufst auch die Seite aufgerufen hat und ob zwischen den aufrufen soviel Zeitverging, dass man von einem realistischen Useraufruf ausgehen kann. Dann sperrt man die IP für die Seite für ne Weile.
Sobald man nen Robot ausmacht sperrt man den ganz.
Mal sehen ob es hilft. Ich nutze nun seit zwei Wochen Bing statt Google. Zuerst eigentlich nur weil ich mich wegen ein paar Dingen über Google geärgert habe und auch so schon genug Dienste von Google nutze. Aber inzwischen bin ich positiv überrascht, dass Bing eigentlich genauso gut ist. Habe zwar 1-2mal etwas recht spezielles nicht sofort gefunden, aber dafür finde ich dort auch nicht soviel Müll der meine Zeit vergeudet. Dass Google bei uns über 90% Marktanteil bei den Suchen hat ist jedenfalls rational nicht zu erklären und leicht bedenklich.
Das ist jawohl Googels ureigenes Interesse, wenn beim dritten mal die top 10 Ergebnisse nur Müll alla ciao sind, benutzt man nämlich eine andere Seite. Leider sind die Ebay und Amazon Ergebnisse bei Produktsuchen damit wohl nicht wegzubekommen, sinnlos sind die aber auch.
Woran kann Google denn erkennen, welche Seite das Original ist, und welche nicht?
Soweit ich mich erinnere, sollte dafür mal irgendein Metatag zum Einsatz kommen - in dem der Autor seine Seite als Original kennzeichnet -, aber das scheint's in diesem Fall nicht zu sein (sonst müssten ja die Seitenbetrieber aktiv werden).
Soll das ein Witz sein ?
Verglichen mit dem Rechenaufwand um die Suche and sich durchzuführen und dem Rechenaufwand Milliarden Seiten regelmäßig zu crawlen und über diverse Programme zu bewerten, dürfte das hier bestenfalls in die Kategorie Peanuts fallen, evtl. ist es sogar weniger rechenintensiv als den Suchalgorithmus zu erweitern.
@Hovac:
ciao nervt mich auch, aber so auf die Seiten von Geizhals oder Amazon zu kommen finde ich nicht schlecht, oft sind die Informativer als Einträge in Foren etc.
Genau, und zwar für immer und ewig. Sammelwut olé. Datenschutz is' Wayne. Du hältst die Leut' bei G$$gle doch wohl nicht für innovationsfremd oder finanzschwach ("Peanuts")? Ginge das, gäb's das schon seit Jahren.
b2t, Wer sucht, der findet. Google indexiert so gut wie alles, was verlinkt ist und das auch noch schnell. 8. Weltwunder. Über ein simples "-" kann man Dreck aus der Trefferliste filtern. Diese Optimierungen dienen wohl in erster Linie dazu, (anspruchsvolle) Anzeigenkunden zu schützen, deren Budget auf Spam-Seiten (z. B. http://de.wikipedia.org/wiki/Screen_Scraping#Missbrauch ) durch den Schornstein geht bzw. ehrlich formuliert, werbefinanzierte, gute Seiten damit zu stärken, um noch mehr Kohle zu generieren.
Bullshit. Das baut dir ein mittelmäßiger Coder in 2 Stunden für deine Website zusammen, der Aufwand ist minimal. PHP Anfänger-Niveau, vielleicht 100 Zeilen Code.
Lass es in der Luxus-Version mit allen Features mal 1000 Zeilen sein. Verglichen mit der normalen Suche ist das nichts.
Das scheitert nie und nimmer am Aufwand oder der Rechenpower, sondern höchstens daran, dass Google den Anwendern nicht Einfluss auf die Suchergebnisse gewähren will.
Und Datenschutzrechtlich ist das absolut unkritisch. Es reicht ja die IP und die "gevotete" Seite nen Tag oder 2 vorzuhalten, dazu ne Table mit der Blacklist (die es vermutlich in anderen Formen eh schon gibt damit andere Seiten nicht Google missbrauchen und die Ergebnisse parsen oder um dos zu verhindern, etc.).
Bullshit. Das baut dir ein mittelmäßiger Coder in 2 Stunden für deine Website zusammen, der Aufwand ist minimal. PHP Anfänger-Niveau, vielleicht 100 Zeilen Code. [...] Und Datenschutzrechtlich ist das absolut unkritisch.