News Google warnt vor gehackten Webseiten

Legolasvegas schrieb:
@NoD.sunrise: Wurde er von google informiert oder hat er selbst nach seiner Seite gegoogelt und das gesehen bzw. wurde er darauf aufmerksam gemacht?

Firefox hat ihn informiert weil der sich die Liste von Google holt und dann entsprechend warnt.
Aktiv versendet Google bisher keine Warnungen.
 
KRambo schrieb:
Ähm meinen Text oben gelesen? Google selber schätzt gar nichts ein. Wenn der Google Bot auf irgend einer Webseite möglichen Schadcode findet dann wird die Webseite markiert, wenn alles passt dann nicht.

deinen text selber mal gelesen?
1. der google-bot ist das werkzeug von google: was der google-bot "einschätzt" ist die einschätzung von google.
2. "möglicher schadcode" ist nicht immer auch tatsächlich schadcode. ich hab kein bock, dass meine website quasi blockiert wird, weil der googlebot fälschlciherweise glaubt ich hät viren etc.
und ja, das ist schon vorgekommen.
3. das ist nicht die aufgabe einer scuhmaschine. die verantwortung die sie damit übernehmen, können sie gar nicht tragen. die folgen bei fehlern können recht groß sein und einen erheblichen finanzielen und ideologischen schaden mit scih führen.
Ergänzung ()

Tranceport schrieb:
@roker002:
Google hat mit zigtausenden Servern, Millionen(Milliarden?) von Kunden seiner Webservices natürlich weit weniger Webseiten-Sicherheit-Kompetenz als die Hersteller von Antivirusprogrammen für Betriebssystem O.o

das entbehrt jeder logik. was hat die kompetenz webserver bereitzustellen und ne scuhmaschine zu führen mit der kompetenz viren und andere schadsoftware zu erkennen zu tun?
ja genau: NICHTS!

d.h. nicht, dass google nicht dort auch fit ist, oder sich die kompetenz kauft. aber die wirkung von fehlern hier ist weit größer als wenn ein virenscanner ne falschmeldung über eine webseite bringt. wenn bei der googole suche plötzlich steht, die seite ist verseucht, dann hat das bei der masse der surfer eine weit gravierende wirkung als sonst.
Ergänzung ()

@NoD.sunrise: ja die liste von google.... wie zuverlässig ihre erkennung ist sehe ich an einigen unserer uni-webseiten. ich kenne noch eine ganze reihe falsch meldungen diesbezüglich von google.
 
na mal sehen ob das ganze nach hinten losgeht.. und tausende webseiten die eigentlich oky sind gezwunden werden sich irgendwelchen googlen regeln unterzuordnen :freak:
 
Dese schrieb:
ich find die aktion von google völlig daneben. damit machen sich der erfolg einer webseite davon abhängig ob google dies richtig einschätzt oder nicht. und das ist nicht zu erwarten. der anteil an falschen positivmeldungen dürfte nicht gerade gering ausfallen.

diese rolle steht ihnen nicht zu.

Absolut richtig! Das ist ne Suchmaschine und nicht die Internetgestapo.
 
Ich tu mir mal die Mühe an, obwohl ich nicht glaube dass die Diskussion etwas bringt ;)

Dese schrieb:
deinen text selber mal gelesen?
Ja

Dese schrieb:
1. der google-bot ist das werkzeug von google: was der google-bot "einschätzt" ist die einschätzung von google.
Er geht anhand bestimmter Kriterien vor, und ich würde mal behaupten wenn eine Webseite markiert wird wurde entweder schlecht programmiert oder es ist wirklich was faul.

Dese schrieb:
2. "möglicher schadcode" ist nicht immer auch tatsächlich schadcode. ich hab kein bock, dass meine website quasi blockiert wird, weil der googlebot fälschlciherweise glaubt ich hät viren etc.
Siehe 1. Man kann ja auch was dagegen tun. Mittels Google Account kann man die Indizierung auch "manuell" anstoßen.

Dese schrieb:
3. das ist nicht die aufgabe einer scuhmaschine. die verantwortung die sie damit übernehmen, können sie gar nicht tragen. die folgen bei fehlern können recht groß sein und einen erheblichen finanzielen und ideologischen schaden mit scih führen.
Google indiziert Webseiten für ihre Suchmaschine und mit diesem Index können sie tun und lassen was sie wollen. Wenn man die Webseite mit Bing sucht dann bekommt man davon eh nix mit. Was hast du für ein Problem? Übrigens machen sie das nicht erst seit gestern :rolleyes:
 
Dese schrieb:
das entbehrt jeder logik. was hat die kompetenz webserver bereitzustellen und ne scuhmaschine zu führen mit der kompetenz viren und andere schadsoftware zu erkennen zu tun?
ja genau: NICHTS!
absolut:FALSCH.
1. Geht es hier nicht um Viren oder Schadsoftware, sondern um Manipulationen an Webseiten(die dann ggf. Schadprogramme nachladen, was aber wie gesagt nicht Gegenstand der Diskussion hier ist)
2. Google: Webbezogen, AV-Software: OS-bezogen. Wieso sollte also ein Unternehmen, welches sich mit Lücken in Betriebssystem beschäftigt, mehr Websicherheits-Kompetenzen besitzen als ein Web-Unternehmen, welches täglich zig Angriffe auf deren Webseiten ausgesetzt ist & Unmengen an Seiten auswertet?
Und da du leider komplett auf Argumente u.ä. verzichtest, kann ich deinen Gedankengang leider nicht nachvollziehen.
Gruß,
Trance
 
Zuletzt bearbeitet:
KRambo schrieb:
Google indiziert Webseiten für ihre Suchmaschine und mit diesem Index können sie tun und lassen was sie wollen.

Nein, für viele Menschen existiert das Internet gar nicht ohne google. Die Suchmaschine ist der Wegweiser und Einstiegspunkt. Und als solche hat sie die Verantwortung, dass keine Webseite unbegründet bevor- oder benachteiligt wird. Google wurde schon oft verdächtigt, gewisse Seiten zu bevorzugen oder zu benachteiligen.
Beim Browserauswahlbildschirm wird sich darüber aufgeregt dass Microsoft den IE ganz links positionieren könnte, weil der dann ganz ganz oft runtergeladen und benutzt würde. Da wird der Anwender für so dumm gehalten, dass er sich nur die erste von fünf Möglichkeiten ansieht. Aber bei einer Suchmaschine soll er die ersten 20 Seiten durchblättern?

KRambo schrieb:
Wenn man die Webseite mit Bing sucht dann bekommt man davon eh nix mit.

Wenn kein Webmaster seine Seite da einträgt, kein Wunder! Das liegt nicht daran dass Bing nicht gut programmiert wäre oder an sich eine schlechtere Suchmaschine sei.
 
Tranceport schrieb:
@roker002:
Google hat mit zigtausenden Servern, Millionen(Milliarden?) von Kunden seiner Webservices natürlich weit weniger Webseiten-Sicherheit-Kompetenz als die Hersteller von Antivirusprogrammen für Betriebssystem O.o


Werd Politiker... keine Ahnung, Behauptungen aufstellen die lächerlich sind und dann noch versuchen zu Argumentieren.

Schadcode auf Webseiten kann verschiedene Dinge auslösen, er kann über lücken auf den Rechner gelangen und dort im Betriebssystem aktiv werden.

Er kann aber auch nur Cookies klauen oder versuchen LoginDaten zu Phischen.

Google hat aber keine Kompetenz auf dem Gebiet der Virenscanner und Sicherheitslücken von Betriebssystemen.

Das heißt das die Fehlerrate enorm hoch sein dürfte, einige Seiten werden grundlos gelistet, andere die gehackt wurden werden garnicht.


Dazu kommt dann noch das hier, und das wird für Google enorm teuer werden:

Man wolle im Falle, dass die Webseite wieder frei von Schädlingen ist, spätestens innerhalb von einigen Tagen den Hinweis wieder entfernen.

Innerhalb von einigen Tagen will man den Eintrag wieder entfernen? So manches Webprojekt ist danach sicherlich ruiniert.
 
Die Warnhinweise sollen laut Google dazu dienen, dass die Besucher sich auf derartigen Seiten nur mit der nötigen Vorsicht aufhalten.

Da fehlt ein n ;)

Aber ne Gute Sache, jetzt sollten sie nur noch nen Proxy Service wie bei ixquick anbieten, wenn man sich bei einer Seite nicht sicher sein kann.
 
Warum regt ihr euch eigentlich hier so auf? Das einzig neue daran ist dass sich Google nun mit dem Webmaster in Verbindung setzen möchte, was ich gut finde.
 
1. Wer behauptet das Google eine Suchmaschine ist hat die letzten 10 Jahre verschlafen... Google ist ein Großkonzern der sich auf Webangebote spezialisiert hat und da sind noch einige mehr Anwendungen neben der Suchmaschine.

2. Wird man genug Erfahrung damit haben eigene Webangebote gegen Veränderung durch Unbefugte zu schützen. Das heißt natürlich nicht Zwangsläufig das man auch einen Bot hinkriegt der dies auch für andere Webseiten prüft, aber zumindest sollte man wissen wer so einen Bot hinbekommt. Anders gesagt ich hab noch nichts darüber gelesen das Google für diesen Dienst nicht jetzt schon auf Fremdfirmen zurückgreift.

Hauptsache erstmal gegen alles wettern (vor allem Google/Facebook/Microsoft/usw.) ohne Hintergrundwissen. Sollte jemand wissen das Google den Suchalgorythmus dafür selbst geschreiben hat entschuldige ich mich hiermit bei ihm/ihr. Ich persönlich habe keine Ahnung und vermutlich die wenigsten hier, aber ich für meinen Teil steige Google auf Grund einer Annahme nicht gleich auf den Schlips.

Mit freundlichen Grüßen
TrueAzrael
 
Wattebaellchen schrieb:
Schadcode auf Webseiten kann verschiedene Dinge auslösen, er kann über lücken auf den Rechner gelangen und dort im Betriebssystem aktiv werden.
Ja, und weiter? So ähnlich habe ich es oben bereits geschrieben (Der Schadcode der Webseite gelangt allerdings nicht selbst auf den Rechner, sondern lädt anderen Schadcode nach)

Wattebaellchen schrieb:
Er kann aber auch nur Cookies klauen oder versuchen LoginDaten zu Phischen.

Google hat aber keine Kompetenz auf dem Gebiet der Virenscanner und Sicherheitslücken von Betriebssystemen.
Richtig, auch das hab ich bereits oben geschrieben. Hier geht es auch wie gesagt nicht um Betriebssysteme.

Sei mir nicht böse, aber: wirr? Erst behaupten, ich könne nicht argumentieren, um mir dann Recht zu geben? Bitte lern lesen&verstehen!
Gruß,
Trance
 
Zuletzt bearbeitet:
Google hat aber keine Kompetenz auf dem Gebiet der Virenscanner und Sicherheitslücken von Betriebssystemen.
google kann sich diese "Kompetenz" erkaufen, falls dies noch nicht passiert ist, von daher stimmt schon seine Aussage.
 
@Aleks:
Sicherlich, aber warum sollten sie? Hier geht es nicht um Virenscanner oder Betriebssysteme, sondern um Webseiten?
 
Weil man erstmal verstehen muss was der Code auf der Webseite genau vorhat und welchen externen Code er nachläd?

Ansonsten kommt es wie bei miesen Virenscanner zu einer Falschmeldung oder im Schadfall auch mal zu garkeiner Meldung!

Und damit zu Argumentieren was Google alles könnte wenn sie wollten ist ja wohl mal der Gipfel überhaupt.

Google könnte nach erfolgter und bestandener Nachprüfung die Seite sofort von der roten Liste nehmen, tun sie aber nicht, es soll innerhalb von wenigen Tagen erfolgen und das ist der größte Kritikpunkt überhaupt.

Liegt Google mal daneben oder ist das Problem nach wenigen Minuten ehoben und steht die Meldung noch Tagelang bei den Suchtreffern ist schadet das den Webseiten.

Das ist indirekte Zensur, man macht den Leuten Angst vor den Seiten, die dann darauf auch nicht mehr zugreifen und sich vielleicht ganz abwenden.
Es steht ja auch nicht dabei das die Seite Attackiert und Infiziert wurde, sondern nur das sie Schadsoftware enthält, der GoogleNutzer weiß also nicht ob es Absicht oder die Tat eines Dritten ist.
 
Wattebaellchen schrieb:
Weil man erstmal verstehen muss was der Code auf der Webseite genau vorhat und welchen externen Code er nachläd?
Muss man nicht, Stichwort Heuristik.

Wattebaellchen schrieb:
Und damit zu Argumentieren was Google alles könnte wenn sie wollten ist ja wohl mal der Gipfel überhaupt.
Hab ich nie behauptet, wird dann vermutlich auch nicht für mich bestimmt gewesen sein?

Wattebaellchen schrieb:
Es steht ja auch nicht dabei das die Seite Attackiert und Infiziert wurde, sondern nur das sie Schadsoftware enthält, der GoogleNutzer weiß also nicht ob es Absicht oder die Tat eines Dritten ist.
Also mir persönlich ist es egal, ob die Webseite vom Eigentümer oder von Fremden so manipuliert wurde, um meinen PC zu infizieren oder meine Logindaten abzugreifen. Natürlich ist es ärgerlich, wenn man eine gute Seite gleich negativ abstempelt, obwohl sie auch nur Opfer eines Angriffes wurde.
Gruß,
Trance
 
Zuletzt bearbeitet:
naja dann sollten sie sich aber gleich ein extragroßen Warnschild auf die Seite pappen ... 100% der Betrugsseiten können mit google erreicht werden ...
 
Ich gestalte selbst auch gerne Webseiten und finde das ganze gut - das System war bisher zwar stellenweise nicht ganz Optimal gelöst (Firefox) wenn man trotzdem auf die Seite wollte aber ich habe selbst schon erlebt wie z.b. Ingame davon betroffen war weil sich ein Forenmod nicht sorgsam genug um die Sicherung seines PCs gekümmert hat und per FTP das ganze dann schnell auf dem Webserver ausgebreitet hatte - wäre die Warnung nicht gewesen wäre es den Betreibern wohl nicht mal aufgefallen.

Das hier wieder über Google gejammert wird war aber klar ... :rolleyes:

Privat nerven mit False Positiv Meldungen auch tierisch aber im Web wo ich möglicherweise mit meiner Seite tausende von anderen PCs infizieren könnte (und mich ggf. noch Strafbar mache) sehe ich das wieder anders.

@serra.avatar: Da kommt auch sofort ne neue sobald die alte "erkannt" wurde ...
Die Leute die dahinter stehen sind nicht blöd.
 
Gerade Google will warnen? Netter Ansatz, aber ein zusätzlicher Virenscanner wäre mal was.

Neulich hab ich bei google was gesucht, ohne eine Ergebnisseite anzuklicken war der Mauszeiger zufällig gerade über einem Link, es öffnete sich diese Vorschaufunktion rechts, schon hatte Antivir einen Virus gemeldet.

Ok, war jetzt so das erste mal, will nicht meckern, nur berichten. :)
 
Zurück
Oben