Google Bilder-finanzielle Bedrohung für Webseitenbetreiber?

Okay danke, habe das auch schonmal erlebt das ich auf ein Bild geklickt habe und es kam eine Fehlermeldung.
Also speichert soweit ich das verstanden habe Google alle Bilder auf ihren Servern, egal ob es die Website noch gibt oder nicht und zeigt dem User Bilder an, die zu den jeweiligen Suchbegriffen passen. Also sortiert Google diese Bilder z.B. in Kategorien, um sie anzuzeigen? Und wie schafft Google das rein logistisch? Sind die Rechenzentren so groß? Weil es gibt ja Abermillionen Bilder im Internet und da braucht man doch bestimmt sehr viel Speicherplatz für.
 
PCNoob92 schrieb:
Also sortiert Google diese Bilder z.B. in Kategorien, um sie anzuzeigen?
Wie es genau funktioniert, ist ein Geheimnis von Baidu (chinesische Suchmaschine), Google, Microsoft und Co.
PCNoob92 schrieb:
Und wie schafft Google das rein logistisch? Sind die Rechenzentren so groß?
Sie sind gewaltig. Vermutlich haben Amazon, Google und Microsoft mit die größten Rechenzentren der Welt.

golem.de Google zeigt seine Rechenzentren

Videoführung durch ein Google-Rechenzentrum


Standorte von Rechenzentren
 
Hauro schrieb:
Wie es genau funktioniert, ist ein Geheimnis von Baidu (chinesische Suchmaschine), Google, Microsoft und Co.

Sie sind gewaltig. Vermutlich haben Amazon, Google und Microsoft mit die größten Rechenzentren der Welt.
Okay danke. Also wurde das bisher noch nie von einem Suchmaschinenbetreiber preisgegeben?
Aber dass Google und co die Bilder auf ihrenm Servern speichern, von wo sie dann angezeigt werden ist unumstritten, oder? Meine das letztens in irgendeinem Blog gelesen zu haben.
 
PCNoob92 schrieb:
Okay danke. Also wurde das bisher noch nie von einem Suchmaschinenbetreiber preisgegeben?
Meines Wissens nicht. Da steckt ja das ganze Know How drin.
PCNoob92 schrieb:
Aber dass Google und co die Bilder auf ihrenm Servern speichern, von wo sie dann angezeigt werden ist unumstritten, oder? Meine das letztens in irgendeinem Blog gelesen zu haben.

Bild aus Google entfernen - Google Websuche-Hilfe
lässt ein Rückschluss zu
Gelöschtes Bild aus den Suchergebnissen entfernen schrieb:
Nachdem ein Bild von einer Website entfernt wurde, kann es noch für kurze Zeit in den Suchergebnissen erscheinen.
Um diese Bilder aus den Suchergebnissen zu entfernen, gehen Sie folgendermaßen vor:

  1. Suchen Sie unter images.google.com nach dem gewünschten Bild.
  2. Wählen Sie den Bild-Link aus. Klicken Sie dazu mit der rechten Maustaste auf die Miniaturansicht des Bildes und wählen Sie Adresse des Links kopieren aus.
    Hinweis: Die Bezeichnung dieser Option kann in den verschiedenen Browsern unterschiedlich sein.
  3. Rufen Sie die Seite Veraltete Inhalte entfernen auf.
  4. Fügen Sie im Feld "Geben Sie die URL der veralteten Inhalte ein" die URL ein.
  5. Klicken Sie auf Entfernung beantragen.
    • Wenn die Meldung "Wir vermuten, dass das Bild oder die Website, das bzw. die Sie entfernen möchten, nicht vom Websiteinhaber entfernt wurde" angezeigt wird, folgen Sie der Anleitung auf dem Bildschirm, um uns weitere Informationen zukommen zu lassen.
    • Wenn die Meldung "Dieser Inhalt ist nicht mehr vorhanden" angezeigt wird, klicken Sie auf Entfernung beantragen.
D.h., dass Bild muss noch auf den Servern von Google zu finden sein, sonst müsste dessen Löschung nicht beauftragt werden. Das Bild wird von den Servern auch gelöscht, wenn die Seite mit dem Bild erneut besucht (Crawling und Indexierung) wird.
 
Zuletzt bearbeitet:
Danke abermals. Aber was ich mich jetzt frage ist was es Google bringt, Millionen von Bildern auf ihren Servern zu speichern um sie von dort anzuzeigen, wenn nach ihnen gegoogelt wird. Das verursacht doch extrem hohe Kosten wegen den riesigen Servern oder nicht? Wäre es nicht billiger für Google, wenn sie die Bilder direkt von den Websites anzeigen würden? Weil dann müssten sie ja viel weniger speichern.
 
Das wären dann aber locker 50 requests an 50 verschiedene Server.
Man müsste also sehr lange auf sein suchergebnis warten.

So kann Google die Bilder direkt ins HTML einbetten.
 
Des Weiteren könnte auch die Indexierung von der Orgnial-Seite abweichen, wenn Index und Daten voneinander abweichen.
 
Zuletzt bearbeitet: (Korrektur)
Danke schonmal an beide.

@ WhiteShark: Achso, also geht es Google um Schnelligkeit, da nur eine Anfrage an einen Server gesendet wird, nämlich den Googleserver?

@ Hauro: Könntest du mir vllt erkären was du damit meinst? Ich bin in Sachen Computer absolut unerfahren und verstehe daher irgendwie nur Bahnhof :D
 
Noch ein Hinweis:
Es wird bei der Suche auf eine Datenbank [wikipedia.org] zugegriffen, in der die Daten gespeichert sind.

Zur Indexierung:
Das einfachste Beispiel wäre ein Karteikartensystem mit Personendaten, das nach Namen sortiert ist. Wird nach "Müller" gesucht, muss lediglich die Teilmenge, die mit "M" anfängt, durchsucht werden. Diese Teilmenge kann über eine Markierung in der Kartei schnell gefunden werden. Ist diese Teilmenge noch zu groß, können die Teilmengen über den zweiten oder dritten Buchstaben weiter untergliedert werden. Anstatt nun alle Namen mit "M" zu durchsuchen, werden nur noch die Namen durchsucht, die mit „Mül“ anfangen. Dies kann in vergleichsweise kurzer Zeit geschehen.

Wenn jetzt nach den Personen gesucht wird, die in einer bestimmten Straße wohnen, muss aber die gesamte Kartei durchsucht werden, da die Straße nicht indiziert ist. Die Lösung ist ein zweiter sekundärer Index mit den Straßennamen. Hier wird auf den Namen des ersten primären Index verwiesen.

Wird ein Datensatzes aktualisiert, muss geprüft werden, ob auch der Index zu aktualisieren ist, da ansonsten der Index nicht mehr passt. Oben sind dies der Name und die Straße. Zieht Martin Müller in eine andere Straße um, muss der Sekundär-Index angepasst werden. Ändert er seinen Namen von Müller in Bauer muss der Primär-Index angepasst werden. Ansonsten verweist der Index auf einen Datensatz, der nicht mehrvorhanden ist .

Siehe auch: Indexierung (Verschlagwortung) [wikipedia.org]
 
Zuletzt bearbeitet: (Ergänzung)
Entschuldigung für die reichlich späte Antwort, hatte in der letzten Woche wegen einer Geburtstagsvorbereitung sehr viel zu tun.
@ Hauro: Also zum Thema Datenbank: Ist das in diesem Fall der Googleserver, wo die ganzen Bilder gespeichert sind? Und noch eine Frage: Sind die Links irgendwie in den Bildern drin und daher auch auf den Googleservern gespeichert? Weil man ja direkt auf die Seite geleitet wird wenn man ein Bild anklickt ( außer es existiert nicht mehr).
Und noch kurz zu dem Thema finanzieller Gewinn von Google: WhiteShark hatte ja geschrieben, dass z.b. 50 Requests an verschiedene Server gesendet werden müssten, wenn die Bilder nicht bei Google gespeichert werden, ist das der Grund, warum Google die Bilder kopiert und auf ihren Servern speichert? Weil mir erschließt sich nicht, warum Google das machen sollte, das kostet doch nur Unmengen an Geld durch die vielen benötigten Server oder nicht? Oder habe ich da einen Denkfehler drin?
 
PCNoob92 schrieb:
Also zum Thema Datenbank: Ist das in diesem Fall der Googleserver, wo die ganzen Bilder gespeichert sind?
Generell: Alle Daten sind meistens in einer Datenbank gepeichert.
Eine Datenbank, auch Datenbanksystem (DBS) genannt, ist ein System zur elektronischen Datenverwaltung. Die wesentliche Aufgabe eines DBS ist es, große Datenmengen effizient, widerspruchsfrei und dauerhaft zu speichern und benötigte Teilmengen in unterschiedlichen, bedarfsgerechten Darstellungsformen für Benutzer und Anwendungsprogramme bereitzustellen.
Während dem Crawling und der Indexierun sammelt der Bot/die Bots Daten (Bilder, Text, usw.). Diese werden in der Datenbank gespeichert. Bei der Suche wird eine Abfrage oder mehere Abfragen auf die Datnenbank durchgeführt, um die Daten-Basis für das Such-Ergebnis zu erhalten.
PCNoob92 schrieb:
WhiteShark hatte ja geschrieben, dass z.b. 50 Requests an verschiedene Server gesendet werden müssten, wenn die Bilder nicht bei Google gespeichert werden, ist das der Grund, warum Google die Bilder kopiert und auf ihren Servern speichert?
Korrekt. Würden die Bilder nicht in der Datenbank von Google gespeichert, müssten sie einzeln von den Seiten heruntergeladen und aufbereitet werden.

Was ist einfacher?

  • Eine gemeinsamer Orderer mit den Daten (z.B. Bilder), der an einem Ort agelegt ist. Auch wenn dies Redundants der Daten bedeutet.
  • Mehrere Ordner mit den Daten, die an verschiedenen Orten abgelegt sind.
Klar, die erste Variante, da nur ein Ordner geholt werden muss - ein statt n Wege.
PCNoob92 schrieb:
Sind die Links irgendwie in den Bildern drin und daher auch auf den Googleservern gespeichert?
Dies wird über HTML erledigt.
w3schools.com HTML Links > HTML Links - Image as Link mit Beispiel!

HTML:
<!DOCTYPE html>
<html>
<body>
<p>The image is a link. You can click on it.</p>
<a href="default.asp">
  <img src="smiley.gif" alt="HTML tutorial" style="width:42px;height:42px;border:0">
</a>
<p>We have added "border:0" to prevent IE9 (and earlier) from displaying a border around the image.</p>
</body>
</html>
 
Zuletzt bearbeitet: (Ergänzung)
Also nochmal zusammengefasst, Google speichert die Daten/Bilder auf ihren Servern und sucht bei einem Suchvorgang dort nach ihnen und nicht im ganzen Web? Ich bin auch der Meinung das dies am Besten wäre wegen der schnellen Ergebnisse aber inwiefern profitiert Google davon? Die müssen doch haufenweise Geld für die Server blechen und ohne Eigennutz würden sie es ja bestimmt nicht machen.
 
PCNoob92 schrieb:
Die müssen doch haufenweise Geld für die Server blechen und ohne Eigennutz würden sie es ja bestimmt nicht machen.
Google brüstet sich damit die schnellste Suchmaschine zu haben.

Es gilt: schnelleres Ergebnis > mehr Anwender/Aufrufe > mehr Werbeeinnahmen
 
Und so ein Bild kann ja auch schnell mal von einer Website verschwinden. Würde Google die Bilder also nicht kopieren, würde man im Suchergebnis leere Bilder sehen.

Zudem sind manche Bilder ja sehr groß. Die könnte man zwar über den Browser runterskalieren, aber das würde massiv RAM fressen. Bei 30 Suchergebnissen wären das 30 skalierte Bilder. Da kriegen selbst gut ausgestattete Rechner ihre Probleme.

Darum muss Google sowieso kleinere Versionen generieren. Das ginge zwar Onthefly, aber so ein Bild runterrechnen braucht auch Rechenleistung. Also speichert Google die kleinere Version direkt bei sich auf dem Server.

Die Generierung der so genannten Thumbnails macht ein Bot.
 
Zurück
Oben