News Neuer Suchindex bei Google

Willichmijaja schrieb:
Der meinte, die haben mehrere Teams, die den ganzen Tag nichts anderes machen als Festplatten nachzuschieben
Das ist bei dem Datenzuwachs ja wohl auch mehr als nötig :D
 
NoD.sunrise schrieb:
Hmm also auf meinen Seiten war der Googlebot immer mehrmals täglich, das mit dem "wochenlang" müssen wohl einzelfälle gewesen sein sonst wäre es ja sinnlos gewesen dass der Googlebot so fleißig ist.

wie aktiv der bot ist, hat imho noch lange nix mit der aktualität/aktualisierung des index zu tun
 
cR@zY.EnGi.GeR schrieb:
Google hat weit mehr als eine Million Server, deren Zahl ständig steigt, von daher kein Problem.

Interessant. Allerdings etwas erschreckend, dass Google 2% aller Server weltweit besitzen soll... Andererseits merkwürdig, dass es gerade mal 50.000.000 laut der Seite auf der Welt gibt...
 
Zu all dem kommt dann noch, das die Daten nicht nur einmal gespeichert sind sondern mehrfach und an verschiedenen Orten auf der Welt.
Also muss Google mindestens das X Fache an Datenspeicher online haben.
Jedoch würde ich mich die genauen Zahlen interressiern.
 
Wenns Google schneller macht, kann es ja nicht schaden :)
 
@jimknils: in dem artikel steht aber auch ganz deutlich, dass etliche der großen firmen nicht mitgezählt sind, da sie ihre anzahl nicht verraten oder auch aus anderen gründen. die statistik ist also bei weitem nicht vollständig.
 
McNoise schrieb:
wie aktiv der bot ist, hat imho noch lange nix mit der aktualität/aktualisierung des index zu tun

Ja klar aber meine Aussage war ja welchen Sinn würde es für Google machen einen solch enormen Aufwand (ständiges scannen aller seiten) über Jahre hinweg zu betreiben wenn sie dann ihren Index generell nur 1 mal in der Woche aktualisieren?
Dann würden sie doch auch den Bot nur einmal pro Woche auf die einzelnen Seiten schicken.
Der Bot hat aber im wenige Stunden Rythmus vorbei geschaut.

Daher meine Annahme dass die meisten Seiten auch häufiger im Index aktualisiert wurden.

Habe es aber leider nie ausprobiert wie lange es dauert bis zb ein neuer Forumseintrag per Google auffindbar ist.
 
aus erfahrung kann ich sagen, dass ein forumseintrag oft in weniger als einer stunde schon zu finden ist.
 
Tjoa deiner ist noch nicht erfasst.

@Topic: n schnelleres Google schadet nie. Die Ergebnisse zu verbessern würde auch nicht schaden aber da ist halt die Frage wie man das machen soll (also noch besser als es schon ist)
 
so langsam bekomme ich das Gefühl dass Google es mit dem Internet ähnlich macht wie ich mit dem Wasserhahn. Einfach leersaugen. Die können doch nicht einfach ALLES Wissen kopieren, die Schweine! :D

Bei den Größenordnungen könnte man wirklich meinen, dass die alles kopieren.
 
ata2core schrieb:
Nur mal zur Anregung

100 Millionen GigaByte = 100000 1TB-Platten.

anzensepp1987 schrieb:
Sind ca. 5-6 Mio. €/$. Bei $ 26.000.000.000 Umsatz sind das nun wirklich Peanuts. :)

Nur mal zur Anregung:

Google wird wohl weder SATA Platten nutzen und schon gar nicht mit einfacher Datenhaltung, wie in Euren Rechnungen veranschlagt ... :evillol:

Dann rechnet das nochmal mit SAS Platten im Raid bei mehrfacher, weltweit aufgeteilter Redundanz nach. "Leider" werden das trotzdem nur Peanuts fuer Google sein. ;)

Mich wuerde ja mehr interessieren wieviel RAM die zum cachen verwenden. Zumindest der Index muss ja komplett im Speicher liegen ...
 
DJg450 schrieb:
sie nutzen übrigens SEHR viele SATA platten :p

Das wundert mich, wo kann man das nachlesen?

Wir nutzen fuer unsere Serverfarmen gerade mal ein paar SATA Shelfs als Zwischencache fuer die Tapelibrarys, sonst nur SAS Shelfs. Google hat doch da sicher noch hoehere Anforderungen an IOPS, Zugriffszeiten und dergleichen - und das alles auf SATA?
 
habe gerade keinen link zur hand, aber such mal nach der festplatten ausfall statistik für SATA platten für google.

ich denke die werden sata platten wahrscheinlich eher im backup und workstation bereich einsetzen.
 
... bitte löschen ...
 
Zurück
Oben