Das hab ich mich auch gefragt.
Wenn das wirklich jeder nutzen würde, wären sicherlich schnell ein paar Peta- oder sogar Exabyte zusammen.
Ich könnte ja mal sämtliche Linux Distributionen und Demos die ich finde in den Cache laden.
Rein rechnerisch gehen hier maximal < 1 TByte im Monat durch die Leitung.
Eben, und kostenlos ist soetwas nicht, sondern kostenintensiv. Irgendwas muss Google also damit verdienen um die Kosten irgendwie auszugleichen, ich bezweifle stark, dass das allein mit Werbeeinträgen bei GMail oder Google-Search reicht. Der Verdacht auf Datenhandel liegt bei den Kosten und eben einem Gratis-Service ziemlich nah.
für die an der google Hardware Interessierten: ich hab mal selbst bissle dazu gegoogled und was von Heise Online gefunden. Heftig, was Google da für ein System aufgebaut hat: Das größte Grid auf der ganzen Welt. Auch, wenn Google kaum etwas über seine Infrastruktur sagt, kann man von lässigen 100.000 Servern ausgehen. zum Artikel
In der News steht doch explizit, dass keine großen Dateien wie Videos über den Proxy laufen werden, also wohl erst recht keine ISO-Images.
Und der Sinn des GWA wird es wohl kaum sein zu erfassen, welche Websites wie oft besucht werden, das kann Google mit einer Toolbar für diverse Browser wesentlich preiswerter haben.
Und der Sinn des GWA wird es wohl kaum sein zu erfassen, welche Websites wie oft besucht werden, das kann Google mit einer Toolbar für diverse Browser wesentlich preiswerter haben.
Das grenzt ja an Spionage, spywareartiges Verhalten. Das würde entweder den guten Ruf kosten oder eine Menge Leute, die freiwillig ihr Surfverhalten preisgeben, voraussetzen.
Einen Proxyserver für jedermann, mit dem Versprechen schneller zu surfen, ist egt gar keine so schlechte Möglichkeit, an die gewünschten Daten zu kommen - unverfälscht über die Logs der eigenen Server.
Die Kapazitäten hat Google mit dem größten Serversystem der Welt anscheinend, um so an die Daten zu kommen. Und die User werden durch sowas noch weiter an Google gebunden.
Den Nutzen für die User stelle ich aber weiter in Frage, ein Proxy war - zumindest auf schnellen Zielservern - noch immer nichts weiter als eine Verlangsamung der Verbindung. Und wen interessieren in MBit-Zeiten bei kilobyte-großen Webseiten Hundertstelsekunden?
Die Theorie von general-of-omega war bisher ne einleuchtende Erklärung, scheint aber durch Steffen gleich wieder widerlegt zu sein
Optimierung statischen Content-Deliverys stellt nun wirklich keine Spionage dar. Leg Eure SF-Heftchen zur Seite und macht Hausaufgaben damit
der nächste Pisa-Test besser ausfällt.
Google ist halt auch ein Wirtschaftsunternehmen das Kohle machen will.
Somit kann das Ganze nicht uneigennützig sein.
Das Tool muss man ja nicht benutzen, und genau so werd ichs auch machen. Ob ich jetzt ein oder drei Sekunden warten muss bis sich ne Seite aufgebaut hat, darauf kommts mir wirklich nicht an.
Sorry Google aber sowas geht mir zu weit. Auch wenn die Datenübertragung von Websites so schneller läuft; bei mir kommt das nicht auf den Rechner. Damit Google schön mein Internetservverhalten protokollieren kann und mich mit passender Werbung zumüllt? Nein Danke! Ohne mich!
in wie fern ist gmail denn so ein datenschutz scheiss? ich mein yahoo und co sind doch nichts anderes!? Die speichern auch deine emails auf ihren servern. Oder gibt es bei gmail da etwas, das ich nicht mitbekommen habe? Zumal man die mails ja auch vom server löschen kann, sofern man den pop3 zugang benutzt...
Ich für meinen Teil halte GMail datenschutzmäßig für unbedenklich. Was macht es schon, wenn der Server Wörter rausfiltert und als Werbung rechts and die Seite klatscht. Meiner Meinung nach ist das kein Problem. Kein Mensch liest sich meinen Post durch.
Das mit dem Proxy halte ich aber wirklich für bedenklich. Da wird doch viel abgespeichert was ich gar nicht möchte (brauche ich also nicht).