@DVNO
des ist gar nicht mal so extrem kompliziert. Alles was du brauchst sind ein paar hunderttausend Gigaherz Rechenleistung um mehrere tausend Anfragen pro Sekunde bedienen zu können, mehrere redundatnte 10Gbit Anbindungen ans Internet für jedes Rechenzentrum + mehrere Uplinks für internes Netzwerk, eine hochperformante Datenbank, die wiederum ebenfalls mit hoher redundanz arbeitet, LOKALISIERTE Suchergebnisse nach Standort des Benutzers (Vergleicht mal die Suchergebnisse von Google DE und EN in Deutschland, sucht euch dann einen Proxy in den USA oder Frankreich und sucht dann mal nach Sucheregbnissen in DE und EN - ihr werdet nichtmal Ansatzweise dieselben Ergebnisse gelierfert bekomen) und dann braucht man natürlich eine schlaue Datenstruktur für den Index.
Einen Index zu durchsuchen ist DANN nämlich eigentlich keine große Sache mehr, zumal dür nur die Anzahl der Gesamtergebnisse sowie die ersten 10 Ergebnisse brauchst. Die Berechnung des Indexes ist das, was deutlich mehr Leistung erfordert. DAS wäre für mich eher die Frage, wie das zu bewerkstelligen ist. Aber mit genügend Rechenleistung, einem guten Algorythmus scheint das ja ganz gut zu klappen ^^