JiJiB! schrieb:
Hoste deine private Cloud ... eigenen Mailserver, eigenen Webspace ... fertig?
Klasse Idee... Hosten wir doch alle unsere private Spam- und Malwareschleuder, unser privates Hacker-Paradies. Es ist schon beeindruckend, wie Leuten, die selbst zu elementarsten Recherchen (z.B. alternative Suchmaschinen) nicht in der Lage sind, zu dem Betrieb eines vollwertigen Cloud- und Mailservers geraten wird.
Weißt du, was da die einzige plausible Folge ist? NOCH ein Open Relais mehr im Netz.
Oh, und auch wenn seit Jahren über IPv6 gesprochen wird, tatsächlich genutzt wird es nicht. Blöd nur, dass jeder private Mailserver eine STATISCHE IP benötigt (keine statische IP -> kein sauberes RDNS -> Mails werden geblockt). Stell dir mal vor, 2Mio Haushalte allein in Deutschland benötigen plötzlich einen eigenen kleinen Dedicated Server mit einer eigenen statischen IPv4 (weil, wie ich schon sagte, IPv6 praktisch nicht existiert)..... GAAAAANZ großes Tennis.
cumulonimbus8 schrieb:
Google (Serach) - nutze ich zum Suchen und fühle mich da nicht unbedingt verraten. Bing findet nichts besseres…
Nenn das Kind beim Namen: Google hat mit weitem Abstand die besten Suchergebnisse.
Ich arbeite als Webentwickler, und zu meinen Aufgaben gehört natürlich auch Suchmaschinenoptimierung. Das sorgt automatisch dafür, dass ich technische Hintergründe und das Verhalten der vielen verschiedenen Bots kennen muss. Und ganz ehrlich? Der Google-Bot ist der einzige, der verlässlich das crawlt, was man von ihm erwartet.
Den Bing-Bot habe ich schon oft dabei erwischt, wie er 20x nacheinander die robots.txt neu geladen hat. Ich habe ihn dabei erwischt, wie er wildfremde GET-Parameter erfunden hat. Ich habe beobachtet, wie er die sitemap.xml vollkommen ignoriert und selbst nach einer Woche Inhalte noch nicht einmal mit dem Arsch angeguckt hat.
Baidu (die Chinesen) rennt im Kreis. Der geht auf die STartseite, geht zur ersten Unterseite, geht zurück zur Startseite,... zwischendurch lädt er 10x dasselbe Bild oder versucht vollkommen irrationale URLs aufzurufen und stört sich keinen Meter an den folgenden 404s.
Yandex (die Russen) ist mindestens genauso schlimm wie Baidu. Ich habe Yandex schon mehrfach dabei erwischt, wie er DoS-artiges Verhalten an den Tag gelegt hat, 100 vollkommen irrationale Requests in einer Minute. Die tatsächlichen Inhalte tauchen aber nie im Index auf.
Majestic12... frisst hirnlos Leistung, indiziert aber quasi gar nichts. Kann man getrost blocken, das schont die Umwelt.
DuckDuckGo... hey, das kleine blöde Entlein hab ich noch nicht ein Mal auf einer unserer Maschinen gesehen. Kleiner Tip an den flügellahmen Wasservogel: Wer nicht crawlt, der hat auch keinen brauchbaren Index. Ohne brauchbaren Index finden Menschen nichts und gehen doch wieder dahin, wo der Index was taugt.
Was bietet der Google Bot hingegen?
- verlässliches Crawling
- schöne saubere Lastverteilung, keine obskuren Spitzen die an DoS erinnern
- er ist allen, inklusive Microsoft, um Welten voraus was Rich Snippets angeht
Chrome… Der weltschenllste Browser… (ich grüße Karlsson vom Dach) Auch nicht in der Praxis schneller als FF oder (tralala) der IE11. Ich nehme ihn eigentlich nur weil er mir eine weitere Lesezeichensammlung bietet oder weil ich ihn als Vergleich nutzen muss ob eigene Webdarstellungen da auch korrekt kommen.
Praktisch ist Chrome vor allem der Browser mit den aktuellsten CSS3- und HTML5-Features und den mit Abstand besten Entwickler-Werkzeugen. Außerdem ist das Multiprozess-Management allem, was Mozilla oder Microsoft aufbieten können, um Welten voraus. Nie mehr Browser-Crash, weil ein Tab oder Plugin sich aufhängt.
Und wem Chrome angeblich zu viel spioniert (was eh alles Panikmache ist)... der nimmt einfach Chromium, stellt eventuell fragwürdige Optionen in den Einstellungen ab und fertig.