1TB für 8500? Sind die Team Group Riegel in Ordnung?

Beaver Patrol

Cadet 2nd Year
Registriert
März 2015
Beiträge
24
Ich bin gerade dabei einen Server zu planen 256GB + 24kerne und da stolperte ich über die Team Group Riegel mit 32GB ECC. Für 8.5 pro GB sind die sehr preiswert - eigentlich schon billig.

Hat jemand hier Erfahrung mit Teamgroup Riegel? Ich muss sovieso 8 davon kaufen (wenn das Mainbord sich unterbestücken lässt), da könnt ich auch kurzfristig mit weniger GBs leben wenn einer Defekt sein sollte.
 
Ich habe mal Teamgroup Elite gekauft. 2 von 6 Riegel waren defekt.

Sind natürlich auch eine andere Klasse. Aber ich denke, bei jedem Hersteller gibt es hin und wieder Ausfälle.

Also teste nach dem Kauf und schicke die defekten (falls überhaupt) zurück.
 
Ach, immerzu die blöden Kommentare mit Systemhaus etc. :rolleyes:
Es gibt auch Leute die sich auskennen und sowas selber bauen / warten / reparieren können.
​(Jaaa und auch für die Ausfallsicherheit sorgen...)

Zum Thema: Teamgroup kommt mir nimmer ins Haus. Zuviel schlechte Erfahrung damit gemacht.
10% der verkauften Riegel musste ich zurückschicken.
 
Zuletzt bearbeitet: (Typo)
Lass dir von einem Systemhaus oder Händler einen Server deiner Wahl konfigurieren.
Der Preis ist letztlich der selbe wenn man den Aufwand dazu rechnet für den Zusammenbau usw.

Da hast du dann auch guten Vor- Ort Support und Ersatzteilgarantie.

@Der Baya: Schon klar, dass es Leute gibt die sich auskennen. Aber wenn ich mich auskenne verbaue ich nicht den letzten Mist in dem Server.
 
Die TeamGoup DDR2 Riegel mit guten Micron Chips waren Preis/Leistung super ,leider lebten sie nicht lange was wohl kaum an den Chips lag. Die selben (Micron DG9MH) auf den Corsair Riegeln laufen aber immer noch
 
Mami was ist ein Systemhaus? Kind das sind Leute, die Leute reich machen, die wiederum andere reich machen, aber selber arm bleiben... .

---

Sind die Riegel nun schlecht? Die nächst höhere Kategorie ist bei 12 Euro pro GB und da fängts dann doch schon an zu jucken. Zwischen 8.5 und 12 ist doch ein ganz schöner unterschied. Wenn die Dinger mal laufen, fallen die dann auch mal zwischendurch aus oder ist es einfach so, dass ich meinetwegen statt 8 Riegel mir 12 kaufe und dann durchteste und die kaputten dann wegkippe (bzw. zurückschicke?).

Also wenn ich einfach nur ein paar mehr kaufe und die durchtesten muss macht mir das nichts aus solange sie laufen, und laufen und laufen, zumal man 10 Jahre Garantie hat und der Server nur bis zum Ende des Jahres laufen soll.

Desweiteren gehts dann sowieso noch um ganz andere Grössenordnungen daher da brauche ich dann wirklich meine TBs in den Servern. Aber das hier ist erst einmal als Devserver gedacht, den man selber hat.

Das mit dem Mieten hab ich mir angeschaut und Preise verglichen und abgesehen von den Unzumutbarkeiten und Betrügerreien im unteren Preissegment wollen die dann auch schnell mal 5000 und mehr im Jahr für die selbe Leistung und da besitzt man schon mal nicht selber sondern darf nur mal nutzen... . Also nix da.

Ausserdem will ich im Server auch Wasserkühlung, Plexiglas und Neonlicht. Weshalb ich den auch Hinstelle und keine HE im Rack nutze. Wenn ihr denkt das ist krank, nee macht völlig perversen Sinn :).
 
armin-sel schrieb:
Die TeamGoup DDR2 Riegel mit guten Micron Chips waren Preis/Leistung super ,leider lebten sie nicht lange was wohl kaum an den Chips lag.

An was denn bitte sonst? Micron produziert auch Ausschuß oder B-Ware und die wird dann eben auch verkauft. Bei NAND Chips ist das bekannter, aber bei RAM dürfte das nicht anders sein.

wollen die dann auch schnell mal 5000 und mehr im Jahr für die selbe Leistung und da besitzt man schon mal nicht selber sondern darf nur mal nutzen... . Also nix da.

"Die" haben aber auch eine feste, funktionierende Gigabitanbindung ans Internet. Das wirst du kaum haben, selbst wenn du einen GBit Glasfaseranschluß hast. Ich kann mir irgendwie nicht vorstellen wozu man so ein Riesending dahim im Zimmerchen haben muss. Upside: du musst im Winter nicht mehr heizen!
 
Zuletzt bearbeitet:
Das ist doch Kaffeesatzleserei. Sowas kann dir keine versichern und dazu gibt es die Herstellergarantie. Kaufe sie also bei einem Laden, der auch zukünftig noch am Markt ist.
 
Naja, ich bzw. wir sind da mittlerweile komplett anders gepolt.
Lieber selbst machen und ggf. mal was in den Sand setzen, bevor man das 10-fache an ein Systemhaus bezahlt...
Ich habe leider die Erfahrung gemacht, dass die meisten da nur schlau rum reden und wenn's hart auf hart kommt, stehen die blöd da und telefonieren nur oder fragen Onkel Google.
Man kann sich alles aneignen, es ist nur eine Sache der Geduld / Wissbegierigkeit.

Und btw. beim Chef kommt das auch gut an, wenn man etwas selbst auf die Beine stellt für 1/10 der Kosten und es funktioniert!
 
Also ich würde mir einen C64er als Server hinstellen
 
> Die TeamGoup DDR2 Riegel mit guten Micron Chips waren Preis/Leistung super ,leider lebten sie nicht lange was wohl kaum an den Chips lag. Die selben (Micron DG9MH) auf den Corsair Riegeln laufen aber immer noch <

Mmm. Also der Server wird von anderen Leuten im Rechenzentrum montiert. Die wollen 60 euro pro Stunde und quer durch Deutschland zum Rechenzentrum fahren macht kein Sinn. Und ja Wasserkühlung muss drin sein mit Neonlicht und durchsichtigem Servergehäuse. Pflicht ist pflicht.
Ergänzung ()

>Das wirst du kaum haben, selbst wenn du einen GBit Glasfaseranschluß hast.<

Also ich hatte die Wahl. 5000 Euro pro Jahr oder 5000 Euro pro Server + 1000 Euro pro Jahr. Und ja ich brauch die Kiste und ja die steht in Frankfurt. Und ja ich suche mir absichtlich Gamingklitschen die Gamingserver vermieten. Die sitzen in irgendwelchen Rechenzentren, zwei Hopp vom Backbone entfernt. Also ich bezahle da auch mehr als am Markt für das TB aber sind nur 18 euro (ja ich weiss das gibts für 5Euro und die Rechenzentren kriegens für unter einen Euro aber dafür gibts auch CDNs, die Federn das meiste für einen Bruchteil der Traffickosten).

>Ich kann mir irgendwie nicht vorstellen wozu man so ein Riesending dahim im Zimmerchen haben muss. Upside: du musst im Winter nicht mehr heizen!<

Du willst nicht wissen wofür ich später in der eventuellen Produktion mit 10TB RAM und 100TB SSD plane. :) Ist nicht alles so Bananne wie es sich anhört.

Seit dem ich weiss, dass ich im Rechenzentrum für 50 Euro im Monat einen Stellplatz für einen Tower Server bekommen kann, dann muss ich die Server einfach mit Neon und Wasser haben. Besser kann man nicht FuckYou zu IBM Oracle und den anderen Systemhäusern sagen.

Wir hatten zum Beispiel bei einer Firma in der ich Consultant war (ja ich bin der mit dem großen Gehalt und der wenigen Arbeit :-) und ich arbeite nicht mehr in Deutschland), eine Lösung für 100TB (glaub ich) auf hunderten HDD basis. Die haben maximal 192MB pro Sekunde geschafft. Das ganze Ding. Die haben Millionen ausgegeben (ist aber schon drei Jahre alt). Und dann kommen die ganzen Hadoop Facebook OCP Idioten daher, kloppen normale PCHardware zusammen und machen für 100TSD ein System, welches bis zu hundert mal schneller ist? Fragt nicht, was ich von Oracle halte. Aber muss halt nun mal sein - auf unseren Servern wird Cassandra laufen.
 
Deine Frage wurde ja schon beantwortet. 10% Ausschuß und das auch noch eine Weile nach dem Einbau. Offenbar nutzen die alte Maschinen, die die Chips nicht ordentlich auf die Platine löten.

Ich würde meine Server auch selber bauen anstatt mir einen Staubsauger ins Zimmer zu stellen, den ich nichtmal aufschrauben darf. Selbst mal etwas "ausprobieren" geht während der Arbeitszeit normalerweise nicht. Die Konfiguration ist unveränderlich und viele Abteilungen haben ihr Feld in einem Projekt genau abgesteckt.

Daheim lernt man an einem WE mehr, als sonst in 2 Monaten, weil es daheim niemanden interessiert, wenn man 10x am Tag die Datenbank runterfährt.

Was mir etwas Angst macht sind die 24 Cores. Das ist meiner Erfahrung nach einfach nur extrem teuer, aber schnarch langsam. Das wollen die Architekten nur nicht hören. Man kann es aber im Amdahlen Gesetz nachlesen, daß eine CPU-Skalierung einer zusammenhängenden Aufgabe bei 6-8 Cores ineffizient wird.

Gerne werden auch zentrale Server eingeführt um etwas zu vereinfachen oder zu verbilligen. Nix wird einfacher, nix wird billiger. Ärger bei Systemausfällen ist vorprogrammiert und ab 2 Projekten auf einem Server bekommt man ein Wartungsfenster nichtmal mehr zu Ostern oder Weihnachten, sondern maximal zur Urlaubszeit.
Ergänzung ()

Beaver Patrol schrieb:
Wir hatten zum Beispiel bei einer Firma in der ich Consultant war (ja ich bin der mit dem großen Gehalt und der wenigen Arbeit :-) und ich arbeite nicht mehr in Deutschland), eine Lösung für 100TB (glaub ich) auf hunderten HDD basis. Die haben maximal 192MB pro Sekunde geschafft. Das ganze Ding. Die haben Millionen ausgegeben
192MB/s sind ja traumhaft, unsere Klempner sind mittlerweile von 45 auf 35MB/s runtergekommen und ich denke, die sind noch bei der Bodenfindung. Die Verantwortlichen sind inkomketent und freuen sich, wenn alles läuft wie seit 15 Jahren. Die Manager haben anderes um die Ohren. Daß die Latenzzeit im SAN unter aller Sau ist haben sich auch teure Consultans nicht getraut zu sagen.

192MB/s sind einfach nur schnelle Enterprise-HDDs, die kannst Du doch zu Stripesets verbinden?
 
> Die Manager haben anderes um die Ohren. Daß die Latenzzeit im SAN unter aller Sau ist haben sich auch teure Consultans nicht getraut zu sagen.<

Ich hab schon viel Spass erlebt. Am besten sind die Admins (war ein cooler typ) der hat gleich gesagt, klar müsste man hier hundert server hinstellen, Hadoop drauf und fertig, aber sieh es mal so, die brauchen uns noch die nächsten 10 Jahre. Recht hat er.

> Was mir etwas Angst macht sind die 24 Cores. Das ist meiner Erfahrung nach einfach nur extrem teuer, aber schnarch langsam. Das wollen die Architekten nur nicht hören. Man kann es aber im Amdahlen Gesetz nachlesen, daß eine CPU-Skalierung einer zusammenhängenden Aufgabe bei 6-8 Cores ineffizient wird. <

Nicht wirklich. Es kommt darauf an, wass du damit machen möchtest. Die Cores sind für Suchanfragen über einen Index mit shared nothing und auto-sharding. Es ist durchaus angedacht, dass auf einem Rechner zwei mal die selben Daten liegen, nur damit zwei unterschiedliche Threads gleichzeitig darauf rumpflügen können.

Ich wollts auch nicht glauben aber dieser ganze Locking Mist macht das so ineffizient, dass es sich schon wieder lohnt. Die Daten sind auch ehr so 99% lesen und 1% schreiben und das auch noch im Batch. Das Programmiermodel ist so einfach geworden dadurch.

Deshalb ja auch die 100TB. Die Daten sind vielleicht 10TB und das was die Nutzer dann nutzen wird er Richtung ein/zwei TB gehen, aber wenn man die Shards, die ständig durchsucht werden, halt 10 mal und mehr repliziert und mir das wurst ist, ob auf dem selben rechner fünf mal das selbe liegt (ist sogar günstig weil ich es bei 10GB/sec replizieren kann, anstelle es durchs Netzwerk zu scheuchen), solange ich jeden Shard auf drei unabhängigen Systemen (ausser auf der Devkiste) habe, ist mir das Wurst. Und ja es gibt CPU thread bounding zeug und so etwas auch in Java... .

Also Wochenendaction ist das nicht. Es ist einfach ein Projekt, was ich selber in den Händen habe. Und da tobt man sich natürlich aus. Wenn ich dann wieder in meinen Nadelstreifen schlüpfe ist natürlich alles toll. Ich würd in meiner Bank niemals Oracle einsetzen. Viel zu teuer, zu gefährlich und die DBAs bremsen sowieso jedes Team aus :-). Bin auch ein halber DBA daher darf ich das sagen. Man kann Facebook bei allem was ich über das Produkt denke nur dankbar sein.
Ergänzung ()

Und um nochmal Phrasen zu dreschen: Gute Hardware ist billig, gute Entwickler leider nicht. Ich kann mir von meinem Monatsnetto vier von den Kisten Hinstellen wenn ich die Kisten am Ende des Jahres verschleudere um mir die Steuergutschrift für das erste Jahr zu gönnen anstelle das ganze auf Fünf Jahre zu verteilen. Geld verdient man in der Schweiz und ausgeben tut mans in Deutschland. Denn bei unseren Steuergesetzen tut dann der verdiente Euro in Deutschland nicht mehr weh, wenn man den Grenzsteuersatz dagegenhalten kann.
 
Zum vorher geschlossenen Thread:

fragt nicht, fragt nicht, fragt nicht...

Ja WOFÜR soll der Server denn sein?
Wie sollen wir dich sonst beraten?


Zum netzteil: nein, mit Akku gibts nicht, dafür hat man ja eine USV (ununterbrechbare Stromversorgung)!
Das ist quasi ein fetter Akku, der zwischen Netzteil und Steckdose hängt. Also normales Netztkabel von Steckdose in USV, und normales Netzkabel von USV ins Netzteil.
Also hängt das Netzteil des Servers nicht mehr direkt an der Steckdose, sondern wird durch die USV versorgt. Diese wird wiederum vom Netzteil gespeist.
So sind Stromschwankungen und kurze Stromausfälle kein Problem.
Die USV in der Kanzlei meines Vaters hält ungefähr 17 Minuten.
Bei längerer geplanter Stromabschaltung sollte man halt den Server vorher runterfahren und dann wieder hochfahren, da sich manche Serverdienste aufhängen können und dann muss man eh selbst wieder ran und das fixen (Dienste beenden und neu starten, Server neu durchstarten reicht oft).
Hab ich selbst genau so in der Kanzlei erlebt. Stromabschaltung und der Server lief. Danach dauerte das anmelden in die Domäne ca 2 Minuten statt wenige Sekunden.
Anmeldedienst und noch was hat sich aufgehängt. Dass die par Clients überhaupt reinkamen ist ein Wunder meiner Meinung nach lol.

MfG
 
zu deinem geschlossenen Thread:

Nenne mal ein Gesamtbudget und den genaueren Einsatzzweck. So wie ich das verstanden habe, kommt es weniger auf die Speed pro Core an, sondern, dass in vertretbarem Rahmen, möglichst viele Kerne vorhanden sind. Richtig?

Denn dann könntest du auch mal bei AMD und den Opterons vorbei schauen. Die sind zwar langsamer als die Xeons, aber bieten viele Kerne zu niedrigem Preis.
Für 350€ bekommst du 12 Kerne https://www.computerbase.de/preisve...os6234wktcgguwof-a699579.html?hloc=at&hloc=de
Oder neuer mit "Warsaw" Kernen: 400€ https://www.computerbase.de/preisve...s6338wqtcghkwof-a1074131.html?hloc=at&hloc=de

Einfach mal durchrechnen.

btw: was du mit NT mit Akku meinst, ist eine Unterbrechungsfreie Stromversorgung (USV) und muss separat gekauft werden.
 
btw: was du mit NT mit Akku meinst, ist eine Unterbrechungsfreie Stromversorgung (USV) und muss separat gekauft werden.

Bei OCP Projekt hat man vor einiger Zeit einen Entwurf eingereicht, dass im Netzteil integriert ein Akku sitzt mit dem man im Notfall 5min bis 10min überbrücken kann. Der passte in die Stromversorgung im HE. Ich bekomme Notstrom im Rechenzentrum. Wäre halt nur eine Option, welche ich mir gerne angeschaut hätte, ist auch interessant, weil ich mir eventuell auch Rechner in den Keller stellen möchte, damit ich eine VM im Haus habe. Mein T410 ist für einige Dinge zu langsam. Besonders Datenanalyse und maschinelles Lernen.

Ich hab sowas mal für Desktops gesehen, das war ne Autobatterieselbstleistung (Jahre her). Ich weiss aber nicht mehr, ob man dort diese Laptop CPUs verbaut hatte. Davon hat man ja damals vom Pentium M (glaub ich) auch nichts mehr gehört. Desktops mit 40Watt und weniger... .
Ergänzung ()

Bei längerer geplanter Stromabschaltung sollte man halt den Server vorher runterfahren und dann wieder hochfahren, da sich manche Serverdienste aufhängen können und dann muss man eh selbst wieder ran und das fixen (Dienste beenden und neu starten, Server neu durchstarten reicht oft).

Naja die Knoten sind so programmiert, dass sie jederzeit komplett ausfallen können. Auch im ganzen Cluster. Wenn das Probleme bringen sollte, habe ich meine Job nicht erledigt. Ich war bloss interessiert, ob es sowas schon weiter geschaft hat. Ich hab mich jedenfalls an den Kopf gefasst, wenn das wirklich gehen sollte. Aber vielleicht ist das für ARM oder ATOM besser.
Ergänzung ()

AMD hätte ich nicht sehr gerne. Habe ich mal schlechte Erfahrung gemacht. Für die nächsten Server gerne, jetzt ehr nicht so gern.
Ergänzung ()

Und da ihr fragt. Stellt euch folgendes Szenario vor. Ich habt eine Software zu schreiben, die einen Cluster bildet, wo jeder Knoten verschiedene Aufgaben hat. Ein Knoten hat SSD notwendig, andere gar nicht. Manche benötigen mehr Kerne andere weniger.

Das muss ich auf der Maschiene testen können. Gleichzeitig muss das System den kompletten Betrieb durchspielen können, Lasttests und so weiter. Den ganzen Speicher gibt es für das System, damit man anständig parallelisieren kann. Wie schnell das geht interessiert mich nicht. Das Interesse ist ehr zu sehen, was besser skaliert werden kann, ob es noch linear ist und ob dieses Shared nothing aufgeweicht werden kann.

Daher: Funktioniert ja/nein, Skaliert ungefähr linear, ist robust (daher fehlertolerant), tut was es soll, passt sich automatisch an veränderte Lasten an (Selbstoptimierung). Dafür benötige ich das Teil.
Ergänzung ()

.

slsHyde schrieb:

Danke für die Infos. Das Gehäuse sieht sehr gut aus.

Die CPUs wären mir zu teuer. Ich denke ich würde ehr für Hexas stimmen. Für um die 300 bis 380. Ich bin jedenfalls dagegen Intel solche Preise zu zahlen. Ich weiss 12 Kerne hätte ich auch gerne. Wenn man jedoch 1300 Euro pro CPU) spart, kann man mit 2600 schon fast einen zweiten Server kaufen, was ich eigentlich jetzt auch vorhabe, da ich mit zwei Computern flexibler bin. Die 1000 Euro mehr Standmiete wäre es mir Wert. Ich könnte dann auch bestimmte Tests fahren würde dinge Testen können wie das Ausfallen der Verbindung von einer Hälfte des Verbunds zur anderen, wobei ich beide hälften weiterlaufen lassen kann, ich muss nur die Verbindung per Software kappen.

Auch schaue ich mir die Technik von vor zwei Jahren an. DDR4 ist denke ich nicht unbedingt nötig. Nicht für den Dev server.

[Budget]
Zum Budget sei gesagt, da gibt es eigentlich keine maximale Grösse. Da zu diesem Server (oder Serverpaar) noch andere hinzukommen werden (falls mein Projekt Früchte trägt natürlich), möchte ich jedoch soviel Erfahrung sammeln wie möglich besonders in Hinblick, wieviel leistet das augenscheinlich beste vom Preisleistungsvermögen.

Da der grösste Aufwand sicherlich im Durchsuchen des Datenbestandes liegt bzw. (typischerweise 90%+ lesen) geht es vorallem darum, die Indizes zu durchpflügen und alle relevanten Daten im Speicher zu halten. Das sind einfache Zugriffe auf den Speicher und keine komplizierten Berechnungen, welche Leistung benötigen. Ein typisches Szenario eigentlich für Atom- oder ARM-Systeme, aber ich benötige erst einmal etwas mit Leistungsreserven und auch für andere Analysen (wir fahren auch Hadoop im Cluster).

Die Antwortzeiten dieser Suchen liegen schon auf meinem T410 im zweistelligen ms Bereich und dabei sind die Datenzugriffe noch in Java und ich rechne mit einer Nutzung von C Pointern und ASM aus der Erfahrung heraus mit einer Verzehnfachung bei gleichem Takt. Daher brauchen wir keine Geschwindigkeit, sondern Parallelität. Der Cluster wird wie üblich sowieso um das doppelte oder vierfache des Bedarfs überdimensioniert werden.


Jedenfalls Danke für eure Mithilfe.

PS: Gibt es eine Anleitung für die Linkerstellung? Dann könnte ich jedesmal den aktuellen Stand zusammen fassen.
Ergänzung ()

Und weil ich in einem anderen Forum angegangen wurde, dass ich nicht wüsste, was ich tue und möchte und von nix Ahnung, Unsinnm, unprofessionell (so wie ichs ja hier auch schon bekommen hab). Tja hier ist, was ich aktuell habe. Ich habe im Januar bei meiner Hinreise zum Arbeitgeber nen Bleistift im Notebook eingeklemmt als ich schnell ICE umsteigen musste. Displayschaden, rest ok.

Mein geliebter T410 hat sich damit erledigt. Also was kaufe ich? Einen T410 A-ware, 8GB, 120SSD (der alte hatte noch HDD), 350 Euro, und noch einen T410 BWare für 160 Euro und noch einen T410 BWare für 160 Euro. Windows runter Linux drauf. 4x4(HT) = 16HT, 24GB, 1TB HDD +SSD. Das ist was ich zur Zeit nehme. Reicht bis jetzt gut aus, für das ganze testen und entwickeln. Nur halt virtualisieren geht nicht richtig. Und die notwendigen Mengen von Daten kann ich damit auch nicht richtig Simulieren aber da die shards später so einen GB haben werden reichts zumindest dafür. Die Verteilungslogik simuliere ich an virtuellen Knoten (halt fiktive shards die ausgetauscht werden mit gefakten latenzen, geht bis zu 1000 simulierten Knoten ganz gut) Daher hab ich in etwa eine Ahnung wie das skalliert. Nur laufen auf da mehrere logische Knoten auf jedem Rechner und so richtig nah am Original ist das leider nicht. Technik von vor fünf Jahren. Aber halt für 800 Euro + den, den ich hatte. Ich hab auch überlegt mir nochmal 10 zu kaufen, dann hätte ich auch 80GB RAM und 56 HT threads, und das für 3000 Euro, aber da ich für drei Monate nach Indien / Phillipinen möchte... kann ich das nicht mitnehmen. Daher muss so oder so der Devserver sein. Hab noch zwei/drei Wochen, bevor ich fliege. Da unten ist das Leben billiger :).

Daher bilde ich mir dann auch ein, zu wissen, wie das, wo skaliert. Und ja das ist alles WiFi damit ein Kenner der Server-Materie sich noch besser einen vorn Kopf kloppen kann. Und ja für die wirklich üblen Sachen hab ich noch einen Celeron G530 (oder so) (zwei Jahre alt) und der hat 16GB und 64GB SSD. Der analysiert die Wikipedia in 25 Sprachen um statische Kompressionsschemata (Huffman + dictionary) für verschiedene Sprachen zu analysieren (gibt eine sechsfach höhere Speichereffizienz in Java und ja komprimierte Strings kann ich auch alphabetisch sortieren :-)). Dazu reicht der noch, sind auch irgendwas in die 250GB bis 500GB Daten oder mehr da ich noch die Diskussionsseiten mit analysiere. Und ja das hängt dann an einer externen USB 2.0 Platte. Wühlt der jeden Tag in der Nacht durch, wenn ich Änderungen habe und so langsam habe ich fast jedes Schema was mir einfällt durchprobiert. Lacht man sich kaputt wie gut das geht. Nur Japanisch und Chinesisch hab ich noch nicht right hinbekommen, da krieg ich nur 1:4 raus (obwohl Java ja 16bit chars hat).

Man sieht ich bin bekloppt und verstehe nix von nix ;-). Wie gesagt mein Projekt, mein Geld, mein Spass... .
 
Zuletzt bearbeitet:
Zurück
Oben