News Neue „Supercomputing“-Lösung von nVidia

Siberian..Husky schrieb:
konsolen rendern deutlich kleinere bilder bei niedrigerer wiederholrate die auf größere entfernung angesehen werden. kurz: konsolen stellen viel weniger details dar - nur siehts niemand, da keine so genau hinguckt, bzw. das matschige bild eines fernsehers genaueres hingucken garnicht zulässt.

kleinere bilder? fullhd anyone?
niedrigere wiederholungsrate? was meinst du damit?

ein matschigeres bild kann ich jedenfalls nicht erkennen. auch nicht, wenn ich genauer hingucke;) ... meinst du vllt röhren? klar, die haben eine niedrigere auflösung aber mit einem guten RGB kabel sieht das auch noch sehr gut aus...
 
Die Wiederholrate ist die Zahl, wie oft das Bild über den Bildschirm flimmert.

Beim PC ungefähr 75-100 Hertz
und beim TV im Idealfall 60 Hertz

Und Full-HD hat eine Auflösung von 1920 x 1080, was nicht im geringsten an ein gutes 30-Zoll Display rankommt.
 
Artikel-Update: Wie uns nun auf Nachfrage mitgeteilt wurde, wird es den Tesla S870 zunächst in der Tat nur mit vier GPUs geben, eine Konfiguration mit acht GPUs ist jedoch für die Zukunft ebenfalls geplant.
 
Also mein TV hat 100 Hertz... ; )

Die aktuellven LCDs haben vielleicht 60 Hertz - die widescreen PC Monitore allerdings auch in 90% aller Fälle. Abgesehen davon hat die Bildwiederholrate eines Fernsehers / Monitores nichts mit der ( benötigten ) Grafiklesitung zu tun ( oder würden sich sonst Leute beschweren sie haben keine 200 fps mehr? ^^ ). Tja.. und unser 37" Full HD Samsung steht einem 30" Display in nichts nach.. höchstens in der Pixelgröße - aber ich setz mich auch nicht 50cm vor den Fernseher um Pixel zu messen ; ).
 
Naja, man kann Konsolen und einen PC einfach nicht vergleichen. Die Konsolen sind von der Architektur her so gebaut, dass sie optimal Berechnungen für die darauf laufenden Spiele machen können. Demzufolge ist der Cell-Prozessor in der PS3 eine gute Stütze für den abgewandelten G71-Chip von NVidia. Und die Full-HD Auflösung der PS3 sieht mit Sicherheit nicht matschiger aus, als auf einem PC bei gleicher Auflösung.

Aber soweit ich weiß, ging es in der News um eine Beschleunigerkarte bzw. -rechner :freaky:
 
naoki schrieb:
Die Konsolen sind von der Architektur her so gebaut, dass sie optimal Berechnungen für die darauf laufenden Spiele machen können.

Nein, es ist genau andersrum. Dadurch das die Hardware der Konsole fixiert ist, kann man die Spiele besser darauf abstimmen.
 
NeoXpert schrieb:
Also mein TV hat 100 Hertz... ; )

Die aktuellven LCDs haben vielleicht 60 Hertz - die widescreen PC Monitore allerdings auch in 90% aller Fälle. Abgesehen davon hat die Bildwiederholrate eines Fernsehers / Monitores nichts mit der ( benötigten ) Grafiklesitung zu tun ( oder würden sich sonst Leute beschweren sie haben keine 200 fps mehr? ^^ ). Tja.. und unser 37" Full HD Samsung steht einem 30" Display in nichts nach.. höchstens in der Pixelgröße - aber ich setz mich auch nicht 50cm vor den Fernseher um Pixel zu messen ; ).

http://www.video-magazin.de/d/4449

fandre schrieb:
Nein, es ist genau andersrum. Dadurch das die Hardware der Konsole fixiert ist, kann man die Spiele besser darauf abstimmen.

Prima, wenigstens einer der das Prinzip Konsole/PC verstanden hat.


Bei dem angeblichen "Supercomputer" braucht man noch einen normalen PC, auf dem die Anwendungen laufen, sonst passiert da gar nix. Steht aber alles in dem Text - wer lesen kann ist klar im Vorteil.

Pisa lässt grüssen :o
 
Zuletzt bearbeitet:
nrjfrechdachs schrieb:
Bei dem angeblichen "Supercomputer" braucht man noch einen normalen PC, auf dem die Anwendungen laufen, sonst passiert da gar nix.

Zumindest wissen wir jetzt, was man sinnvolles mit einen Board anfangen kann, das vier 16x PCIe-Steckplätze bietet ^^

Ich frage mich, wie nVidia sich das vorstellt 12-16 Stück von den Teilen praktisch zu verbinden (außer eben über diese "PC").
 
@21
ist mal wieder so'ne sache mit der teraflop maßzahl.
wozu die dinger theoretisch in der lage sind und wieviel von den flops für eine anwendung neben dem kommunikationsaufwand etc. übrig bleibt, sind 2 verschiedene paar schuhe. Die Zahlen von den top500 beziehen sich meiner Meinung nach auf konkrete Anwendungen - so kommt es auch, dass das gleiche System in unterschiedlichen Anwendungen unterschiedliche "Flop"-Messergebnisse bringt.
Die maximale Leistungsfähigkeit wird selbst mit primitivsten und top-optimierten Anwendungen nicht annähernd erreicht.

Ich sehe aber durchaus in naher Zukunft auch Einsatzzwecke für diese Rechenmonster in Spielen. Gerade die Spiele-entwickler haben schon vor mehr als 5 Jahren damit angefangen auch KI durch Simulation von neuronalen Netzen auf Grakas (massiv) parallel zu berechnen. (Es kommt jetzt aber bitte keiner auf die Idee, die paar hundert Kerne mit den zig Milliarden Verbindungen im menschlichen Gehirn zu vergleichen! - mal ganz davon abgesehn, dass wir dafür noch kaum ein Modell haben, wie es überhaupt funktioniert)
Die Einsatzgebiete dafür sind aber riesig: natürlich die schon angesprochene Physik-simulation, alle Formen von Mustererkennung (Bilder (insbesondere vielleicht menschliche Mimik), Sprache, Gesten,...), oder im allgemeinen die Simulation aller reduktionistischen (Welt)Modelle. (Reduktionismus in diesem Zusammenhang als die Beschreibung eines Objekts durch die Summer seiner Teile - die man wiederum prallel simulieren kann)

@40
Reduktionismus (und die damit einhergehende Parallelisierbarkeit) alleine reicht - wie du bemerkt hast - auf keinen Fall für die Lösung aller Probleme!

btw:
kennst du - als Douglas Adams Fan, wie ich annehmen darf - eigentlich seine "holistische detektei" ? ;-)

Ich wollt nur mal die Brücke zum Holismus schlagen - der als Gegentheorie zum Reduktionismus erklärt "das Ganze ist mehr als die Summe seine Teile".
Diese Theorie ist zwar in unserer Schulwissenschaft noch nicht so ganz angekommen, wir bewegen uns allerdings darauf zu (Stichwort Quantenphysik...). Und ich rechne fest damit, dass Forschung auf diesem Gebiet uns feine neue technische Spielzeuge beschert, die uns auch solche Probleme in den Griff bekommen lässt.

Auf in die Zukunft!
 
Zuletzt bearbeitet:
ACluk90 schrieb:
Nöööö, hast du nicht^^ . Was so berechnet werden soll, muss in CUDA geschrieben und dazu parallel verarbeitbar sein. Die 8 TFLOPS bringt man mit ca. 2000 Threads hin, die meisten Entwickler haben schon mit 2 Threads für Dual Core Prozessoren mühe. :freak:
Edit: es müssen für die grosse Kiste mit 8 Karten mindestens 128*2*8=2048 Threads sein.

ach du liebe schei**, die sollen dann bloß weg von mir bleiben mit dem zeug und supercomputing etc. mir reicht meine NV40 AGP-Karte :freaky: und dann für die verständliche antwort :-)
 
Also ich kapier nicht an was das ganze zeug gut ist. Ist es so etwas wie ne PhysX? Alles bloedsinn mir nach...
 
@el kupa la habra

also wenn ich in einem PC
1)CAD plaene zusammenstelle
2)Eine DVD schau
3)Micro atomische zellen brechne
und spielen will;
Dann rufe ich nVidia

ansonsten braucht das zeug hier kein mensch!!!
 
Ich hab niemals nicht behauptet das gerade DU das gebrauchen könnte *hust*
So vermessen würde ich nicht niemals sein, Herr Brett-Found-On-Road-Death.

Aber der Nutzwert, gegenüber dem ansonsten so SINNFREIEN Nutzen von Grafikkarten (Spielen), ist schon da.
Richtig angewand machen diese Geräte Sinn, nur eben für das Spiele nicht (was ja die Meldung eigentlich recht deutlich macht).
 
Dabei muss ich dir recht geben, aber diese teile sind einfach keine grakas mehr , es sind physik beschleuniger, (Mir hat mal jemand gesagt, nVidia stellt grafikbeschleuniger her).
Fuer den Prof. bereich gibts QUADROs oder FireGLs, ....
 
Hallo, :)

Ich hätte da mal eine Frage: Bei der Simulation von dem Verhalten von Atomen und deren Elektronen + die Wechselwirkungen mit anderen Atomen und deren Elektronen in einem Molekül .... soll ja die benötigte Rechenleistung Exponentiell mit der Anzahl steigen, sodass nur ein
Quantenrechener die nötige Leistung haben sollte um diese in einem nötigen Rahmen zu simulieren und vorhersagen zu machen ...

Wäre es eigentlich vorstellbar dafür alleine eine spezielle Recheneinheit zu entwickelt die nur auf dieses eine Aufgabenfeld bestmöglich ausgerichtet ist ?

Vor allem könnte ein solch spezialisierter Prozessor schnell genug sein um diese Aufgabe ebenfalls genügend, in einem vertretbaren Zeitrahmen zu erfüllen, also auch ohne Quantenrechner ?

Diese Fragen können sich auch auf andere mögliche ähnliche Felder beziehen ...

Grüßé und Danke im voraus ;)

blubber
 
Zuletzt bearbeitet:
@Sam
Trenn dich bei den o.g. Geräten mal völlig von Spielen und Anhang (aka Physik).
Im Grunde sind GPU heute viele kleine CPUs/DSPs die nichts anderes machen als Rechnen, es kommt nur darauf an wie ich die Programmiere.

Und ich bewege mich Beruflich im professionellen Bereich und nutze (obwohl ich kein Freund von denen bin) zwei quadro FX4500 ;-)
Und die sind im Aufbau mit die üblichen Grafikkarten identisch (die kleinen Modifikationen vergessen wir mal), aber die Treiber haben es in sich!
Im Bereich openGL arbeiten diese Treiber mit einer viel höheren Genauigkeit als die Treiber für "normale" Grafikkarten, die man für Office und Games verwendet.
Diese höhere Genauikeit ist auch der Grund warum diese Karten bei Spielen so oft in Benchmarks abloosen (und idiotischer Weise dann die Tester und Leser sich darüber muckieren, vor allem über den Preis solcher Grafikbeschleuniger).
Aber eben diese Verwandtschaft machte ist leicht die (früheren) Grafikkarten auf die Profikarten zu pimpen (sei es über Treibermodifikationen oder BIOS-Änderungen - siehe ATI 9800pro zur Fire GL).

Es gibt übrigens Ansätze, für solchen "Missbrauch" von Grafikkarten, um verbaute Grafikkarten für o.g. Berechnungen zu benutzen (was ja hier auch schon thematisiert wurde - CUDA -->>
http://lunatics.at/gpu-crunching/cuda-programming.0.html)
 
Wenn man genug von den S870 sinnvoll vernetzen kann, kann man ja Jülich Konkurrenz machen.
 
Hi zusammen,

also ich hab jetz nicht jeden post durch aber falls es noch nicht ganz klar geworden ist wozu man diese teile braucht...Im idealfall unterstützt man damit einen bestehenden rechner-cluster. da man ja nicht ständig sein ganzes rechenzentrum umbauen will oder kann (schon allein wegen der downtime) man aber immer ein maximum an rechenleistung braucht kann man nun mit diesen karten jeden einzelnen serverblade(pci-e) nochmal aufrüsten ohne viel aufwand aber mit einem deutlichen plus an leistung. Es sind keine grafikkarten zum spielen oder sowas. es ist eine einfache möglichkeit noch mehr rechenkerne in einem serverschrank unter zu bringen. die 128 prozzesoren die eine karte hat sind im grunde die shadereinheiten einer 8800 graka. sie werden hier aber als einzelne cpus genutzt die einfache gleichungen lösen. Wissenschaftliche berechnungen skalieren wunderbar mit der vorhandenen anzahl rechenkerne. da man im wissenschaftlichen bereich schon früh erkannt hatte das es parallel eben schneller geht.
Nr.22
TheGregg:"Könnte mir jemand sagen, warum der Grafik-Chip der PS3 angeblich auf 1.8 Terra-Flops kommt und die nächste generation von nVidia schafft "nur" 0.5 TFlops?

@gregg: im wissenschaftlichen bereich rechnet man mit doppelter genauigkeit. das heisst es wird alles nochma genau nachgerechnet. Die Ps3 werte sind alle in einfacher genauigkeit. in doppelter genauigkeit sieht die Ps3 ganz schlecht aus.
 
Zurück
Oben