News AMD entwickelt Supercomputer auf GPU-Basis

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.617
Auf der in Las Vegas stattfindenden Consumer Electronic Show kündigte der AMD-CEO Dirk Meyer an, dass man einen neuen Supercomputer bauen möchte, der eine Rechenleistung von einem Petaflop (1.000 Teraflop) bereitstellen wird.

Zur News: AMD entwickelt Supercomputer auf GPU-Basis
 
Guten Morgen AMD, auch schon entdeckt, dass Nvidia da die Nase vorn hat? Sage nur Fastra... das ist zwar nur ein kleiner Rechner aber mit Power!

Naja bin mal gespannt wer besser ist, Nvidia oder AMD... ich tippe auf Nvidia.
 
Zuletzt bearbeitet:
Wie auch immer finde es gut wenn so etwas gebaut wird. Das stößt hoffentlich die Weiterentwicklung der Computer insgesamt an. Wenn die Grafikchips mehr Leistung bringen als CPUs wer weiß wie die CPUs der Zukunft aussehen oder ob es da überhaupt noch Unterschiede im heutigen Sinne gibt.
 
Also die neuen AMD CPUs finde ich wirklich spitze schon allein aus dem Grund das sie immernoch die gleiche plattform nutzen.

Das AMD jetzt einen neuen Supercomputer auf GPU Passiss entwickelt ist wirklich fantastisch
ich bin gespannt was dabei für eine leistung rauskommt.
 
Ich denke, Supercomputer auf GPU Basis werden wir in Zukunft noch deutlich häufiger sehen. Rechenleistung und Effizienz sind einfach unschlagbar. Zumindest, wenn wir es mit diversen CPU Architekturen vergleichen, zB x86. Prozessoren wiederum dienen dann lediglich als "Host".
 
Schön zu sehen diese Leistung, nur Schade das es Cloud-Computing sein muss.
 
An so einem System zu arbeiten macht dann sicherlich Laune, und mit arbeiten meine ich fullscenerendering was ja auf einem 08/15 System mehrere Stunden/Tage gar Wochen dauert wenn man paar Minuten erstellen will.
Eine Herr der Ringe Landschaft in Echtzeit rendern hätte was.

@Spock55000
Ist aber schon ein unterschied ob man 8 GPUs oder 1000 (in Worten tausend) GPUs zusammenschaltet um die Rechenleistung zu nutzen. Wobei die Maschine schon interessant ist.
Sicherlich geht das mit den NV GPUs genauso, was ich aber vorteilhaft finde ist das es aus einem Haus kommt. Da wird die Hardware sicherlich abgestimmter sein.
 
Spock55000 schrieb:
Guten Morgen AMD, auch schon entdeckt, dass Nvidia da die Nase vorn hat? Sage nur Fastra... das ist zwar nur ein kleiner Rechner aber mit Power!

Naja bin mal gespannt wer besser ist, Nvidia oder AMD... ich tippe auf Nvidia.

Ich tippe mal auf: Es gibt hier keinen Konkurrenzkampf. Von wegen Nvidia.
Soweit es mir ersichtlich war, ist FASTRA nur ein Super-Computer zusammengebaut von irgendwelchen Studenten.
Ich wette irgendwo auf der Welt gab's auch schon Menschen, welche AMD-Grafikkarten zusammengebaut haben, um auf den Verwendungszweck ab zu zielen.

Ich bin mal gespannt, was sich alles auf dem Markt ändern wird.
Aber eine Frage habe ich noch: Im Vergleich zu CPU's schlucken GPU's mehr. Ich meine, damit kann man hinsichtlich Ökonomie bzw. Ökologie die GPU-Basis benachteiligen. Oder irre ich mich hier?
 
r34ln00b schrieb:
Aber eine Frage habe ich noch: Im Vergleich zu CPU's schlucken GPU's mehr. Ich meine, damit kann man hinsichtlich Ökonomie bzw. Ökologie die GPU-Basis benachteiligen. Oder irre ich mich hier?

Einfach gesagt Ja.
Zwar verbrauchen GPUs mehr das stimmt.
Aber mit ihnen kann man ein vielfaches der Leistung erreichen als mit CPUs.
Da wir unseren Strom in KW/h abrechnen spielt eben der Faktor Zeit einen bedeutende Rolle.
Nemen wir mal an du benötigst mit einem Quad-Core exakt 1 Stunden Berechnungszeit.
Der Quad-Core hat eine Verlußtleistung von 95 Watt macht also einen Verbrauch von 0,095 KW/h.
Jetzt nimmst du für die selbe Berechnung einen GPU der 5 mal so schnell arbeitet wie der Quad. Zwar hat der GPU deutlich mehr Verlustleistung von 150 Watt aber durch das er deutlich schnellere Rechnen kann kommst du dann auch nur auf 12 Minuten Rechenzeit und somit einen Verbrauch von deutlich geringeren 0,030 KW/h.

Die Effizienz ist bei einem GPU deutlich höher.
 
r34ln00b schrieb:
Aber eine Frage habe ich noch: Im Vergleich zu CPU's schlucken GPU's mehr. Ich meine, damit kann man hinsichtlich Ökonomie bzw. Ökologie die GPU-Basis benachteiligen. Oder irre ich mich hier?

Im Prinzip hast du schon recht. Aber wenn mit 1000 GPUs wirklich schon ein PetaFLOP erreicht werden sollte, wäre das wohl schon effizienter. Zum Vergleich, Der IBM Roadrunner in Los Alamos schafft auch ungefähr ein PetaFLOP und der besteht aus 6480 Opterons und 12.960 Cells.... das schluckt bestimmt mehr ;)

Edit: Tja da war wohl jmd schneller.
 
Was wird das für eine Stromschleuder wird das? Wie bringt man 1000 GPU´s unter?

thx
 
Auch wenns nicht in Spielen zur Geltung kommt AMD hat einfach die GPUs mit der wesentlich höheren Rechenleistung. Bei GPU-Computing könnte es derzeit für Nvidia bei solchen Profinanwendungen nur düster aussehen.
Obendrein bietet AMD noch Server-CPUs die derzeit im Bereich Virtualisierung immer noch nen gutes Stück vor Intel rangieren.
 
Mal ehrlich, bei solchen Projekten ist doch der Stromverbrauch ersteinmal sch... egal.
Wenn sich jeder Zweite eine SLI, Crossfirre oder X2-System in seinen PC baut und man das auf die Bevölkerung herunterrechnet, kommts auch nicht besser.

Bei diesen Systemem gehts ums Machbare, neue Grenzen aufzubrechen und Prestige.
 
gsx-r schrieb:
Mal ehrlich, bei solchen Projekten ist doch der Stromverbrauch ersteinmal sch... egal.
Wenn sich jeder Zweite eine SLI, Crossfirre oder X2-System in seinen PC baut und man das auf die Bevölkerung herunterrechnet, kommts auch nicht besser.

Bei diesen Systemem gehts ums Machbare, neue Grenzen aufzubrechen und Prestige.

Irgendwie muss man ja anfangen strom zu sparen. Gut wär wenn se die GPUs in große Server z.B. Youtube o.ä. einbauen würden.

Man sollte auch ganz einfach Mobile Grafikkarten mit normalen PCIe Sockel verkaufen. Eine 9800M GT/4850 wär das schonmal was. Da würden bestimmt auch viele 50€ mehr ausgeben. Wobei sich das wieder rentiert, weil eben ca 70W eingespart werden. Warum gibts einfach nicht Mobile Hardware fürn Desktop? Wie beim Firebird. Nen schnellen Rechner mit Quadcore. 40W(CPU)+40W(GPU)+30W(Mobo+Laufwerke) wären wir bei theoretischen 110W. Nen Desktop braucht ca 95W(CPU)+110W(GPU)+45W (Mobo &Festplatten) Da wären wir bei theoretischen 250W. Der Leistungsunterschied wird sicherlich auch sehr gering ausfallen.
 
Ok, Ok. Es stellt sich aber auch die Frage, wieviel "alte" Server der Anzahl x und dem Spromverbrauch y stehen den einen "Neuen" Server entgegen?
 
man darf man der geschichte auch nicht vergessen, dass gpu computing nicht für alle einsatzzwecke geeignet ist. einfach formuliert sind cpus im vergleich zu gpus einfach vielseitiger und flexibler zu nutzen. na klar, für rendering und reine mathematische berechnungen sind gpus besser (stichwort cloud computing mit gpu oder wpa2 breaking), aber darüber hinnaus siehts schon mager aus.
das zweite was man bedenken muss: die leistung steht ja nicht nur einem endanwender zur verfügung sondern möglichst vielen. es muss natürlich auch irgendwo einen sinn erfüllen, denn mit nem iphone sich crysis streamen zu lassen macht wenig sind. es müssen an die steuerung angepasste titel sein und damit begrenzt man auch schon wieder die anforderungen, die man an das spiel überhaupt hat.

ich denke schon, dass gpu computing fortschritt bringt und wir demnächst mehr dazu hören werden (insbesondere in bereichen von cryption), aber das allheilmittel an leistung ist es nicht.
 
Cool wenn die 1000 Radeons mit Crossfire laufen kann man Crysis in 5000x3500 mit einer Milliarde FPS zocken :D
 
stimme thes33k vollkommen zu,
gpus sind nur bei machen anwendungen besser als cpus für super-computing geeignet, aber viele Dinge sind damit einfach nicht machbar.
Das vorgestellte cloud system ist ja wie angekündigt vorallem für visuelle Datenaufbereitung gedacht und hier können die gpus ihre extrem hohe Rechenleistung ausspielen.
Ist auch ein toller Ansatz von AMD da ihre neuen HD4000 gpus ja eine weitaus höhere Rohleistung als die NVidia Pendants haben, was sich in so einem Szenario natürlich stark auswirken wird.
 
Zurück
Oben