News AMD entwickelt Supercomputer auf GPU-Basis

Pickebuh schrieb:
Da wir unseren Strom in KW/h abrechnen spielt eben der Faktor Zeit einen bedeutende Rolle.
Ich weis nicht in welchen Einheiten du abrechnest, aber die meisten machen es in kWh. (nicht pro Stunde sondern mal Stunde ;))
 
Das erklärt auch warum AMD mehr Ressourcen für "Linux" GraKa Treiber investiert.

Oder wird etwa auf Basis des MS HPC Server gearbeitet?
 
Hallo,
mal ein paar Anmerkungen zum Thema:
AMD hat hier nichts verschlafen, schließlich bieten die GPU-Computing schon deutlich länger an als NVidia. F@H-GPU lief ja auch schon auf den alten X-Baureihen, deutlich bevor NVidia's CUDA überhaupt erhältlich war. Bisher hat das nur kein großer HPC-Hersteller genutzt. IBM hat nur die Kombination Opteron - Cell mit einem System getestet (liegt nahe, weil der Cell ja von ihnen kommt).

Bezüglich dem Verbrauchsvorteil wurde ja schon erklärt, dass hier vor allem die kürzere Rechenzeit eine Ersparnis bringt.

Allerdings spielt der Verbrauch des Systems durchaus eine Rolle. Nicht unbedingt wegen der Stromkosten, sondern vor allem wegen der Kühlung. Schließlich muss man ja alles möglichst gut kühlen, sollte dabei nicht zu viel Platz verschwenden und die Kühlung muss möglichst gleichmäßig verteilt sein. Da hilft es durchaus, möglichst wenig Abwärme zu erzeugen. Vermutlich werden die Karten darauf optimiert sein (hochwertiges VRM, (laut)starke Kühler,...).
Der hauptsächliche Stromverbrauch so einer Anlage kommt meist nicht von den Rechnern selber, sondern vom Kühlsystem/der Klimaanlage.

Etwas Zweifel habe ich aber trotzdem: Die Datenübertragung vom Handy zu dem Recher und die Laufzeit zurück zum Handy müssen da doch eine nervige Latenz bei Spielen erzeugen. In Videos spielt das keine Rolle, ob das Bild mit Ton jetzt eine Sekunde später auf dem Schirm ist, Hauptsache beides ist synchron. Aber bei Spielen...ich frage mich, wie die das kompensieren wollen.
Gruß Oberst.
 
1.) Darf man fragen, wie die das mit dem Datenaustausch realisieren wollen. Hängen die denn Supercomputer dann an eine 40Gbit Internetverbindung angehängt werden, die dann 24/7 läuft. Wer soll das denn bezahlen? Mein Q6600, der auch nicht mehr der jüngste ist, schafft bei 400kbit/s ca. 5 mal Echtzeit (125fps) mit H.264, also kann man sich schon einmal 2Mbit/s herrichten. HD läuft langsamer, hat aber auch eine höhere Bitrate. Eine GPU Kern sollte mindestens die 5 fache Performance haben, damit das nur irgendwie Sinn macht. Da ist die Leitung bei 4K GPUs schon ausgelastet.

2.) Was Sinn machen könnte ist für diverse Filmstudios die Renderarbeiten zu übernehmen. Hier ist jedoch stark die Frage, wie man diverse eingesetzte Software Many GPU tauglich machen will und ob man auch die notwendige Qualität liefern kann. Wenn ich die bisherigen Video Converter anschaue, dann halte ich das nicht für möglich. Badaboom war ja schon eine Katastrophe, aber der ATI Converter war dann noch einmal um ein Eck mieser.

3.) Folding@Home ist eine nette Spielerei und AMD hatte lange Zeit das als Aushängeschild für ihre GPUs und waren auch bei der Entwicklung beteiligt. Ich mag sogar behaupten, dass die Ergebnisse, wie bei jedem Distributed Computing Projekt nicht wirklich wichtig waren. Ob man jetzt insgesamt 1 TeraFlop oder 1 PetaFlop an Rechenleistung hat, macht die Forschung auch nicht wirklich viel schneller.
 
andr_gin schrieb:
1.) Darf man fragen, wie die das mit dem Datenaustausch realisieren wollen. Hängen die denn Supercomputer dann an eine 40Gbit Internetverbindung angehängt werden, die dann 24/7 läuft. Wer soll das denn bezahlen? Mein Q6600, der auch nicht mehr der jüngste ist, schafft bei 400kbit/s ca. 5 mal Echtzeit (125fps) mit H.264, also kann man sich schon einmal 2Mbit/s herrichten. HD läuft langsamer, hat aber auch eine höhere Bitrate. Eine GPU Kern sollte mindestens die 5 fache Performance haben, damit das nur irgendwie Sinn macht. Da ist die Leitung bei 4K GPUs schon ausgelastet.

Halt dich fest!! Ich hab mir grade einen Film in HD-quali(720p) online augeliehen und angeschaut:D

2.) Was Sinn machen könnte ist für diverse Filmstudios die Renderarbeiten zu übernehmen. Hier ist jedoch stark die Frage, wie man diverse eingesetzte Software Many GPU tauglich machen will und ob man auch die notwendige Qualität liefern kann. Wenn ich die bisherigen Video Converter anschaue, dann halte ich das nicht für möglich. Badaboom war ja schon eine Katastrophe, aber der ATI Converter war dann noch einmal um ein Eck mieser.

das macht man auch bereits, und zwar fast auf den selben, nur ein wenig kleneren, systemen. ein grosseres system kann einfach wirtschaftlicher genutzt werden. man nutzt dafür dann die leistung, die clouds anwendungen z.b. nachts freigeben. also man rendert dann quasi zwischendurch für filmstudios und gewährleistet damit bessere ausnutzung.


3.) Folding@Home ist eine nette Spielerei und AMD hatte lange Zeit das als Aushängeschild für ihre GPUs und waren auch bei der Entwicklung beteiligt. Ich mag sogar behaupten, dass die Ergebnisse, wie bei jedem Distributed Computing Projekt nicht wirklich wichtig waren. Ob man jetzt insgesamt 1 TeraFlop oder 1 PetaFlop an Rechenleistung hat, macht die Forschung auch nicht wirklich viel schneller.

omg:rolleyes:
 
Wie gesagt die ATI-Karten sind die stärkeren Boliden, vor allem wenn es um Stream-Applikationen geht.
 
Manche haben echte lustige Vorstellungen ;)

Natürlich, man baut 1.000 Grafikkarten und quetscht sie dann in 250 PCs ;-) lol.

Man nimmt die Chips und wird sicherlich entsprechende Platinen fertigen um eine effiziente Nutzung zu gewährleisten.
 
Interesannter Ansatz. Bin auf die Rechenleistung gespannt.
 
Ich bin an die Wärmeentwicklung gespannt....
Wer die anderen News gelesen hat, der hat das Asus Notebook mit der 4870X2 auch schon bemerkt.
In den Kommentaren dieser Nachricht haben alle um die Wärmeentwicklung geredet und einige meinten, dass das wassergekühlt werden müsste, ich denke, dass hier das größte Problem nicht der Stromverbrauch wäre(schei* auf die Umwelt, der Rest von AMD ist eh stromsparend^^), sondern die Wärmeentwicklung.
Wie will man 1000 x 4870 also eine 4870000^^ kühlen?
 
Guten Morgen AMD, auch schon entdeckt, dass Nvidia da die Nase vorn hat? Sage nur Fastra... das ist zwar nur ein kleiner Rechner aber mit Power!

Naja bin mal gespannt wer besser ist, Nvidia oder AMD... ich tippe auf Nvidia.

---------

währe mir neu das Nvidia Supercomputer zusammenbaut

Ansonsten ja net schlecht isst schon unterschied ob nun 70k Prozessoren laufne oder "nur" 5000 GPUs (nur mal als Beispiel)

hm mal nachgeschaut

Aber eine Frage habe ich noch: Im Vergleich zu CPU's schlucken GPU's mehr. Ich meine, damit kann man hinsichtlich Ökonomie bzw. Ökologie die GPU-Basis benachteiligen. Oder irre ich mich hier?

TOP500 List

1 Platz

Roadrunner

Rechenleistung: 1105000 Rmax(GFlops) (also nen guten Pentaflop)

CPUS: PowerXCell 8i 3200 MHz (12.8 GFlops)
ANZAHL : 129600

hm ja ob das nun soviel Effizenter iss als da sagen wir mal 1k GPUs rufzu dönsen und laufne zu lassne wage ich zu bezweifeln.

Da würde ich lieber die GPUs nehmen^^
 
Zuletzt bearbeitet:
http://www.nvidia.de/object/tesla_s1070_de.html
Und sowos gibts mindestens schon n Jahr...würde man sowos zu hunderten in Serverfarmen reintun wärs doch auch n Supercomputer. Insofern ists für mich kaum eine Neuerung von AMD, sondern eher sprang man auf den Zug auf.

@Adam Gontier: Was soll das für ne Frage sein? Wie kühlt man denn eine 4870? Genau, so kühlt man auch 1000 4870. Wieso meinen manche das all die GPU´s in einem Case geschweigedenn einem PCB sind :freak:

Und was haben immer alle mit ATi Stream?
1. Sollte es klar sein, das ATi mit dem eigenen Progs besser dasteht als die Konkurrenz...Gegenfrage, wie gut läuft Stream bei PhysX?
Zudem, bei den CPU Benches beschwert sich jeder über Intel "optimierte" Software...und hier juckts keinen?

2. Wie schon ein paar mal gesagt wurde ist das der Konverter eine schlechtere Qualität liefert als andere Produkte...sollte man denn nicht gleiches mit gleichem vergleichen? Bei jedem CPU oder GPU Benchmark drängt jeder nach gleichstellung der Testbedingungen, hier aufeinmal isses wurst?

Naja...
 
blackbirdone schrieb:
TOP500 List

1 Platz

Roadrunner

Rechenleistung: 1105000 Rmax(GFlops) (also nen guten Pentaflop)

CPUS: PowerXCell 8i 3200 MHz (12.8 GFlops)
ANZAHL : 129600

Es sind nicht 129600 sondern "nur" 12960, ausserdem kommen noch 6480 Opteron dazu.
 
Sorry aber ich glaube GPU computing wird erst mit opencl eine Platform bekommen um für alle nutzbar zu sein. Und erst dann wird der Markt entsprechent groß sein das in einem größerem Umfang Software entwickelt wird.

Hier wird mal wieder großes Potential verschwendet weil sich die Hersteller nicht einig werden, im Sinne der Sache eine gemeinsame Basis oder Standart zu entwickeln, der allen eine stabile Basis bietet. Da mus man halt mal über seinen Schatten springen ...

Naja ich glaube halt das OpenCL die Blueray des GpuComputing wird. Und das Dauert leider noch ...

Bei F@H ist imho Nvidia deutlich effizienter ... meine alte 8800 gts 640 iss schneller gewesen als smeine 4780 1gb jetzt ... soviel dazu ... Rohleistung ist nicht alles ...

mfg
 
Naja ich glaube halt das OpenCL die Blueray des GpuComputing wird. Und das Dauert leider noch ...

Nicht für NV, Cuda unterstützt schon heute OpenCL!
http://de.slizone.com/object/io_1229090804255.html

währe mir neu das Nvidia Supercomputer zusammenbaut
Mittlerweile gibts sogar schon den personal Supercomputer also nicht einfach PC sondern PSC. ;)
http://www.nvidia.de/page/personal_computing.html
https://www.computerbase.de/2008-11/nvidia-bringt-tesla-personal-supercomputer/


Ich bin an die Wärmeentwicklung gespannt....
Manche haben echte lustige Vorstellungen
Natürlich, man baut 1.000 Grafikkarten und quetscht sie dann in 250 PCs ;-) lol.
Man nimmt die Chips und wird sicherlich entsprechende Platinen fertigen um eine effiziente Nutzung zu gewährleisten.

Nicht ganz, der Fastra war zwar der Wegweiser wie es mit normalen PC Komponenten gemacht wird, mit einer anderen Größenordnung verändert sich auch das Kühlkonzept und Anordnung der Komponenten.
4 Petaflops mit GPUs
http://www.pcgameshardware.de/aid,653388/News/Supercomputer_aus_Grafikkarten_-_in_der_Theorie/
Natürlich würde heute eine GTX 295 eingebaut werden aufgrund der noch besseren Watt/Performance und Rechenleistung.

Mit einer HD 4870 X2 kann man sich das ähnlich vorstellen...

MfG Kasmo
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Nicht für NV, Cuda unterstützt schon heute OpenCL!
http://de.slizone.com/object/io_1229090804255.html

Jo datt iss rischtisch ...

Der Punk auf den ich hinaus will ist nur folgender:

Mit OpenCL geschriebene Programme sollten auf Intel (Larrabee) Ati und Nvidia Hardware laufen.
Und genau das ist der Punkt, der Markt ist einfach größer und somit auch die Nachfrage und oder Verdienstmöglichkeiten.
Was sich letztendlich durchsetzen wird ist immer so eine sache zumal Intel ja auch noch an einem Api für seine Hardware arbeitet ...

mfg
 
Sicherlich eine coole Sache.

Obwohl ich eigentlich mehr ATI-Fan bin, halte ich aber CUDA für die bessere Lösung. ATI hat sich mit der Brook+-Sprache für Stream keinen Gefallen getan, auch wenn es doch recht stark nach C++ aussieht können das bei weitem nicht so viele Leute wie das einfache C in dem CUDA programmiert wird.

Folge: Von den nützlichen Freeware-Tools die wir alle so lieben wird es viel mehr für NV-Karten geben. Das wird im 'Formatkrieg' der GPGPUs noch einiges ausmachen.
 
Begehmann schrieb:
Sicherlich eine coole Sache.

Obwohl ich eigentlich mehr ATI-Fan bin, halte ich aber CUDA für die bessere Lösung. ATI hat sich mit der Brook+-Sprache für Stream keinen Gefallen getan, auch wenn es doch recht stark nach C++ aussieht können das bei weitem nicht so viele Leute wie das einfache C in dem CUDA programmiert wird.

Folge: Von den nützlichen Freeware-Tools die wir alle so lieben wird es viel mehr für NV-Karten geben. Das wird im 'Formatkrieg' der GPGPUs noch einiges ausmachen.

Ich denke das ist Ansichtssache. Ich mein, AMD wird sicherlich auch ihre Gründe haben, warum sie ihren Weg eingeschlagen sind.
 
Begehmann schrieb:
Obwohl ich eigentlich mehr ATI-Fan bin, halte ich aber CUDA für die bessere Lösung. ATI hat sich mit der Brook+-Sprache für Stream keinen Gefallen getan, auch wenn es doch recht stark nach C++ aussieht können das bei weitem nicht so viele Leute wie das einfache C in dem CUDA programmiert wird.
Nochmal, wer eine einfache auf C aufbauende Lösung sucht, für den ist OpenCL der richtige Weg. BrookGPU bzw Brook+ ist lediglich eine weitere von AMD unterstützte Schnittstelle. Stream und CUDA selbst sind im Grunde bedeutungslos für Entwickler. Zumindest für die, die ihre Anwendungen dem gesamten Markt zur Verfügung stellen wollen.
 
@ Vgl. Brook++ vs. CUDA

Öhm, imho wird in OpenCL in OpenCL geschrieben und nicht in Brook++ oder einer prorietären nvidia-Sprache - das ist doch wohl gerade der Sinn an OpenCL.

@ Vergleiche zu Nvidia Tesla

Bisher gibt es keine Möglichkeit eine Nvidia Tesla mit 1.000 GPUs mit einer einzigen CPU zu steuern. ;)
 
Zurück
Oben