News AMD zeigt erste OpenCL-Demo auf der CPU

mom kommt gleich... wird dir gleich was verlinken...
 
Ist es nicht so das diese Angaben Theoretisch sind, aber nie im Praxis erreicht werden können, da diese Karten zu warm werden?

Richtig, so wie es aussieht beschneidet ATI die GFlop Leistung künstlich weil sonst die Spannungswandler aussteigen.(vielleicht auch ein Grund warum so wenige ATI Stream Programme kommen, oder wenn dann auf halber Leistung fahren?)
 
So hier noch die links:
https://www.computerbase.de/forum/t...ten-muessen-runter.544476/page-4#post-5556081
https://www.computerbase.de/forum/t...ten-muessen-runter.544476/page-4#post-5556087
https://www.computerbase.de/forum/t...ten-muessen-runter.544476/page-4#post-5556127

Auch ein Beitrag von Kasmopaya ist dabei ;)

Ich sage nicht das die 4000er Reihe von ATi schlecht wäre, doch sie haben irgendwie Quantität mit schlechter Qualität hingebracht --> Hitze, nicht funktionierendes Powerplay...
 
Igi90 schrieb:
Ist es nicht so das diese Angaben Theoretisch sind, aber nie im Praxis erreicht werden können
diese flops zahlen erreicht man so oder so nie, da diese wohl aus den idealsten bedingungen aufgebaut sind (siehe gamestar zum thema tdp <-> acp).
Denn die TDP-Angaben von AMD entsprechen dem Verbrauch eines Prozessors bei gleichzeitig maximal erlaubter Kernspannung, maximal zulässiger Betriebstemperatur und 100% Last in allen Bereichen der CPU.
genauso wird wohl auch das in die berechnung der flops eingezogen werden. mitunter ist das ja auch nur ein richtwert inwiefern leistungsfähig die jeweilige komponente ist.
Igi90 schrieb:
, da diese Karten zu warm werden?
stimmt nur teilweise. ;) die wandler werden zu heiß, der rest ist vollkommen ok (war doch so?). gabs letzte woche einen artikel bei ht4u darüber (leistungsaufnahme <-> tdp bei gpus, sowie das wandlerproblem der 4870).
 
@Igi90

Und das soll die Aussage untermauern? Forenbeiträge? Ich schreibe jetzt mal das nvidia ganz böse ist und die sich später Umbrella Corp. nennt und die Welt erobern will. Nur weil ich das schreibe stimmt das nicht.

Das einzige Problem bei den 4870 war das einige Hersteller gerade an den Spawas gespart haben, worauf wohl ATi / AMD kaum Einfluß haben dürfte, und deshalb bei einigen Karten die SpaWas zu heiß wurden, abgeraucht sind beim FurMark. Sobald man den Furmakr umbenennt war die Sperre umgangen.

Meine Sapphire HD 4870 fiepte nicht, auch sonst machte sie keine Zicken. Meine HD4870 lief mit umbenannter FurMark.exe und Standardeinstellungen und Standard Lüfter(!) problemlos ohne bösartige Temperaturen (~87 - 88°C) o.ä. (ausgelesen mit GPU-Z und Rivatuner)

Mit Wakü sind die Temps natürlich nochmal um einiges niedriger.

Und der Tempunterschied unter Last zwischen HD 4870 und GTX 280 beträgt jeweils etwa 1-3°C, sind also absolut zu vernachlässigen. Das Argument Hitze ist ja wohl sowas von ausgeleiert...
 
Das mit den Temps hast du teilweise recht... stimmt schon das sie unter Vollauslastung der unterschied nur 4°C aussmacht, aber im idle ist der unterschied von über 30°C! und das ist schon ein grosser Unterschied finde ich.
Link

Vielleicht ist es bei dir durchgelaufen, doch bei anderen nicht. Jeder macht fehler, auch nVidia mit dem 105°C Heatbug... es ist also sinnloss zu entscheiden welcher Hersteller besser ist. Es gibt so viele Informationen eigentlich, die gar nicht so richtig überprüft wurden... das mit dem GFlops würde mich aber sehr interessieren wiviel genau die ATi's da schaffen....

Auch wurde bis jetzt noch nie richtig die nVidia PhysX getestet, welche auch noch eigentlich gemacht werden könnte....

Wie gesagt jeder hat seine Vor&Nachteile... ich lasse es mal bei dem stehen.
 
Igi90 schrieb:
stimmt schon das sie unter Vollauslastung der unterschied nur 4°C aussmacht, aber im idle ist der unterschied von über 30°C!
da frage ich mich sowieso was cb dort macht. meine 4870 wird unter last nie wärmer als 65 °C (2 gehäuse lüfter in der nähe [einer für die gpu und einer für den cpu kühler], 1er vor den festplatten [unten im case]). selbst übertaktet wird sie nicht wärmer als 70 °C. im idle dagegen (100 core, 200 ram) wird sie nur 40 °C warm.

aber das tempprobleme beim chip auftreten kann man ja wie gesagt nicht sagen, da dies nur die wandler betrifft. hier nochma der direkte link zu ht4u.
Es ist an dieser Stelle nun mehr alles andere als verwunderlich, warum AMD derartige Vorkehrungen für den FurMark trifft. Die Karte ist der Belastung schlichtweg nicht gewachsen. Während sich die GPU-Temperatur in absolut undenklichen Gefilden bewegt, steigt die Temperatur der Wandler ins Unermessliche. Mittlerweile ist auch das Datenblatt zum Wandler von Vitec Electonics verfügbar, welches die maximal Betriebs-Temperatur mit 125°C angibt.

Mittels FurMark erreichten wir laut RivaTuner bereits binnen weniger Minuten eine Temperatur von 125°C, womit eindeutig bestätigt ist: Die Radeon HD 4870 hat ein Problem mit der Wandler-Temperatur, und zwar ein gewaltiges. Sicherlich ist der Furmark ein Worst-Case-Szenario, das in dieser Form in aktuellen Spielen auf diese Art nicht oder kaum anzutreffen ist. Aber es verdeutlicht, dass die Wandler der Karte schnell am Rande der Spezifikationen – und in speziellen Fällen eben auch darüber hinaus – arbeiten.
 
N-rG schrieb:
Das sieht ja mal sowas von affengeil aus!! Dagegen ist das ganze Zeugs von Nvidia nix! Hammer, wie die Partikel sich physikalisch bewegen und in welcher Masse. Haben will!

Geht so. Ist ne schöne spielerei aber von "affengeil" seh ich da nichts. Viel Physik ist das nun auch nicht wenn sich ein paar losgelöste Pixel frei bewegen.
 
AMD präsentierte auf der Siggraph Asia 2008 nun eine erste OpenCL-Demo, dessen Video und Informationen aber ...

... sollte das nicht 2009 heißen?

Demnächst berechnet die CPU alle Aktivitäten für die Grafikkarte und die GPU alle Aktivitäten für die CPU! :D

Gruß

(((((((( NatriumCarbonat ))))))))
______________________________
 
ATI Karten haben bei GPU Computing den Vorteil , dass sie mehr Shadereinheiten haben.

Ne Frage
Gibt es dieses Powder Game nicht ohne Java?
Hab jetzt keine Lust java zu ziehen :D
 
Zuletzt bearbeitet:
Die theoretischen MFLOPS nützen nichts, wenn die Software nicht damit umgehen kann. Im Beispiel folding@home - Client statistic sieht man den Versuch, Optimierungen für beide Hersteller und Shader-Konzepte umzusetzen. Rechnet man die Ergebnisse auf alle aktiven GPUs um, kommt ein Durchschnittswert von 110 MFLOPS bei ATI und 109 bei nVidia heraus, in der Summe profitieren die zugrunde liegenden, knapp 28.000 Karten gleichermaßen von der Software. Rückschlüsse auf bestimmte Modelle/Generationen sind hiermit nicht möglich, spielt für die Anwendung auch keine Rolle, weil jede nutzbare GPU ausreichend Leistung für die Aufgabenstellung hat.

Detailierte Statistiken wären wünschenswert, zugegeben. :(



  • *TFLOPS is the actual teraflops from the software cores, not the peak values from CPU/GPU/PS3 specs.
 
So, ich habe mal SiSoft Sandra 2009 durchlaufen lassen, HD4870 @850 / 1050 Mhz hat 1.36 TFLOPS / 1360 GFLOPS, lief ohne Probleme durch . Da frage ich mich doch wo die Karte bei Volllast künstlich beschnitten wird.

Auslastung der Karte lag übrigens bei 99,81%, ich hoffe das reicht aus...
 
Turbostaat schrieb:
@smith0815
Hättest du mal 1 Minute investiert und mal kurz recherchiert hättest du gesehen das selbst eine HD4850 eine höhere GFLOPS Anzhal hat als eine GTX280

HD4850: 1000 GFLOPS
HD4870: 1200 GFLOPS
HD4870 X2: 2x 1200 GFLOPS
GTX 260: 715 GFLOPS
GTX280: 933 GFLOPS
GTX 285: 1063 GFLOPS
GTX 295: 2x 894 GFLOPS

Also deine Aussage das die HD4000er Karten nicht leistungsfähig genug sein in dem Bereich, darf man wohl anzweifeln
Ich rede doch nicht von theoretischer Rechenleistung, sondern von dem enormen zusätzlichen Aufwand, den Nvidia betrieben hat um GT200 für GPGPU fit zu machen:

http://www.beyond3d.com/content/reviews/51
http://www.anandtech.com/video/showdoc.aspx?i=3334&p=1

Stichworte sind:
- Double Precision (brand new FP64 support)

The FP64 ALU is notable not just in its inclusion, NVIDIA supporting 64-bit computation for the first time in one of its graphics processors, but in its ability. It's capable of a double precision MAD (or MUL or ADD) per clock, supports 32-bit integer computation, and somewhat surprisingly, signalling of a denorm at full speed with no cycle penalty, something you won't see in any other DP processor readily available (such as any x86 or Cell). The ALU uses the MAD to accelerate software support for specials and divides, where possible.

- Unmengen zusätzlicher und vergrößerter Register

So, along with that pool of shared memory is connection to a per-SM register file comprising 16384 32-bit registers, double that available for each SM in G80. Each SP in each SM runs the same instruction per clock as the others, but each SM in a cluster can run its own instruction. Therefore in any given cycle, SMs in a cluster are potentially executing a different instruction in a shader program in SIMD fashion. That goes for the FP64 ALU per SM too, which could execute at the same time as the FP32 units, but it shares datapaths to the RF, shared memory pools, and scheduling hardware with them so the two can't go full-on at the same time (presumably it takes the place of the MUL/SFU, but perhaps it's more flexible than that). Either way, it's not currently exposed outside of CUDA or used to boost FP32 performance.

- Sheduler Tweaks

Nicht dass ich als Laie beurteilen könnte, inwieweit all dies in GPGPU-Anwendungen relevant ist, aber Nvidia hat sicher nicht zum Spaß Entwicklungszeit und Chipfläche für CUDA-only Erweiterungen spendiert und es darf doch vermutet werden, dass ATI hier eine ähnliche Entwicklung noch bevor steht, der schlanke RV770 bringt diesbezüglich sicher noch keine Optimierungen mit. Dass dies für den 0815-Gamer erstmal belanglos ist stelle ich nicht in Abrede, aber kein Grund auf mich einzudreschen ohne zu lesen, worauf ich hinaus wollte. :(
 
ich drehe rein gar nicht an der spannung herum, sondern setze nur rivatuner ein, welches im 2d auf 100/200 taktet und unter 3d auf standardmäßigen 750/900 läuft. die spannung bleibt dabei unberührt (ist mir erstens zu heikel und zweitens bringt es theoretisch kaum etwas [damit meine ich 40 °C sind schon ein guter wert]). ;) zumindest empfinde ich einen temperaturunterschied von über 20 °C als sehr groß, wo ich davon ausgehen würde, dass im case irgendwo ein luftstau herrscht. dem kumpel seine 4850 wird unter load ebenso nur 70 °C warm und er besitzt dabei nur einen gehäuselüfter.
 
Während CUDA und CAL aktuell bereits eingesetzt werden, muss man auf OpenCL- oder Compute-Shader-Programme aber noch ein wenig warten. Die Spezifikationen von OpenCL sind erst seid einigen Wochen bekannt und die passende Software fehlt noch. AMD präsentierte auf der Siggraph Asia 2008 nun eine erste OpenCL-Demo, dessen Video und Informationen aber erst letzte Woche an die Öffentlichkeit gelangt sind.

seit einigen Tagen wäre hier richtig. :)


Gruß, Derrick
 
Zurück
Oben