News AMD zeigt erste OpenCL-Demo auf der CPU

bei Folding@Home ist ATI zz. durch den Cuda nachteil wesentlich langsamer.

Bei der Optimaler Grafikleistung spielt nicht nur die Hardware eine Rolle sondern auch das Software. Das was nVidia schon hat, muss ATi erst erstellen! Ich denke mal nVidia hat schon ein bisschen für die Zukunft gesorgt und wird sich gut aufrüsten mit den GTX300er Serie.

Noch was wegen den Temps... es bringt viel zu sagen zum Beispiel, ein Freund von mir welche eine 4850 hat, erreicht ein Max von 70 Grad.
Ich hatte bei meiner GTX260 auch selten über 72 Grad um ehrlich zu sein bei Crysis.

Bei CB wurden alle im gleichen Gehäuse und Luftumgebung, mit den gleichen Programmen getestet. Jeder von uns hat ein anderen PC Gehäuse, hat eine andere Luftumgebung und testet mit einem anderen Program oder liest es zum Beispiel mit EVGA Precision die Temps aus andere mit Everest.
 
Zuletzt bearbeitet:
OpenCL ist mehr mit ATi verbunden als mit nVidia. Ein vergleich momentant ist sinnfrei, da sich OpenCL noch in der Entwicklungsphase befindet. Da es sich über CPU aber einfacher zu programmieren lässt, haben sie es zuerst für die CPU entwickelt. Für die GPU wird es erst kommen.
 
Zuletzt bearbeitet:
smith0815 schrieb:
Ich antworte mir mal selbst in Form einer Frage. Kann es sein, dass die GPGPU-Leistung der HD4000-Serie alles andere als beeindruckend ist?

Stimmt !
Sie ist nicht beeindruckend sondern phänomenal !!
Dank den 800 SP zieht die 4000er Serie von ATI die lahmen NV-Karten in Grund und Boden. :cool_alt:

Nvidia hat bei GT200 ja jede Menge Entwicklungszeit und zusätzliche Transistoren in GPGPU-Fähigkeiten investiert, gut möglich dass AMD hier wird nachlegen müssen. Ist zum jetztigen Zeitpunkt natürlich kein Nachteil, aber wenn erst der Nachfolgechip (vielleicht erst das D3D11-Monster?) sein volles Potential in diesem Bereich wird ausspielen können,

ATI hat da doch längst mit der 4000er Serie geantwortet.

Dies wurde sogar getestet mit dem Ergäbnis das eine HD 4850 fast doppel so schnell rechnen kann als eine GTX280.

Ergäbnis eines Tests wo ein MPG2-Video mittels der GPU in MP4-Format unkonvertiert wurde.

HD 4870 1:21 Minuten
HD 4850 1:26 Minuten
HD 4830 1:51 Minuten

GTX280 2:26 Minuten
GTX260 2:41 Minuten

Nachzulesen hier:
https://www.computerbase.de/2008-12/test-ati-video-converter-benchmarks/3/#abschnitt_benchmarks

Also wo ist die berüchtigte Leistung einer GTX280 ?
Ganz einfach:
Sie ist nur in Spielen vorhanden die extrem für NV optimiert wurden.
 
@ Pick

na das ist ja mal wieder ne Vorlage für die NV Fans. Die zerpflücken dich in der Luft wenn du den ati VC mit badaboom vergleichst.

@NV Fans die meinen die GTX Serie wäre stärker da sie mehr Punkte bei folding bringen:

Habt ihr euch überhaupt mal angschaut wie die Punkte bei f@h vergeben werden? Völlig willkürlich. Punkt /= Geschwindigkeit.

Wenn Geschwindigkeit wirklich = Punkte dann würden die lieben CPUs praktisch keine Punkte mehr bekommen.

Insofern sind die von f@h vergebenen Punkt überhaupt nicht für einen Vergleich zu gebrauchen. Auch nicht die Zeit für eine WU da von ATI und NV Karten unterschiedliche Dinge berechnet werden.

Die Wärme bei ATI Karten anzuführen ist genauso lächerlich. Im Vergleich zu NV erspart ATI dem Kunden den sinnfreien Lärm durch schnell laufende Kühler bei völlig unkritischen Temperaturen.

@ Kasmopaya

Wenn du meinst es zeugt von Qualität wenn NV auch im 2D den Lüfter röhren lässt und damit die Temperatur unter 50° hält dann kann ich nur lachen.

Eher umgekehrt, scheinbar brauch NV die niedrigen Temperaturen damit die Karten nicht über den Jordan gehen. ATI Karten sind ausgelegt problemlos dauerhaft auch bei 80° zu laufen.
 
Pickebuh schrieb:
ATI hat da doch längst mit der 4000er Serie geantwortet.

Nein, ATI kann DP nicht IEEE 754 konform berechnen, Nvdia kann das.
http://de.wikipedia.org/wiki/IEEE_754


Pickebuh schrieb:
Ergäbnis eines Tests wo ein MPG2-Video mittels der GPU in MP4-Format unkonvertiert wurde.

Bei der Performance ist der ATi Video Converter mit Abstand am schnellsten, die Bildqualität muss sich (bei gleichen Programmeinstellungen) der Konkurrenz allerdings geschlagen geben.
 
Pickebuh schrieb:
Also wo ist die berüchtigte Leistung einer GTX280 ?
Ganz einfach:
Sie ist nur in Spielen vorhanden die extrem für NV optimiert wurden.
Ich schreibs nicht nochmal, entweder willst du oder kannst du nicht darauf eingehen:
https://www.computerbase.de/forum/t...l-demo-auf-der-cpu.545813/page-2#post-5569159

Es ist mir auch ausdrücklich scheißegal ob Hersteller A oder Hersteller B die dickeren Eier, schöneren Maskottchen oder sonstwas hat. Ich hätte nur gern ein wenig Einblicke gewonnen, wieso Nvidia einen derartigen Aufwand getrieben hat, um GT200 in Sachen GPGPU voran zu bringen. Die Betonung bitte auf GP, das steht für "General Purpose" und wieso sollte man annehmen, dass die ATI-Architektur nichts dergleichen nötig hat, um zukünftig in diesem Bereich (da gehört auch OpenCL mit rein, hier hat auch kein Mensch Zeit und Geld um handoptimierten Shadercode zu schreiben, damit man Hardware XY optimal auslasten kann) mithalten zu können. Natürlich schieben beide Hersteller einen zusätzlichen Layer dazwischen, bei Nvidia Cuda, aber irgendwann kommt es auf der Hardware zum Schwur. In dem von mir verlinkten Beyond3D-Artikel wird ja am Rande darauf eingegangen, offensichtlich vereinfachen die Erweiterungen die Programmierung der GPU und erhöhen die Effizienz bei generischer Herangehensweise (Tools, Librarys, Compiler), man muss also nicht mehr handoptimierten Code für jede Chipgeneration vorhalten.

Nochmal, dass Nvidia davon im Moment keinen Nutzen hat, GPGPU momentan noch keine relevante Verbreitung hat, dass ATI auch schöne Karten baut, dass GT200 in Spielen nicht haushoch überlegen ist und bei irgendwelchen handoptimierten Proof-of-Concept-Spielereien die brachiale Shaderpower der HD4870 voll durchschlägt, geschenkt. Ich gestehe dir auch zu, dass Ruby je nach Timedemo einen Knackarsch oder einen Pferdehintern hat, ist mir alles Latte, ich war nur neugierig welche spezifischen Herausforderungen GPGPU an Shaderhardware stellt und inwieweit Nvidia hier schon liefert, bzw. wieviel Herkulesarbeit von ATI hier noch geleistet werden muss, um die kommenden Generationen ebenfalls fit zu machen.

Ich gebe aber zu, möglicherweise ist dies das falsche Forum für meinen Wissensdurst.
 
redfirediablo schrieb:
Habt ihr euch überhaupt mal angschaut wie die Punkte bei f@h vergeben werden? Völlig willkürlich. Punkt /= Geschwindigkeit.

Wenn Geschwindigkeit wirklich = Punkte dann würden die lieben CPUs praktisch keine Punkte mehr bekommen.

Insofern sind die von f@h vergebenen Punkt überhaupt nicht für einen Vergleich zu gebrauchen. Auch nicht die Zeit für eine WU da von ATI und NV Karten unterschiedliche Dinge berechnet werden.

Die Punkteberechnung ist alles andere als willkürlich, Polemik hat hier keinen Platz, die Fakten sind nachzulesen, Beispiele:
Folding@home Points FAQ
Re: Questions regarding core_13 (Vijjay Pande)
Equity of Points

Messung von Zeiten und Punktwerten dienen vor allem der Optimierung von Clientsoftware vor Ort > maximale Effizienz von Investition/Leistung/Watt=Euro. Ist das weltfremd ? Wohl nicht.

In der Praxis erhalten weder ATI- noch nVidia-Karten identische PPD-Werte (in der täglichen Beobachtung sehr selten, in der wöchentlichen schon eher), weil die berechneten Workunits nach wissenschaftlicher Notwendigkeit von den Server verteilt werden. Dieses Vorgehen ist nicht tauglich als Benchmark für Grafikkarten. Wer damit nicht einverstanden ist, berechne bitte das Potential seiner Grafikkarte mit den üblichen theoretischen Benchmarks. Nur dass diese Benchmark-Onanie (!) zu nichts führt außer einem höheren Anzeigewert auf der Stromuhr, das Gleiche gilt für CPU-Benchmarks, die keine neuen Erkenntnisse liefern, sondern ähnliche Rechnerzusammenstellungen in Internet-Foren bestätigen und bei Übertaktung vielleicht übertreffen. Toll.

Der Wissenschaft, ob folding oder andere Ansätze, ist es (sch...)egal, mit welcher Hardware die Probleme gelöst werden, es geht um Problemlösungen für Krankheiten. An denen wir oder unsere Verwandten erkranken können oder erkrankt sind. Warum man da Punkte vergeben muss, wenn das alles so gut/positiv/nützlich ist ? :lol: Vielleicht nützt es zuweilen, über den eigenen Horizont - nur für ein paar Sekunden - hinauszuschauen. Und über die Motivlagen unserer Zeit nachzudenken.

Niemand zwingt dich, redfirediablo, am Fortschritt für die Menschheit mitzuwirken. Es ist kein Fehler, Gegenleistung für Mittel- und Geldeinsatz zu fordern. Aber eine gute Sache schlechtreden, ohne die Hintergründe zu kennen, halte ich für unbedarft.

P.S. Ich crunche mit ATI- wie nVidia-Karten und ja, die Punkte sind ein Anreiz zum Weitermachen. Neben dem hier und dem Phänomen "Community". War das nicht der Grund, warum sich hier im Forum Leute anmelden ?
 
Dein pseudo Moral Vorwurf ich würde eine "gute Sache" schlechtreden kannst du dir klemmen. Deine Überheblichkeit auch.

doesntmatter schrieb:
Vielleicht nützt es zuweilen, über den eigenen Horizont - nur für ein paar Sekunden - hinauszuschauen. Und über die Motivlagen unserer Zeit nachzudenken.

Ich sage nix gegen f@h an sich und kenne sehr wohl die Hintergründe.

Ich kritisiere aber die Punktevergabe weil es immer wieder Leute gibt, die nicht verstehen das PPD /= Rechenleistung ist. Wenn du mal meinen Post ordentlich gelesen hättest, wäre das dir sicherlich aufgefallen. Macht aber dir scheinbar Spaß einen auf moralisch überhöhten Gutmenschen zu machen? Muss ja nochmal untergebracht werden, was für ein toller Mensch du bist, weil du am Fortschritt der Menschheit mitwirkst! Ich lach mich schlapp.

Es ist sehr wohl willkürlich wenn ich sage

CPU XYZ bekommt 2000PPD.

NVidia Karte GTX280 bekommt 7000 PPD.

ATI Karte 4870 bekommt 3000PPD

Obwohl alle 3 unterschiedliche Dinge berechnen. Die GPUs werden gegenüber den CPUs benachteiligt, da die zur Verfügung gestellte Rechenleistung deutlich höher ist und die ATI Karte wiederum gegenüber der Nvidia Karte.

Warum das ganze? Damit alle mit CPUs fröhlich weiterrechnen und wegen geringen PPD nicht aufhören, Kleinvieh macht halt auch Mist und bei ATI vs. NV kann man nur spekulieren wer da die willkürlichen Finger drin hatte den NV Karten mehr PPD zuzuschustern.

Desweiteren kann man bei f@h sehr wohl auch eine kritische Diskussion führen, ob diese "brute force" Variante die richtige Lösung ist. Man sollte nicht vergessen das solche Systeme permanent Vollast laufen, gerne auch übertaktet und das ganze massiv Energie kostet. Hallo Klimawandel sag ich da nur.
 
Zuletzt bearbeitet:
Ich bin entzückt von der allgemeinen "Begeisterung" mit der diese AMD/nV Diskussion geführt wird. Hier geht es aber um OpenCL und das hat mit AMD und nV nur in sofern etwas zu tun das beide in der OpenCL Working Group sind ;)
Zudem versteh ich die Gepflogenheiten in diesem Forum nicht ganz. Hier scheint einigen der Wert des Recht haben über dem Wert der gepflegten Diskussion zu stehen. Diskussion heißt nicht wild aufeinander Los zu gehen sondern austausch von Information. Ohne Diskussionskultur hat eure Information keinen Wert, da die Vermittlung aufgrund eurer Aggressivität den Diskussionspartner nicht erreichen kann. Wenn ihr also wirklich an einem Forum interessiert seid, solltet ihr euch um eine gute Diskussionskultur mehr mühen als um Selbstdarstellung.
 
@redfirediablo:
Na und, Rechenleistung ist nicht alles.
Hast du schon mal auf der GPU programmiert?
Ich schon und ich hab es geschafft ein Programm zu schreiben, was auf der GPU langsamer lief als auf der CPU.
Wenn du willst, schreib ich dir das Programm noch mal und schick es dir zu. Vorrausgesetzt, du hast eine ATI)

Ich will damit nur sagen, dass die CPUs für Folding@Home bei gleicher Anzahl genausoviel Sinn haben wie GPUs, da bestimmte Sachen halt einfach nur auf der CPU laufen.
Hast du dir schon mal die Moleküle angeschaut?
Da sind die GPU-Dinger so um die 1000 Atome und der SMP-CPU-Client hat dann an die 100.000 Atome. Na ja, da würde jede GTX280 wahrscheinlich abstürzen.

@topic:
OpenCL halt ich für sehr wichtig, wenn es gescheit umgesetzt wird.
Das Herstellergefrickel hat nie viel gebracht. Siehe 3DFX. Deren Engine ist untergegangen.
Ich glaube sogar, dass OpenCL sich mehr durchsetzen wird als die ComputeShader von DX11.

@irgendwo weiter oben:
Wo steht, dass die ATI Shader nicht IEEE-Konform mit 64bit-Gleitkommazahlen umgehen können?
 
Zuletzt bearbeitet:
Blitzmerker schrieb:
@irgendwo weiter oben:
Wo steht, dass die ATI Shader nicht IEEE-Konform mit 64bit-Gleitkommazahlen umgehen können?

Können sie seit RV7xx, aber die theoretische Leistung geht in die Knie:

In terms of hardware support, there have also been a few notable changes too. Double precision is probably the biggest and it has been expanded from the Radeon HD 3800 series and is now fully exposed and complies with IEEE 754 precision requirements. Workloads requiring double precision are handled using all five stream processors in a shader processing unit with the four 'thin' units handle a significant portion of the process, while the 'fat' unit handles the accumulation process. What's more, each SIMD core must either be in single or double precision mode at any given time. We asked about switching between single and double precision tasks and were told that reordering is possible, but it comes with some quite serious performance penalties.
http://www.bit-tech.net/hardware/graphics/2008/09/02/ati-radeon-4850-4870-architecture-review/7
 
fox40phil schrieb:
gefällt mir! ^^ sieht aus wie paint mit Effekten :D

Jo, jetzt fehlt bloß noch Druckerpapier, dass eine bewegte Darstellung ermöglicht... :D
 
Na ja, halb so schlimm, statt 1,2 TFLOPS nur noch 240 GFLOPS.
Das ist immer noch schneller als eine CPU.
Allerdings frag ich mich immer, wo man mit DP rechnen MUSS.
Selbst bei Folding @ Home sollte das kein Problem darstellen, da ja nur irgendwelche Abstände und Ladungen berechnet werden, die jedes Frame neu berechnet werden, also sich Rundungsfehler nicht aufsummieren.
 
Bayushi schrieb:
Zudem versteh ich die Gepflogenheiten in diesem Forum nicht ganz. Hier scheint einigen der Wert des Recht haben über dem Wert der gepflegten Diskussion zu stehen. Diskussion heißt nicht wild aufeinander Los zu gehen sondern austausch von Information. Ohne Diskussionskultur hat eure Information keinen Wert, da die Vermittlung aufgrund eurer Aggressivität den Diskussionspartner nicht erreichen kann.

Ich hoffe doch genau die notwendigen Hinterinformationen als Basis geliefert zu haben, es ging um die Punkte-Vergabe. Gleichzeitig sehe ich keine Agggression in meinem Posting, jeder mag solche Projekte unterstützen oder nicht. Ob jemand bei UNICEF oder sonst wo spendet, seine Kirchensteuer zahlt, alten Menschen über die Straße hilft ... ist es unmoralisch, diese Möglichkeiten aufzuzeigen ?

Das war der Zusammenhang:
doesntmatter schrieb:
Warum man da Punkte vergeben muss, wenn das alles so gut/positiv/nützlich ist ? :lol: Vielleicht nützt es zuweilen, über den eigenen Horizont - nur für ein paar Sekunden - hinauszuschauen. Und über die Motivlagen unserer Zeit nachzudenken.

Um die Notwendigkeit, eine Punkte-Bewertung für getane Rechenarbeit überhaupt zu gewähren, ging es mir, die Motiv und Gründe. Dazu muss man zuweilen seinen eigenen Horizont überschreiten, auch ich. Was ist daran überheblich ? Also bitte, wenn zitieren, dann im Zusammenhang.

redfirediablo schrieb:
Macht aber dir scheinbar Spaß einen auf moralisch überhöhten Gutmenschen zu machen?

Nein. Das Rechnen an wissenschaftlichen Projekten kann in richtige Arbeit ausarten, Alpha- und Beta-Projekte erfordern reichlich Toleranz und Opfer für sinnlos verschwendete Rechenzeit. Dir hingegen es nur um die Punkte, richtig ? Von der Sinnhaftigkeit des Projekts habe ich jedenfalls nichts gelesen, ich habe den Eindruck, du zweifelst den Sinn des Projekts an, weil dir die Punkte nicht zusagen.

redfirediablo schrieb:
Es ist sehr wohl willkürlich wenn ich sage

CPU XYZ bekommt 2000PPD.

NVidia Karte GTX280 bekommt 7000 PPD.

ATI Karte 4870 bekommt 3000PPD

Obwohl alle 3 unterschiedliche Dinge berechnen.

Weil alle drei Recheneinheiten unterschiedliche Dinge (Workunits) auf unterschiedliche Weise (CAL bzw. CUDA) berechen. Die Antwort auf die Frage steht ansatzweise in o.g. Punkte-FAQ oder ist nachzulesen bei Herrn Pande selbst (Quelle o.g.):

  • "Please read my previous comments about PPD -- it has to do with the fact that the NV core does proportionately better on smaller WU's than ATI. The PPD was unnaturally high for NV for small WUs. This has been discussed in great detail in other threads. The PPD loss is mainly due to the change in project, not the change in core. The key science update has to do with computing with better precision, i.e. more accurate numerics to keep the results meaningful. (...)
    The ATI and NV cores do the same WU's and are benchmarked in a consistent way because of this. Shouldn't the same work have WU's benchmarked in the same way, or do you think ATI deserves more or less points for the same WU?"

Du greifst hier willkürlich Hausnummern heraus, extrem schlechte und extrem gute Werte, um deine Argumentation zu stützen. Wenn schon dann statistische Durchschnittswerte bitte, die die historisch gewachsenen Core-Entwicklungen für CPU und GPU (wo bleibt die PS3 ?) berücksichtigen. Im folding-Forum hat legoman666 eine solche Statistik erfaßt, die dennoch nicht objektiven Status erreicht (weil zu geringe Datenbasis, keine Eliminierung übertakter GPUs usw.):
http://foldingforum.org/viewtopic.php?f=52&t=3193&start=795#p78197 (Update)
http://spreadsheets.google.com/ccc?key=pyYe8-QPIbGkCmxdtJHGcSA (ein Abzug als google-Tabelle)

redfirediablo schrieb:
Die GPUs werden gegenüber den CPUs benachteiligt, da die zur Verfügung gestellte Rechenleistung deutlich höher ist und die ATI Karte wiederum gegenüber der Nvidia Karte.

Warum das ganze? Damit alle mit CPUs fröhlich weiterrechnen und wegen geringen PPD nicht aufhören, Kleinvieh macht halt auch Mist und bei ATI vs. NV kann man nur spekulieren wer da die willkürlichen Finger drin hatte den NV Karten mehr PPD zuzuschustern.

Blitzmerker hat das bereits angedeutet, Details zum häufig bei CPU-Clients gerechnten GROMACS findet sich unten, der SMP-Client (=CPU-Client zur besseren Ausnutzung von Mehrkern-CPUs) basiert vornehmlich auf GROMACS:
http://folding.stanford.edu/English/FAQ-gromacs
http://folding.stanford.edu/English/FAQ-SMP

In der Tat braucht das Projekt nicht nur GPUs, sondern ganz bewußt CPUs mit deren Möglichkeiten (siehe Aussichten). Nicht aus Jux oder Tollerei, sondern aus wissenschaftlicher Notwendigkeit. Was ist daran nun wieder zu bemängeln ? :freak: Wenn dir die Erfahrung der Pande Group als Autorität nicht ausreicht, entwickle selbst eine entsprechende Software und mach´es besser. Kein Witz, einen Anfang machen kann man hier:
http://www.pymol.org/

redfirediablo schrieb:
Desweiteren kann man bei f@h sehr wohl auch eine kritische Diskussion führen, ob diese "brute force" Variante die richtige Lösung ist. Man sollte nicht vergessen das solche Systeme permanent Vollast laufen, gerne auch übertaktet und das ganze massiv Energie kostet. Hallo Klimawandel sag ich da nur.

Selbstverständlich, die Punkte-Diskussion geht seit Start des Projektes, sie wird von den Projektbetreibern nicht unterdrückt, oben habe ich ja ein Beispiel für eine konstruktive Diskusson genannt. Das Klimaargument zieht ebenso gut wie die Diskussion um Spiele-Rechner, stimme ich zu. Wer seinen Strom nicht aus regenerativen Erzeugung bezieht, trägt immer sein Scherflein zur Verschärfung bei, ob mit der Kaffeemaschine, einem Spiele- oder eben einem folding-Rechner. Die persönliche Gesamtbilanz zählt, ob über CO2 ermittelt oder anders, jeder wie er mag. Stromerzeugung gehört noch zu den besten Bereichen, ohne Klimaschädigung auszukommen.
 
Du hast mir einen beschränkten Horizont attestiert. Ist das für dich nicht aggressiv?

Abgesehen davon hast du die Diskussion sehr effektiv vom eigentlichem Thema weg gezogen, schon aufgefallen?

Nur weil ich sage das man anhand der PPD von f@h nicht über die OpenCL Fähigkeiten von aktuellen ATI und NV karten urteilen kann, musst du nicht gleich eine große f@h Diskussion aufmachen und philosphieren ob ich damit was über den Sinn von f@h ausgesagt haben könnte.
 
smith0815 schrieb:
Ich antworte mir mal selbst in Form einer Frage. Kann es sein, dass die GPGPU-Leistung der HD4000-Serie alles andere als beeindruckend ist?

Nvidia hat bei GT200 ja jede Menge Entwicklungszeit und zusätzliche Transistoren in GPGPU-Fähigkeiten investiert, gut möglich dass AMD hier wird nachlegen müssen.
Da bist du auf dem vollkommen falschen Dampfer. Es kann eigentlich nur zwei Gründe geben, warum man diese Demo auf der CPU laufen lies. Entweder Marketing für den Phenom2 oder AMD hat die GPU Implementierung der OpenCL Bibliothek schlichtweg noch nicht fertig. Denkbar wäre auch noch, dass man nVidia Vergleiche ausschliessen möchte. Diese Unterstellung lasse ich aber mal aussen vor. Die GPGPU Fähigkeiten des RV770 sind jedenfalls absolut top. Bisher mangelt es einfach noch an entsprechender Softwareunterstützung.

Igi90 schrieb:
So hier noch die links:
https://www.computerbase.de/forum/t...ten-muessen-runter.544476/page-4#post-5556081
https://www.computerbase.de/forum/t...ten-muessen-runter.544476/page-4#post-5556087
https://www.computerbase.de/forum/t...ten-muessen-runter.544476/page-4#post-5556127

Auch ein Beitrag von Kasmopaya ist dabei ;)

Ich sage nicht das die 4000er Reihe von ATi schlecht wäre, doch sie haben irgendwie Quantität mit schlechter Qualität hingebracht --> Hitze, nicht funktionierendes Powerplay...
Wie hier schon mehrfach erwähnt wurde, das hat mit dem Chip selbst nichts zu tun. Der ist vollkommen iO. Und dass Powerplay nicht funktioniert, stimmt so auch nicht. AFAIK gibt es da vor allem bei der 48xx Serie Probleme. Bei der 4670 scheint Powerplay zB einwandfrei zu funktionieren.

smith0815 schrieb:
Stichworte sind:
- Double Precision (brand new FP64 support)
Das ist aber nichts, was man nVidia anrechnen kann. ATI unterstützt DP FP schon seit dem RV670 (oder gar schon R600?). Hinzu kommt, nVidia musste beim G200 mehr Aufwand betreiben, weil sie eben gegenüber ATI hier deutlich im Nachteil waren und die Architektur selbst nicht gerade optimal für GPGPU ist. Dafür fehlt es einfach an Rechenwerken.
 
Die letzte Änderung an der der OpenCL-Spezifikation war vor ner Woche:
http://www.khronos.org/registry/cl/
Da kann man nicht erwarten, dass die Umsetzung seitens Nvidia/ATi schon fertig ist.

Bin mal gespannt, wie gut sich ATI mit OpenCL schlägt(Rohleistung wär ja da) - und ob auch alle Features unterstützt werden, die Nvidia anbietet.
In CUDA gibt's z.B. "atomic_add", in OpenCL werden sie das optionale "atom_add" sicher auch unterstützen. Kann das der aktuelle ATI-Chip hardwareseitig?
 
Zurück
Oben