News nVidia veröffentlicht Software für GPGPU

Diese Rechenleistungsvergleiche in GFLOPS finde ich immer wieder amüsant... sind aber leider meist realitätsfern.
 
Trotzdem rechnet man bei den Problemen, in denen CUDA angewendet werden soll, schneller als mit CPU.
 
Schaut doch mal bitte über den tellerrand hinaus...

wie soll man denn cuda für berechnungen in spielen ausnutzen, wenn eh schon immer alle über die grafikkarten jammern...es heißt ja nicht, dass zusätzliche ressourcen frei werden, sie werden eben nur umverteilt.
interessant ist das ganze in meinen augen vor allem für mittelständische und start up unternehmen, die durchaus eine sehr gute it infrastruktur besitzen, jedoch nicht zugang zu großen rechnerclustern haben.

ein anwendungsgebiet sind vor allem sämtliche simulationen. sei es strömungsberechnung (CFD) oder selbst die reinste FEM. wenn man selbst mit doppelprozessoren schon 3 tage an einer einfachen austrittsströmung einer gardenabrause rechnet, freut man sich über jeden geschwindigkeitszuwachs.

man sollte vielleicht mal davon absehen, dass nicht alles, was auf cb gepostet wird für den zocker gedacht ist, bzw die firmen dafür entwickeln...DAS GELD WIRD WO ANDERS GEMACHT ALS BEI DER SPIELEINDUSTRIE
 
Bin mal gespannt, ob nVidia die Tesla-Reihe nicht vielleicht auch für ihr onBoard-Grafik-Stromsparprojekt missbrauchen - 3D gerendert wird per G80, Bildausgabe erfolgt dann über die onBoardgrafik und im 2D-Modus erledigt die onBoard-Grafik beide aufgaben (rendern, ausgeben) und die Tesla-GPU wird deaktiviert.
 
Dir wird vielleicht aufgefallen sein, das die Tesla-Karten garkeinen Anschluss für ein Display bieten und so als reine Rechenknechte angeboten werden. Die gleiche Karte aber mit Ausgang kostet als Quadro gleich mal das Doppelte. Ist aber auch egal, weil man mit CUDA eh alle nVidia-Karten verwenden kann.
 
Quickmick07 schrieb:
DAS GELD WIRD WO ANDERS GEMACHT ALS BEI DER SPIELEINDUSTRIE
lol wem willst du das ins Gesicht sagen? Blizzard? Sunflowers? Logitech? Electronic Arts?!?

Manchmal habe ich eher das Gefühl das Mittelständische Unternehmen mittlerweile der Ort sind, wo das Geld NICHT gemacht wird.

Finde Kn1bbl hat Recht, sich jetzt über komplex zu streiten hat wohl wenig Sinn! Auch Assembler ist prinzipiell nur eine Programmiersprache und somit auch schon wieder in gewisser Hinsicht komplex. Denn nur 0 und 1 ist die unterste Ebene, nicht aber Assembler!

Darum hätte in gewissem Umfang sogar der Recht, der sagt, Assembler ist komplex. Denn wo der Assembler Programmierer nur "add" schreibt, müsste man in Maschinensprache schon "00000101" schreiben, also ist letzteres wohl ungleich komplexer.

Da lacht ihr vielleicht und sagt, C ist komplex, denn es ist viel komplexer als Assembler. Naja da kann ich nur sagen, es gibt sicherlich etliche Programmiersprachen die genauso komplexer sind zu C, wie C zu Assembler, unter Umständen ein 100 faches komplexer.
 
Zuletzt bearbeitet:
Also erst Mal locker bleiben...

Zum zocken bringt das hier null komma garnichts. Oder habt Ihr vor die Grafikberechnung z.B. gegen eine bessere Physikberechnung zu tauschen?? ->Bis auf weiteres nix für Spiele...

Findige Programmierer mögen in der Lage sein gewisse Plugins oder ähnliches für Anwendungen zu stricken. Hauptsächlich ist das ganze aber für Anwendungsentwickler (Software Developer; wunderlich, dass das ganze auch software development kit heit, nich wahr). Für die ist es nämlich eine enorme Erleichterung, wenn sie eine Sprache wie C verwenden können, die sowieso sehr viel Verwendung findet.

Ist natürlich vor Allem für wissenschaftliche und medizinische Zwecke interessant. Macht nämlich einen Unterschied ob man einen Server für 15k oder 1,5k euro kaufen muss.

Aber auch z.B. Rendering Software wird davon (hoffentlich) bald Gebrauch machen. Zur Zeit schläft die Grafikkarte nämlich während des Renderprozesses, abgesehen von wenigen Ausnahmen (Maya).

Im Prinzip kann man das in allen Bereichen einsetzen, in denen sich Rechenarbeiten möglichst gut parallisieren lassen. Dann kann man auch relativ nahe an die "theoretischen" GFlop Werte rankommen.
 
@ 46)

ich glaube du hast mich da auch falsch verstanden. Der Mittelstand macht auch nicht das geld, nutzt aber die arten von it, die geld bringen. für den normalbürger sind die umsätze von ea und anderen ein riesen haufen geld, jedoch im vergleich zu den zahlen von sap, oracle, cisco usw nicht umwerfend.

mir ging es vorrangig darum, mal die leute mal zum nachdenken zu bringen. nicht alles in der it dreht sich uns zocken...sondern nur ein kleiner teil, und nur weil ein grafikkartenhersteller...der nicht nur den spielmarkt bedient...etwas auf den markt wirft, heißt das nicht, dass hier nur von der anwendung in diesem kleinen bereich ausgegangen werden sollte.
 
Hmm, für viele physikalische bzw. mathematische Sachen ist das ganze leider noch viel zu ungenau. Die Grafikkarten können ja nur mit einfacher Genauigkeit rechnen. Aber wo das ausreicht und sich das Problem massiv parallelisieren lässt, da bekommt man wahrscheinlich für verhältnismäßig wenig Geld sehr viel Rechenleistung.

Und nochmal zu Klarstellung: Assembler ist keine Maschinensprache (zumindest nicht auf x86 cpus). Maschinensprache ist die Sprache, die der Prozessor direkt ausführen kann. Assembler ist nur sehr hardwarenah und daher sehr schnell, wenn es richtig gemacht wird.
 
Wo sowas auch noch sinn machen könnte, wäre Adobe Premiere also Videoschnittprogramme, die brutalst CPU killen.

Wenn die Graka dann als Simulatane Multiprozessoren eingesetzt werden kann und das dieses Rendering beschleunigt wird, wäre ich super glücklich, weil momentan mit meinem P4 3 GHz machts trotz 3 GB ram kein spass mehr HD Videos in Premiere Pro zu basteln :(

Wenn meine GF 7800 GS mithelfen könnte, wäre das schon genial.

Bin mal gespannt wie die Firmen nun auf dieses SDK antworten.

Ich glaub ich zieh mir mal das SDK und versuch damit mal rumzubasteln =)
 
Zuletzt bearbeitet:
Einige scheinen wohl auch nicht zu wissen, dass eine GPU nicht unbedingt in allen Berechnungen schneller ist als ein CPU. Wäre es so, dann bräuchten wir doch keine CPUs mehr.:rolleyes:
Beide haben ihre Vor- und Nachteile. Man muss nur beachten wofür ein jeweiliger Chip gedacht ist.
Eine GPU führt spezielle Aufgaben wesentlich schneller aus als eine CPU. Dafür bietet die CPU die Rechenleistung für viele verschiedene Aufgaben und teilweise bietet sie Rechenleistung für überhaupt irgendwelche Aufgaben.
Die Architektur einer GPU ist nunmal nur für bestimmte Aufgabe geeignet.

Und was die GFLOPS Leistung betrifft scheinen wohl einige nicht zu beachten, dass die 400 irgendwas GFLOPS oder 500 von sehr vielen Prozessoren stammen. Bei nVidia 128 Shader Prozessoren, wenn ich mich nicht irre.
Und was hat eine CPU heutzutage????
Genau 2 und maximal 4! Liegt da jetzt irgendwo ein relevanter Vergleich???? ....Ja, hoch rechnen....toll!
 
damn jetzt wollte ich grade das plugin für matlab installieren und muss sehn, dass cuda momentan nur für xp32 zur verfügung steht.
 
5455 schrieb:
Irre ich mich oder verwendet Photoshop CS3 nicht auf die GPU?

Jo, selbst für Premiere gibts Effect Plugins die mit der GPU arbeiten, allerdings nur für ne handvoll sachen.
Mein lieblingseffekt "Kanal-Weichzeichnet" läuft z.b. leider nur mit CPU :(

Das hat aber nix mit dem Thema hier zu tun, da hier nur die Pixelshader der karte verwendet werden zur Bildmanipulation. Hier geht es ja darum, das komplette reservoir der Karte auszuschöpfen.
 
Zurück
Oben