News ATi FireStream für GPGPU?

Es wird immer Krasser, irgednwann bestheen die Pc's alle aus 50% Grakas
wer braucht soviel Leistung? Enthusiasten
Trotzdem isses intressant die sich alles einfallen lassen damit mehr Power im PC steckt.

@17
Da haste wohl recht, wird wohl auch noch ne zeit lan so bleiben. ATI hat da einfach die besseren karten mit ihrem Crossfire
 
@voyager10
ist es auch :) informationen zu dem thema findet man als erstes immer bei www.gpgpu.org (wie schon green mamba gesagt hat) und ansonsten einfach nach gpgpu googeln.
meist ist halt so eine diplomarbeit über 130 seiten lang, das ist etwas fies, aber die ersten 40 seiten schreibt fast jeder das gleiche einführungsgebrabbel. das kann man 2 mal lesen und dann überfliegt mans nur noch.
spannend wirds wenns um die implementierung geht. da gibts die verschiedensten ansätze und jeder arbeitet andere details genauer aus. deshalb bekommt man erst nach 2-3 diplomarbeiten einen gewissen überblick :)
 
früher brauchte man nur einen prozessor, dann zusätzlich einen co-prozessor, grakas ließen auch nicht lange auf sich warten.

bald brauchen wir noch eine physx-karte, und in absehbarer zeit vielleicht auch noch dieses gpgpu zeugls.
naja mal abwarten ob es sich durchsetzt.
 
Cool wäre es schon, wenn das Programm/Spiel Teile seiner Berechnungen (sagen wir mal Kollisionsabfragen) an die Graka schicken kann, weil diese es effizienter bearbeiten kann.
Eine Graka war schon immer ein Hilfsprozessor und hat der CPU die Berechung der Bilder abgenommen. Jetzt könnten dann noch andere Berechungen zur Graka geschoben werden.

Das hebt die Gesamtperformance des System. Aufgaben macht immer der, der sie am besten lösen kann.
 
Sorry, aber was ist der Sinn dieser "News" ?
Ich les hier nur was von Gerüchten und Vermutungen und sehe hier Null Informationsgehalt.
 
@26

Ich weiss nicht was du willst? Die News hat ausgereicht um eine Diskussion zu provozieren wobei einige wirklich etwas interessantes hervorbrachten oder, dazu angeregt haben sich weitere Infos zu besorgen -> dualcore_nooby!

Gruss Projektil
 
An alle, die fragen "Wozu braucht man das?"

Der Sinn solcher Computertechnik besteht nicht ausschließlich darin, Heimrechner für Spiele schneller zu machen, sondern VR im Generellen leistungsfähiger und realistischer zu gestalten.
 
"Wozu braucht man das?"
Das war ja nicht die Frage.
"Warum gibts ne News ohne jeglichen Newsinhalt, sondern nur als Sammlung von Gerüchten und Vermutungen ?" - Das ist die Frage.
 
ich habe eine Radeon X1300 mit 512 MB Videospeicher. Bin kein Zocker. Aber ATI hat im Treiber eine Funktion bereits eingebaut, die soetwas wenn nicht sogar das gleiche schon nutzt. Angeblich soll die GPU bei der Berechnung von Videos mit ATIs Videoconverter (Avivo Video Codec?) mit eingebunden werden und so den Hauptprozessor bis zu 50 Prozent (geschätzt) entlasten. ich nutze dieses tool ab und an mal, um videos für die psp umzuwandeln. da ich ohnehin auch gern videobearbeitung mache, finde ich das thema nach wie vor interessant.
 
UNGLAUBLICH!

Wenn man jetzt noch bedenkt, dass AMD ATI gekauft hat, spekuliere ich darauf, dass in Zukunft sich der AMD Prozessor im CnQ modus komplett abschaltet und die einfachen Aufgaben gänzlich und allein von der GPU übernommen werden. Irgendwann werden wohl dann CPU's überflüssig.
 
Hört sich für die Forscher sehr viel versprechend an.
Wenn es ums Entwickeln von neuen Technologien geht bin ich sehr Optimistisch.
Wir werden sowas mit sicherheit nicht benutzen, aber wenn die Zukunft einen Nutzen von der Sache hat ist es doch gut.
 
@medienfux:
also das mit der avivo technologie ist so: das Decoding findet fast vollständig auf der Grafikkarte statt. Das Transcoding und Encoding von Videomaterial findet (momentan noch) weitgehend auf der CPU statt, wobei schon erste Teilberechnungen auf der GPU laufen. Avivo Encoding ist also momentan eine CPU entlastende Encoding-Lösung für verschiedene Formate (zählt aber durchaus zu GPGPU). Die Geschwindigkeit ist deutlich höher als bei rein CPU basierten Lösungen (eine X1300 ist bis zu 5 mal so schnell wie ein FX 57 mit 2,8Ghz http://www.chip.de/artikel/c1_artikel_17625421.html). Wichtig zu wissen ist, dass Avivo öfters heimlich still und leise mit neuen Treiberversionen aktualisiert wird und es dadurch den ein oder anderen kleinen Geschwindigkeitssprung durchaus geben kann.
Mit einer x1300 mit 512 MB hast du dazu wirklich ein gutes Modell. Denn für GPGPU zählt VRAM mindestens so viel wie die GPU selbst. Wer viel Video-Encoding macht, kann Avivo XCode durchaus in Betracht ziehen. 100 Euro in eine teurere Graka sind da besser angelegt als 100 Euro mehr in eine CPU zu investieren.
 
Zuletzt bearbeitet:
Imho wird die GPU die CPU nicht überflüssig machen, denn AFAIK sind die CPUs eher Integer-optimiert und die Grafikkarten Float-optimiert.

Korrigiert mich, falls ich da arg falsch liege.

Die Grafikkarte ist in meinen Augen heute schon ein System im System: Prozessor + Speicher + Bus = Grafikkarte.
 
also die idee bei der sache ind ich persönlich nicht schlecht aber andererseits frag ich mich ob man bald einen neuen mainboard standart braucht. das was sich in letzter zeit entwickelt finde ich schon ziemlich wahnsinnig. wie soll das board von morgen aussehen ein sli/crossfire verbund eine physix karte dann noch eine gpgpu karte das dann warscheinlich alles noch mit dualslotlüftern. und wohin dann mit soundkarten/tv-karten/wlan-karten etc. ?????
 
Wenns so weiter geht brauchen wir wirklich bald alle wieder bigtower weil der platz nicht mehr reicht. Also wirklich, quad sli, demnächst 6xsli/cf, quadcore, physikkarte, soundprozessor mit eigenem speicher...
Ich mag mich ja irren, aber früher ging der trend in richtung integration mehrerer komponenten in eine, nun lagert man wieder alles was irgendwie geht aus. Irgendwie extrem widersprüchlich das ganze.
 
gpus können cpus garnicht überflüssig machen. das wurde doch hier schon oft genug angeschnitten. für die cpu hersteller gibt es da auch nicht viel abzugucken, die wissen das schon selber. der unterschied ist die grundlegend andere architektur. gpus sind dafür gebaut viele gleiche kleine unabhängige aufgaben gleichzeitig abzuarbeiten. damit eigenen sie sich für einige dinge extrem gut, für andere dinge aber überhaupt nicht. ausserdem sind sie schwer zu programmieren. um das volle potenzial aus einem solchen prozessor zu bekommen müssen alle schritte der pipeline gleich schnell laufen. braucht ein schritt länger als der rest müssen alle anderen schritte solange warten. eine gpu also mit praktisch daten wirklich zu 100% auszulasten ist praktisch unmöglich.


das sind also gleich einige große nachteile der gpgpu. für die meisten aufgaben ist sie garnicht geeignet. und für das was sie geeignet ist muss sehr spezieller code geschrieben werden um optimale leistung zu erzielen. das sprachen die glsl oder hlsl C sehr ähnlich sind bringt einem da auch nicht viel. die algorithmen die auf einer solchen architektur wirklich leistung bringen sehen ganz anders aus als das was man auf einer normalen cpu laufen lässt.

die entwicklungszeit für solchen code ist also deutlich höher. solange es also keine compiler gibt die sowas automatisch hinbekommen, und da sind wir noch ziemlich weit entfernt, auch wenn es schon einiges in diese richtung passiert ist (z.b. openmp), wird das nur etwas für sehr spezielle anwendungen sein. bevor soetwas wirklich auf den markt kommen kann müssen sich also erstmal normale multi cpu systeme durchsetzen, damit die entwickler zeit haben paralleles arbeiten in ihren kopf zu kriegen. mit einem sprung direkt von 0 auf 100 wird das so nicht funktionieren ;).
 
@ 31) Janeo

Ich glaub nicht, dass das geht. Mobos brauchen die Cpu um irgendetwas machen zu können. Aber es wäre möglich nur noch mit 1x Multiplikator zu fahren.
 
Siberian..Husky hat vollkommen recht.
GPGPU kann man nur in bestimmten fällen einsetzen. Eine Textverarbeitung auf der Grafikkarte zB macht keinen Sinn.
Das zu berechnende Problem muss nach dem "Single Instruction Multiple Data" kurz SIMD prinzip aufgebaut sein.
dh man muss ein und denselben befehl auf sehr viele daten gleichzeitig anwenden können, damit es sinn macht.
ich habe oben schon sinnvolle beispiele gebracht. Künstliche Intelligenz wäre auch so ein Fall.
Siberian..Husky hat auch recht, dass die Programmierer bisher in solchen dingen recht unerfahren sind, egal ob es multicore auf dem desktop betrifft oder eben spezielle Grafikkartenprogrammierung. Man steht hier eben noch mitten in der Forschung.
Firmen die officeähnliche büroprodukte machen, die schon jetzt nicht sehr cpulastig sind, werden ihre programmierer nie in diesem bereich schulen, weils unsinnig wäre. aber so firmen wie adobe, die diese technik sowohl bei adobe premiere, als auch bei adobe photoshop sehr gut benötigen können, werden alles daran setzen, hier auf höhe der zeit zu sein.
 
Zurück
Oben