News GDDR4 geht in Massenproduktion

ich liebe es, solche kommentare im nachhinnein allde durchlesen, weil nie jemand jemand anderen recht geben will und jeder glaubt, das er es selber besser wise :P
 
Das ist deshalb so, weil sie auf vergleichsweise wenige Befehle (Funktionen) jeweils spezialisiert sind. Und mehr können die nicht, aber das was sie können, dafür eben ungemein schnell.

Zukünftig werden sich zwar mehr und mehr Aufgaben auf die Shader verlagern lassen, aber es ist kein Vergleich zu ner CPU die Prinzipiell erst einmal "alles" Berechnen kann/könnte.

Beispielsweise die Möglichkeit Video auf der GPU Encoden zu lassen währe so etwas, aber es wird bei weitem nicht so schnell sein wie man nun Denken täte, zu dem die Qualitativen Möglichkeiten einer CPU (diesbezüglich), noch nicht zu erreichen sind.

Eine CPU hat auch ihre spezialisierten Helferchen die in ihren Bereich dann ungemein schnell, Beispielsweise sei das SSE genannt. Nur eben ist es so, dass Beispielsweise Video Encoden nicht ne reine Sache für SSE, dazu sind die Bereiche innerhalb einer CPU auch zu klein ausgelegt. Dessen Berechnungstechnisch aber dennoch ungemein Hilfreich (beschleunigend), für solche Aufgaben, mit dem Hauptaugenmerk auch auf Berechnungstechnischer Qualität und anbei akzeptabler Geschwindigkeit. ;)
 
TeraFLOPs ist wohl etwas übertrieben, sollten eher GigaFLOPs sein. ;)

mfg Simon
 
@L.ED
Momentan befindet sich eine GPU encoding Software bei ATI im Endstadium der Entwicklung namens "ATI Avivo Xcode". In einem ersten Preview war diese "Lösung" 5 mal schneller als die schnellste CPU Lösung! Ahh ... wie ich gerade sehe gibt es schon eine Version zum downloaden bei chip.de.
 
Simon schrieb:
TeraFLOPs ist wohl etwas übertrieben, sollten eher GigaFLOPs sein. ;)

ich kann mich noch erinnern wie auf meiner ersten 3D-Graka (Voodoo Banshee) ne Leistungsangabe von 114 GFLOPS stand ^^

Freilich, die Angaben sind geschöhnt und unnütz, da sie wohl nur den Idealfall darstellen - aber diese Angaben sind immerhin auch schon wieder über 8 Jahre alt ^^
 
gizeh schrieb:
@L.ED
Momentan befindet sich eine GPU encoding Software bei ATI im Endstadium der Entwicklung namens "ATI Avivo Xcode". In einem ersten Preview war diese "Lösung" 5 mal schneller als die schnellste CPU Lösung! Ahh ... wie ich gerade sehe gibt es schon eine Version zum downloaden bei chip.de.
mh, xcode war 5x schneller als die schnellste cpu... auf der schnellsten cpu o_O
denn hand aufs herz: einen vernünftigen rückkanal für die mengen an videodaten gibt es derzeit nicht. die schnelligkeit von xcode basiert allein auf "optimierungen" beim encodingprozess.
man fragt sich allerdings, wozu man h264 encoden soll, wenn hinterher grade mal die qualität von mpeg2 erreicht wird...
 
Die Angabe mit Teraflops bei den Grakas stimmt schon
 
WolleXPD schrieb:
hi

und wieder ein weiterer grund jetzt keine nv7xxx o. ati1xxx mehr zu kaufen.
ich freu mich wie nen kleinkind über nen lolli auf die neuen karten.
kann das kaum noch abwarten bis da was raus kommt (8950-GTX2) "scHwärm".
ich hohl mir mir gleich nen fettes packet, enthalten wird es: Crysis,Vista-Ultimate,GForce-8xxx. :king:

Tu das ... dann kriege ich wenigstens die High-End Lösungen der letzten Saison für einen vernünftigen Preis! :D :D :D
 
Vielleicht schaffen es die Hersteller dann endlich, den Stromverbrauch nebst Abwärme zu senken.

Bei den warmen Temperaturen draußen stirbt meine Karte fast den Hitzetod!
 
Das sind ja mal Nachrichten. Für die neuen High-End Chips ist die grössere Bandbreite sicherlich zu begrüssen.

mFg tAk
 
Killer33 schrieb:
Die Angabe mit Teraflops bei den Grakas stimmt schon
Wo siehst Du bei einem NV2x programmierbare Gleitkommaeinheiten? Afaik gibt es die bei dem Chip nur im Vertexshader. VS bieten normalerweise ein MADD über 4+1 Kanäle, also 10 FLOPs pro Takt. Der NV25 hat zwei davon und die Spitzenmodelle takten mit 300 MHz. Das ergibt im VS 6 GFLOPS.

Es geht um eine DirectX8- Karte, die im Pixelshader nur FX9- Einheiten braucht. Das sind zwar immerhin programmierbare Einheiten, aber eben Fest- und nicht Gleitkomma. Sie liefern also nicht FLOPS, sondern OPS. Davon gibt es vier, die jeweils 8-12 OPs pro Takt bieten dürften (da bin ich nicht sicher), insgesamt also max. 14,4 GOPS.

Der Banshee verfügt m.W. über gar keine programmierbaren Einheiten, also "0 FLOPS".

Wahrscheinlich hat das werte Marketing bei diesen Angaben festverdrahtete Schaltungen mitgerechnet. Das ist natürlich in überhaupt keiner Weise mit irgendwelchen echten Angaben zur (programmierbaren!) Rechenleistung zu vergleichen, sondern taugt höchstens zur Abschätzung, wieviel Leistung man bräuchte, um die festverdrahteten Schaltungen zu emulieren. Zu gebrauchen sind die aber nicht einmal wirklich zum Vergleich von Grafikkarten untereinander.

Die für die Banshee genannten 114 GFLOPs liegen zwischen einer X800 XL mit rund 101 GFLOPS (77 im Pixel- und 24 im Vertexshader) und einer X800 XT mit 126 (96 bzw. 30) richtiger Gleitkommaleistung. Neuere Karten nähern sich wirklich dem TFLOPS- Bereich, die X1900 XTX bringt es schon auf rund 426 GFLOPS.

Wegen der völlig andersartigen Schaltungen sind ist die theoretische Rechenleistung von Grafikkarten mit der von CPUs natürlich nicht vergleichbar (Ausnahme vlt. Cell, gerade bei kommenden D3D10- Chips).
 
wenn man alles nutzen kann, dann ist das richtig nice, noch schneller alles, aber kleinerer stromverbrauch.

ein direkter vergleich zwischen GDDR3 und GDDR4 karten wäre gut (also mit dem gleich chipsatz etc), dann könnte man sehen wie viel mal schneller der neue speicher ist
 
Die Verbesserung dürfte wirklich darin liegen das mit GDDR4 eine höhere Taktrate und Speicherbandbreite möglich ist, der geringere Verbrauch dürfte sich wohl merklich in Grenzen halten und im Vergleich zu GDDR3 ein guter Aufguss mit mehr Leistung,. ;)
 
@riDDi Dann sag mal an wo du deine Weissheit her hast? Und welche Unmengen an Daten meinst du? MPEG-2 hat maximal ca. 80 MBit/s. MPEG-4 hat maximal ca. 25 -30 MBit/s, ist also nochmal etwas besser Komprimiert. Und zu H.264/AVC - Dieser Codec (AVC steht für Advanced Video Codec) ist eine Erweiterung der MPEG-4-Norm und wird daher auch als "MPEG-4/Part 10" oder MPEG-4/AVC" bezeichnet. H.264 erreicht eine etwa doppelt so hohe Codier-Effizienz wie MPEG-4 (das "alte" MPEG-4 mit seinen Derivaten DivX und XviD) oder ca. 3-mal so hohe wie MPEG-2.
Also ist das Maximum an Daten schon bei MPEG-2 erreicht!

PCIe ist wiederum vollduplexfähig und arbeitet mit einer Taktrate von 1,25 GHz DDR. Daraus berechnet sich die Datenrate einer Lane zu max. 250 MByte/s pro Richtung. Das sind ca. 2000 MBit/s! Das heisst selbst eine Lane könnte die benötigten Daten von ca. 25 MPEG-2 "Steams" transportieren. Da aber 8 oder 16 Lanes in modernen Grakas verwendung finden ... muss ich noch weiter aushollen?

Also wenn man keine Ahn ... einfach mal ...
 
Zuletzt bearbeitet:
hört sich gut an

aber warum hängen wir bei dem sys-ram immer noch bei ddr-2 rum soga maeine 9600 pro hatte ddr-2
so 4gb ddr-4 wäre net schlecht
 
djfirefox schrieb:
na und wo kommen die texturen her? ja wohl aus dem jeweiligen spiel oder anwendung oder!? (CD oder Festplatte)
<start ironie>
oder rendern die grafikkarten jetzt heutzutage einfach so texturen aus jux und dollerei?
</ironie>
also die muss schon die cpu vorher übern bus innen graka ram schaufeln sonst wird da wohl nix berechnet werden können :)
Alles andere (AA, T&L, position der texturen etc etc.) wird wohl direkt von der gpu berechnet, da haste wohl recht @ ownagi!
aber erstmal müssen die innen gpu ram :) und dad geht meines erachtens übern bus, in diesem fall pci-e!

Das passiert bei den tollen bunten Ladebildschirmen. Da knallt die CPU die Texturen in den Graka-Speicher. Ja höher diese aufgelöst sind, desto mehr GraKa RAM brauchts. Ist der Bus zu langsam dauerts halt etwas länger.

Wenn der nicht reicht dann kommen noch kleine Ladesequenzen ins Spiel.
Der Bus ist da echt zweitrangig. Man könnte ihn im SLI Modus verwenden, aber da gibts
ja auch noch diese kleine Steckbrücke bie NVIDIA.
 
brutzler schrieb:
aber warum hängen wir bei dem sys-ram immer noch bei ddr-2 rum soga maeine 9600 pro hatte ddr-2
so 4gb ddr-4 wäre net schlecht

GDDR3 baut auf den DDR2 Standard auf.

Der hier angekündigte GDDR4 baut auf den DDR3 Standard auf, der nächstes Jahr als System Hauptspeicher sein Debüt feiern wird.

Die Namen der Technologie sagen nichts über deren Fortschrittlichkeit aus.
 
gizeh schrieb:
@riDDi Dann sag mal an wo du deine Weissheit her hast?
ist angeboren.

gizeh schrieb:
Und welche Unmengen an Daten meinst du?
na alle videodaten eben...

gizeh schrieb:
H.264 erreicht eine etwa doppelt so hohe Codier-Effizienz wie MPEG-4 (das "alte" MPEG-4 mit seinen Derivaten DivX und XviD) oder ca. 3-mal so hohe wie MPEG-2.
Also ist das Maximum an Daten schon bei MPEG-2 erreicht!
joa, erreicht, maximal, kommt auf den encoder an.

gizeh schrieb:
PCIe ist wiederum vollduplexfähig und arbeitet mit einer Taktrate von 1,25 GHz DDR. Daraus berechnet sich die Datenrate einer Lane zu max. 250 MByte/s pro Richtung. Das sind ca. 2000 MBit/s! Das heisst selbst eine Lane könnte die benötigten Daten von ca. 25 MPEG-2 "Steams" transportieren. Da aber 8 oder 16 Lanes in modernen Grakas verwendung finden ... muss ich noch weiter aushollen?
ist ja wirklich hochinteressant, das mit diesem upstream...

gizeh schrieb:
Also wenn man keine Ahn ... einfach mal ...
danke gleichfalls.


und jetzt mal ohne geflame, gewitzele und mit harten fakten:
http://www.elitebastards.com/page.php?pageid=13022
What makes things really interesting is if I tell you a little secret about this application. You're probably assuming it uses the vast power of the Radeon X1800 to convert video so fast, don't you? Well, you'd assume wrong - At present, the AVIVO Video Converter uses entirely software acceleration, GPU acceleration is not present in any shape or form.

desweiteren existiert ein hack des video converters, der komplett unabhängig von der grafikkarte funktioniert - auch mit einer tnt oder rage...

ati hat definitiv erfahrung im bereich der video encodings (s. multimedia center bei aiw-produkten), allerdings geht eine fünffach schnellere codierung bei aller optimierung nicht spurlos am content vorbei, wie man hier sieht:
http://www.digit-life.com/articles2/video/avivo_1.html

um diese theorien mal zu testen hab ichs selbst ausprobiert, auf meiner x800, mit agp, mit einem selbst geschnittenen video aus nfsu2. das ergebnis mit h264 war grauenvoll und in keinster weise irgendwie besser als mpeg2...
bis auf die ansprechend einfache bedienung bietet der video converter von ati keine vorteile.

€: wos mir grade auffällt, das ist ein gddr4-thread, was hat xcode damit zu tun? :O
fürs ontopic: gddr4 roXxX0rs!!!
 
Zuletzt bearbeitet:
@riDDi
Das Videokodieren Braucht keine interaktive Verbindung zum Program wie z.B. PhysX Berechnungen, die echte Physik in einer virtuellen Umgebung berechnen. Ein Rückkannal reicht und den besitzt die Schnittstelle ja. Deshalb verstehe ich dein Argument nicht!

Die Datenmengen über die wir hier reden sind wirklich am unteren Ende dessen was eine moderne Graka und auch der PCI-e Bus in der Lage sind zu bewältigen. Bedenke das es extra Karten gibt zum Hardware encoden, diese sind sogar nur über PCI angebunden und diese sind schneller als die CPUs. Eine PCI-e 16-fach Schnittstelle ist ca. 30 mal schneller als PCI! Und zwar in jede Richtung, Hin- und Rückkannal.

Generell sind moderne Grafikkarten zig mal schneller bei Mathematischen berechnungen die man parallelisieren kann. Das trifft auf alle visuellen Berechnungen zu und schliesst das encoden von Videos ein. Was ja auch kein Wunder ist bedenkt man das 16 ROPs parallel arbeiten. Zur Geschwindigkeit siehe:
http://gamma.cs.unc.edu/LU-GPU/

Und wie selbst in deiner Qeulle steht ist die xCode Software noch beta und zugegebener Weise noch Buggy.

Also erzähl hier nicht eine GPU könnte in diesem Fall (Visuelle Berechnungen) nicht mit einer CPU mithalten. Das Gegenteil ist der Fall. Eine CPU kann einer GPU nicht das Wasser reichen. Was auch verständlich ist, eine CPU soll halt mehr machen können als nur schnell rechnen.

Zum Topic, GDDR-4. Je schneller die Speicherbandbreite wird umso grösser werden die Vorteile einer GPU. Weitere infos gibts unter http://www.gpgpu.org/

Also lies dir das mal durch, dann weisst du was ich meine.
 
Zurück
Oben