News 40 nm, DX11 und mehr GDDR5 bei ATI in 2009

Papst_Benedikt schrieb:
Ich weis nicht in wie fern sich GPUs von CPUs mehr oder weniger stark in der Architektur unterscheiden. Aber wenn ATI es bei den GPUs schafft die effizienter und leistungsfähiger zu machen, sollte man doch auch was für die CPUs adaptieren können.
Das kann man nicht. CPUs und GPUs unterscheiden sich bezüglich Komplexität doch ein ganzes Stück. Nicht nur die Entwicklungszeit von CPUs ist höher, sondern auch deren Validierung aufgrund der höheren Fehleranfälligkeit. Aber mal davon abgesehen, sowohl das 45 nm CPU Lineup von AMD steht vor der Tür. Und eine komplette Neuentwicklung mit Bulldozer läuft ja auch. Aber das braucht eben seine Zeit.

jusaca schrieb:
Ich könnte jetzt noch einen der typischen Kommentare schreiben, wie sie hier sowieso noch kommen, a la: Hoffentlich kommen die neuen Grakas schnell" oder "wenn die rauskommt ist die meine!" aber das lasse ich jetzt wohl lieber :D
Och, ob diese Karten jetzt schnell kommen (sollen) oder nicht, ich bekomme zumindest immer mehr Lust, meine GF 7600 GT in Rente zu schicken. :D

@sir-otzalot
Gehe einfach zum ursprünglichen Artikel auf Wikipedia. Dort solltest du alle Infos zu GPGPU bekommen.
 
Danke für den Artikel, aber bitte korrigiere doch dei Überschrift: "in 2009" ist englisch und nicht deutsch.
es müsste heißen "im Jahr 2009" oder "für 2009" oder nur "2009".
Da hast du durchaus recht und das weiß ich auch.
Allerdings geht keine längere Formulierung, da es ansonsten unser Seitenlayout zerhauen würde.
 
hauptsach DX11

wo es doch schon so viele DX10 spiele auf dem markt gibt dass man nicht mehr durchblicken kann, schnell DX11 ^^
 
blackboard schrieb:
Was ist eig. aus dieser Multi-GPU-Technologie von ATi geworden? Sprich, dass sie eine weniger leistungsstarke GPU bauen, dann jedoch mehrere auf ein PCB löten? Also Low-End 2 GPUs, Mid-Range 4 GPUs, High-End 8 GPUs... Ist das noch aktuell oder schon wieder gestorben? Ich fand den Ansatz eigentlich recht gut.

greetz

blackboard

Der Ansatz ist auch gut und wird sicherlich auch früher oder später kommen aber es scheitert wohl einfach an der Softwareunterstützung dafür.
Bei Prozessoren ist es ja auch schon eine Hürde bzw. Schwierigkeit 2 Cores bzw. noch mehr Cores richtig anzuprechen.
Bei Grafikkarten ist die Schwierigkeit ja insbesondere darin das die GPU's ja bereits hoch paralell rechnen. Mehrere Grafikkerne, wo jeder schon parallel rechnet - das ist für die Ingeneure sicherlich eine hohe Herausforderung. ^^

DirectX soll zwar auch für uns Endkunden einen Nutzen haben aber eigentlich gibt es DirectX hauptsächlich für die Programmierer. DirectX11 könnte sehr lohnend sein, eine einheitliche GPGPU Bibliothek, Physik und co spricht ja dafür.
Wenn DirectX11 den Programmierern das Leben leichter macht, wird es sich garantiert durchsetzen. DirectX10 ist in dieser Hinsicht ja nicht das Wahre gewesen.
 
was stellt ihr euch denn unter 3D Stereoscopic Displays und HD+ television, digital walls vor?
Ich kann mir da irgendwie nichts zu vorstellen
 
Direct X11 ist in mein en Augern ein typisches Beispiel, wie marketing Technologien schädigen kann.

es ist scheinbar wichtiger schnell auf neue Versionsnummern zu springen ( Werbeanzeige: Rasante Leistung durch DX11-Grafikkarte), um den Käufer zum umrüsten zu bewegen, als die versionssprünge vom Einsatznutzen abhängig zu machen. So werden die verbraucher das Vertrauen in eine Technologie verlieren, da Sie ja nicht mehr für Qualität steht.
Aber dann erfinden die feinen Herren vom marketing einfach was Neues...
 
Warum eigtl. mehrere GPUs verbauen. Kann man alles nicht in einem DIE vereinen, wie bei CPUs? Die haben schließlich auch mehrere CPU-Kerne in einem DIE verbaut. Klar, die DIE wird dann größer, aber wayne? Sollte doch platzsparender zu bauen sein als da irgendwie 2-8 Chips auf einer Platine unterzubringen.
 
Irgendwie, ist es auch nur das, was der nächste logische Schritt gewesen wäre, natürlich ist zu diesem frühen Zeitpunkt eine ausführliche Berichterstattung auch eher noch Utopie.

Bisher sind das aber nur Fakten, die mehr oder weniger auch schon bekannt gewesen sind und sich als Puzzle aus anderen Nachrichten über TSMC, M$ und Co. zusammensetzen lässt.

Jedoch müsste jetzt anstatt eines Refresh doch eine neue Generation folgen, nachdem 3x und 4x nur jeweils ein Refresh der Architektur der 2x Serie war.

Daher dürften in den folgenden Monaten bis zum Release noch einige interessantere Neuigkeiten den Weg zu den Käufern finden und ein bisschen an den Werbetrommeln rühren.
 
Naja, die Folie ist eher als Werbung denn als ernsthaftes Informationsmaterial zu werten. Da wird lediglich "Wir sind auf der Höhe der Zeit, wir unterstützen alle neuen Technologien" propagiert. Das ist natürlich lobenswert, nur allzuviel sollte man in diese Folie nicht hineininterpretieren finde ich. Wann Windows 7 nun herauskommt entscheidet zum Beispiel immer noch Microsoft und nicht ATi.
 
Quzy schrieb:
Dann nimm doch einfach das "in" raus, bei ATI 2009 wäre auch korrekt.

Das "in" bringt jetzt auch keinen mehr um, wie man überhaupt soviel Energie ins Korrigieren von nem kleinen Grammatikfehler stecken kann ist mir schleierhaft, mal abgesehen davon, dass es absolut offtopic ist und nichts zum eigentlichen Thema beiträgt...


So, damit ich was zum Thema beitrage:

Finde es super, dass AMD direkt zu 40nm übergeht und den 45nm Prozess einfach außen vor lässt. Wenn ich daran denke, dass ja eigentlich Nvidia die Firma war, die einen Prozess(nämlich 55nm) überspringen wollte, aber daran scheiterte, ist das doch recht interessant. -Stellt sich nur die Frage ob Nvidia den 45nm Prozess dann ebenso überspringen wird...
 
Zuletzt bearbeitet:
Ja. Nvidia hat vor zeitgleich mit AMD in 40nm produzieren zu lassen.
 
GDDR5 dürfte der wichtigste Punkt auf der Liste sein.
Mit 60-70 GB/s Speicherbandbreite durch GDDR3 können heutige Karten sich keinen Blumentopf mehr "errendern". Die Folge: Seit nun schon 2/3 Generationen sind teilweise Karten auf dem Markt, die mehr als das kassische 256-bit benötigen und auf sehr kostspielige Lösungen bis hin zu 512-bit zurückgreifen müssen.
 
dx11 erscheint ja nur, damit es die gpgpu besser ausnutzt um rechenintensive berrechungen zu unterstüzten, und mit dx11 wäre das hersteller unabhängig.
 
mal schauen :)

Wenn etwas Ähnliches wie in diesem Jahr ne 4850 rauskommt, bin ich dabei. Ich habe mir dieses jahr nix gekauft, damit ich nächstes Jahr etwas Besseres bekomme für die aktuellen Spiele (DoW2)
...wobei ich nächstes Jahr dann noch abwägen muss, ob sich ein Umstieg von 8800gts320mb auf die neuste Generation lohnt. CoH läuft bei mir auf directx9 perfekt, directx10 hingegen fast nicht.
Ausserdem hab ich nun ein 24-zöller..naja dann lohnt sich wohl der Umstieg sicher :) (wenn der Preis stimmt^^)

Das wichtigste aber ist schon eine sparsamere Grafikkarte.
(Weiss grad einer, ob ne 8800gts320mb mehr verbraucht als ne 4850?)
 
sebastian1 schrieb:
was stellt ihr euch denn unter 3D Stereoscopic Displays ... vor?

Die gibt es bei Nvidia schon länger. Das sind Treiber mit denen das Bild mit Hilfe von bestimmten Brillen dreidimensional wird. Es kommt aus dem Bildschirm heraus.
 
Swissjustme schrieb:
Weiss grad einer, ob ne 8800gts320mb mehr verbraucht als ne 4850?

die 88GTS 320 verbraucht im idle ca. 15w mehr und unter last etwa 20w weniger als die 4850

zum thema: ist eigentlich nix neues, ich persönlich wünsche mir eine Karte mit den Verbrauchswerten einer 3870(zumin. im idle) mit der 1,3fachen Leistung einer 4870 und das alles um die 150 Tacken:freak::rolleyes::D ach und leise sollte sie sein versteht sich von selbst :lol:

gruß marantz
 
Zuletzt bearbeitet:
Zurück
Oben