Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News 40 nm, DX11 und mehr GDDR5 bei ATI in 2009
- Ersteller Wolfgang
- Erstellt am
- Zur News: 40 nm, DX11 und mehr GDDR5 bei ATI in 2009
Das kann man nicht. CPUs und GPUs unterscheiden sich bezüglich Komplexität doch ein ganzes Stück. Nicht nur die Entwicklungszeit von CPUs ist höher, sondern auch deren Validierung aufgrund der höheren Fehleranfälligkeit. Aber mal davon abgesehen, sowohl das 45 nm CPU Lineup von AMD steht vor der Tür. Und eine komplette Neuentwicklung mit Bulldozer läuft ja auch. Aber das braucht eben seine Zeit.Papst_Benedikt schrieb:Ich weis nicht in wie fern sich GPUs von CPUs mehr oder weniger stark in der Architektur unterscheiden. Aber wenn ATI es bei den GPUs schafft die effizienter und leistungsfähiger zu machen, sollte man doch auch was für die CPUs adaptieren können.
Och, ob diese Karten jetzt schnell kommen (sollen) oder nicht, ich bekomme zumindest immer mehr Lust, meine GF 7600 GT in Rente zu schicken.jusaca schrieb:Ich könnte jetzt noch einen der typischen Kommentare schreiben, wie sie hier sowieso noch kommen, a la: Hoffentlich kommen die neuen Grakas schnell" oder "wenn die rauskommt ist die meine!" aber das lasse ich jetzt wohl lieber![]()
@sir-otzalot
Gehe einfach zum ursprünglichen Artikel auf Wikipedia. Dort solltest du alle Infos zu GPGPU bekommen.
- Registriert
- Nov. 2002
- Beiträge
- 9.718
Da hast du durchaus recht und das weiß ich auch.Danke für den Artikel, aber bitte korrigiere doch dei Überschrift: "in 2009" ist englisch und nicht deutsch.
es müsste heißen "im Jahr 2009" oder "für 2009" oder nur "2009".
Allerdings geht keine längere Formulierung, da es ansonsten unser Seitenlayout zerhauen würde.
DiamondDog
Captain
- Registriert
- März 2004
- Beiträge
- 3.839
hauptsach DX11
wo es doch schon so viele DX10 spiele auf dem markt gibt dass man nicht mehr durchblicken kann, schnell DX11 ^^
wo es doch schon so viele DX10 spiele auf dem markt gibt dass man nicht mehr durchblicken kann, schnell DX11 ^^
Shader
Commander
- Registriert
- Aug. 2005
- Beiträge
- 2.065
blackboard schrieb:Was ist eig. aus dieser Multi-GPU-Technologie von ATi geworden? Sprich, dass sie eine weniger leistungsstarke GPU bauen, dann jedoch mehrere auf ein PCB löten? Also Low-End 2 GPUs, Mid-Range 4 GPUs, High-End 8 GPUs... Ist das noch aktuell oder schon wieder gestorben? Ich fand den Ansatz eigentlich recht gut.
greetz
blackboard
Der Ansatz ist auch gut und wird sicherlich auch früher oder später kommen aber es scheitert wohl einfach an der Softwareunterstützung dafür.
Bei Prozessoren ist es ja auch schon eine Hürde bzw. Schwierigkeit 2 Cores bzw. noch mehr Cores richtig anzuprechen.
Bei Grafikkarten ist die Schwierigkeit ja insbesondere darin das die GPU's ja bereits hoch paralell rechnen. Mehrere Grafikkerne, wo jeder schon parallel rechnet - das ist für die Ingeneure sicherlich eine hohe Herausforderung. ^^
DirectX soll zwar auch für uns Endkunden einen Nutzen haben aber eigentlich gibt es DirectX hauptsächlich für die Programmierer. DirectX11 könnte sehr lohnend sein, eine einheitliche GPGPU Bibliothek, Physik und co spricht ja dafür.
Wenn DirectX11 den Programmierern das Leben leichter macht, wird es sich garantiert durchsetzen. DirectX10 ist in dieser Hinsicht ja nicht das Wahre gewesen.
sebastian1
Lt. Commander
- Registriert
- Sep. 2006
- Beiträge
- 1.238
was stellt ihr euch denn unter 3D Stereoscopic Displays und HD+ television, digital walls vor?
Ich kann mir da irgendwie nichts zu vorstellen
Ich kann mir da irgendwie nichts zu vorstellen
0815burner
Commander
- Registriert
- Nov. 2006
- Beiträge
- 2.834
Direct X11 ist in mein en Augern ein typisches Beispiel, wie marketing Technologien schädigen kann.
es ist scheinbar wichtiger schnell auf neue Versionsnummern zu springen ( Werbeanzeige: Rasante Leistung durch DX11-Grafikkarte), um den Käufer zum umrüsten zu bewegen, als die versionssprünge vom Einsatznutzen abhängig zu machen. So werden die verbraucher das Vertrauen in eine Technologie verlieren, da Sie ja nicht mehr für Qualität steht.
Aber dann erfinden die feinen Herren vom marketing einfach was Neues...
es ist scheinbar wichtiger schnell auf neue Versionsnummern zu springen ( Werbeanzeige: Rasante Leistung durch DX11-Grafikkarte), um den Käufer zum umrüsten zu bewegen, als die versionssprünge vom Einsatznutzen abhängig zu machen. So werden die verbraucher das Vertrauen in eine Technologie verlieren, da Sie ja nicht mehr für Qualität steht.
Aber dann erfinden die feinen Herren vom marketing einfach was Neues...
Wolfgang schrieb:Allerdings geht keine längere Formulierung, da es ansonsten unser Seitenlayout zerhauen würde.
Dann nimm doch einfach das "in" raus, bei ATI 2009 wäre auch korrekt.
Warum eigtl. mehrere GPUs verbauen. Kann man alles nicht in einem DIE vereinen, wie bei CPUs? Die haben schließlich auch mehrere CPU-Kerne in einem DIE verbaut. Klar, die DIE wird dann größer, aber wayne? Sollte doch platzsparender zu bauen sein als da irgendwie 2-8 Chips auf einer Platine unterzubringen.
A
AeS
Gast
Irgendwie, ist es auch nur das, was der nächste logische Schritt gewesen wäre, natürlich ist zu diesem frühen Zeitpunkt eine ausführliche Berichterstattung auch eher noch Utopie.
Bisher sind das aber nur Fakten, die mehr oder weniger auch schon bekannt gewesen sind und sich als Puzzle aus anderen Nachrichten über TSMC, M$ und Co. zusammensetzen lässt.
Jedoch müsste jetzt anstatt eines Refresh doch eine neue Generation folgen, nachdem 3x und 4x nur jeweils ein Refresh der Architektur der 2x Serie war.
Daher dürften in den folgenden Monaten bis zum Release noch einige interessantere Neuigkeiten den Weg zu den Käufern finden und ein bisschen an den Werbetrommeln rühren.
Bisher sind das aber nur Fakten, die mehr oder weniger auch schon bekannt gewesen sind und sich als Puzzle aus anderen Nachrichten über TSMC, M$ und Co. zusammensetzen lässt.
Jedoch müsste jetzt anstatt eines Refresh doch eine neue Generation folgen, nachdem 3x und 4x nur jeweils ein Refresh der Architektur der 2x Serie war.
Daher dürften in den folgenden Monaten bis zum Release noch einige interessantere Neuigkeiten den Weg zu den Käufern finden und ein bisschen an den Werbetrommeln rühren.
H
H@ckinTosh
Gast
Naja, die Folie ist eher als Werbung denn als ernsthaftes Informationsmaterial zu werten. Da wird lediglich "Wir sind auf der Höhe der Zeit, wir unterstützen alle neuen Technologien" propagiert. Das ist natürlich lobenswert, nur allzuviel sollte man in diese Folie nicht hineininterpretieren finde ich. Wann Windows 7 nun herauskommt entscheidet zum Beispiel immer noch Microsoft und nicht ATi.
Vendetta
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.141
Quzy schrieb:Dann nimm doch einfach das "in" raus, bei ATI 2009 wäre auch korrekt.
Das "in" bringt jetzt auch keinen mehr um, wie man überhaupt soviel Energie ins Korrigieren von nem kleinen Grammatikfehler stecken kann ist mir schleierhaft, mal abgesehen davon, dass es absolut offtopic ist und nichts zum eigentlichen Thema beiträgt...
So, damit ich was zum Thema beitrage:
Finde es super, dass AMD direkt zu 40nm übergeht und den 45nm Prozess einfach außen vor lässt. Wenn ich daran denke, dass ja eigentlich Nvidia die Firma war, die einen Prozess(nämlich 55nm) überspringen wollte, aber daran scheiterte, ist das doch recht interessant. -Stellt sich nur die Frage ob Nvidia den 45nm Prozess dann ebenso überspringen wird...
Zuletzt bearbeitet:
GDDR5 dürfte der wichtigste Punkt auf der Liste sein.
Mit 60-70 GB/s Speicherbandbreite durch GDDR3 können heutige Karten sich keinen Blumentopf mehr "errendern". Die Folge: Seit nun schon 2/3 Generationen sind teilweise Karten auf dem Markt, die mehr als das kassische 256-bit benötigen und auf sehr kostspielige Lösungen bis hin zu 512-bit zurückgreifen müssen.
Mit 60-70 GB/s Speicherbandbreite durch GDDR3 können heutige Karten sich keinen Blumentopf mehr "errendern". Die Folge: Seit nun schon 2/3 Generationen sind teilweise Karten auf dem Markt, die mehr als das kassische 256-bit benötigen und auf sehr kostspielige Lösungen bis hin zu 512-bit zurückgreifen müssen.
Tigereye1337
Lt. Commander
- Registriert
- Aug. 2007
- Beiträge
- 1.608
dx11 erscheint ja nur, damit es die gpgpu besser ausnutzt um rechenintensive berrechungen zu unterstüzten, und mit dx11 wäre das hersteller unabhängig.
S
Swissjustme
Gast
mal schauen 
Wenn etwas Ähnliches wie in diesem Jahr ne 4850 rauskommt, bin ich dabei. Ich habe mir dieses jahr nix gekauft, damit ich nächstes Jahr etwas Besseres bekomme für die aktuellen Spiele (DoW2)
...wobei ich nächstes Jahr dann noch abwägen muss, ob sich ein Umstieg von 8800gts320mb auf die neuste Generation lohnt. CoH läuft bei mir auf directx9 perfekt, directx10 hingegen fast nicht.
Ausserdem hab ich nun ein 24-zöller..naja dann lohnt sich wohl der Umstieg sicher
(wenn der Preis stimmt^^)
Das wichtigste aber ist schon eine sparsamere Grafikkarte.
(Weiss grad einer, ob ne 8800gts320mb mehr verbraucht als ne 4850?)
Wenn etwas Ähnliches wie in diesem Jahr ne 4850 rauskommt, bin ich dabei. Ich habe mir dieses jahr nix gekauft, damit ich nächstes Jahr etwas Besseres bekomme für die aktuellen Spiele (DoW2)
...wobei ich nächstes Jahr dann noch abwägen muss, ob sich ein Umstieg von 8800gts320mb auf die neuste Generation lohnt. CoH läuft bei mir auf directx9 perfekt, directx10 hingegen fast nicht.
Ausserdem hab ich nun ein 24-zöller..naja dann lohnt sich wohl der Umstieg sicher
Das wichtigste aber ist schon eine sparsamere Grafikkarte.
(Weiss grad einer, ob ne 8800gts320mb mehr verbraucht als ne 4850?)
M
M@rco
Gast
sebastian1 schrieb:was stellt ihr euch denn unter 3D Stereoscopic Displays ... vor?
Die gibt es bei Nvidia schon länger. Das sind Treiber mit denen das Bild mit Hilfe von bestimmten Brillen dreidimensional wird. Es kommt aus dem Bildschirm heraus.
Swissjustme schrieb:Weiss grad einer, ob ne 8800gts320mb mehr verbraucht als ne 4850?
die 88GTS 320 verbraucht im idle ca. 15w mehr und unter last etwa 20w weniger als die 4850
zum thema: ist eigentlich nix neues, ich persönlich wünsche mir eine Karte mit den Verbrauchswerten einer 3870(zumin. im idle) mit der 1,3fachen Leistung einer 4870 und das alles um die 150 Tacken
gruß marantz
Zuletzt bearbeitet: