News DirectX-11-Launch von ATi in sieben Wochen?

Naja Microsoft hatte was angedeutet, dass man selbst mit DX9 Karten DX11 nutzbar sein wird, allerdings nur durch Emulation und das wird sich auf die Performance negativ auswirken.
Die wichtigste Frage für mich ist, ob man bei ATI DX10.1 Karten Tesselation nutzbar sein wird, denn dieses ist schon eingebaut.
 
Gibts denn schon was neues zum 40nm Refresh von Nvidia? Die wollten doch vor der DX11 Generation noch einen 40nm DX10.1 GT200 Refresh bringen?
 
Nein. Sie unterstützen kein DX11 sondern 10.1. Sicher werden die spiele laufen aber eben nur mit DX10.1/DX10 und nicht mit den Effekten von DX11.
 
Cr8 schrieb:
Kurze Frage weil ich da immer durcheinander komme und immer was anderes lese. Können DX10 Karten wie die HD4800 Reihe nicht auch DX11 zum Laufen bringen?

Gewisse DX11-Fähigkeiten (wie bessere Multi-CPU Unterstützung) laufen auch ohne DX11 Graka. Bestimmte Sachen, wie Tesselation bspw. laufen nur mit entsprechender Hardware. Aber bei den Preisen heutzutage kann man damit leben denk ich.

crazybratwurst schrieb:
August halte ich für Blödsinn, wenn ATI in einem Interview selbst bestätigt hat, dass die DX11 Generation erst in der späten zweiten Jahreshälfte rauskommt. Auch ihr Plan von der Veröffentlichung von DX11 für mobile Geräte im ersten Halbjahr 2010 (da stellt sich wieder die Frage ob Q1 oder Q2) "vernichtet" dieses Gerücht ja schon fast...

Naja, späte zweite Jahreshälfte kann ja alles sein, Oktober/November ist ja ziemlich spät. (W7 Launch ist am 22.10., vorher machts fast keinen Sinn, was zu präsentieren)

Und was haben bitte die Notebook-Chips mit den DX11- Grafikkarten zu tun? Die kommen doch immer viel später, schau dir an, wie viel (oder wenig) mobile Grakas es von der 4er Generation gibt (laut geizhals 55 Notebooks mit HD4 im 15" Segment, HD3 und G9 über 200 jeweils).

Meiner Meinung nach ist alles möglich. ATI hat schon vor längerer Zeit gesagt, zum W7 Start solls losgehen, nach den Problemen, die TSMC hat, kann ich mir aber auch vorstellen, das sich der Start mehrere Monate verzögern wird, was ich nicht hoffe. Nach allen Gerüchten bis jetzt scheint ATI den Termin aber einigermaßen halten zu können. Wieviele Grakas zu welchem Preis dann verfügbar sein werden, steht sicher auf einem anderen Blatt und die Leute, die warten können/wollen, sollten das auch tun, bis die Konkurrenz auf die Mattscheibe tritt.

Arhey schrieb:
Die wichtigste Frage für mich ist, ob man bei ATI DX10.1 Karten Tesselation nutzbar sein wird, denn dieses ist schon eingebaut.

Nach aktuellem Stand nicht. Emulation von DX11 Effekten (wie Emulation) wäre sicher Softwareseitig möglich, dass dieses zu unspielbaren fps führt, dürfte klar sein.

@Wehrwolf: Nach meinem Kenntnisstand sind die beiden GT210/220 (oder wie die hießen, war vor kurzem in der News) die einzigen 40nm DX10.1 Modelle, die noch in Planung waren. vom GT200 solls eigentlich keinen Refresh mehr geben, aber sag niemals nie. (Lohnt sich nicht so wirklich, da der ja kein DX11 unterstützt, wer sollte das Ding kaufen?) Einzig eine Mainstreamkarte (GT215) war noch in Planung, aber keine Ahnung ob und wann die noch released wird. Soll heißen, der GT300 wird der erste Performance-Chip in 40nm, aber dann schon mit DX11.
 
Zuletzt bearbeitet:
GIDF

Crysis 2
Battlefield mit Frostbite Engine
Dirt 2

uwm....
 
Zuletzt bearbeitet:
das was gebastelt wird steht ausser frage, wann sie aber erscheinen werden .
das ist thema ;) !
und ankündigungen kennt man eh schon aus erfahrung. die dann wieder weiter nach hinten . . . .

und überhaupt , bis dahin kann man sich die zweite wenn nicht sogar die dritte generation kaufen ;)
 
Zuletzt bearbeitet: (+pöaokdnagfj)
Battleforge bekommt z.B. nachträglich noch einen DX11 Pfad spendiert

Und wenn jetzt schon die ersten DX11 auf den markt kommen werden mit Sicherheit noch andere Folgen oder nachgepatcht werden. Da brauchst du keine 1,5Jahre warten.
 
Da will ich mal hoffen, dass man im September den Wald vor lauter Bäumen noch sieht und sie auch genug Dünger für ihre Zedern und Zypressen haben.
Bei der HD4770 sieht das derweil nicht wirklich so aus. Hoffentlich ist das kein Schicksal, dass den vermeintlich frühen DX11 Launch von AMD vereitelt.
Ob von Green IT gesprochen werden kann, darauf warte ich dann mal sehr gespannt. Ne Karte mit mehr als 120-150 Watt Verbrauch kommt mir nicht in die Tüte.

Kanadische Hemlocktanne

Juniper (engl.) steht für:

* Juniperus, lat. Name für Wacholder
 
Zuletzt bearbeitet:
Neues Call of Duty soll auch DX11 nutzen.
Sind also einige Spiele schon dieses Jahr zu erwarten.

Das heißt dieses Jahr mindestens Dirt 2 und Call of Duty. 2 schöne Kracher.
 
nja..ich denke mal da läuft im hintergrund schon die produktion der radeon 5.. die lager mit den radeon 4 werden leergeräumt, so wie man die mittlerweile hinterher geworfen bekommt.. und dann kanns ende september/anfang oktober eigentlich losgehen :D schön wärs zumindest..

dx11 hin oder her.. fakt is ja wohl, dass dx11 unterm strich mehr performance hat als dx10.1. sprich, selbst wenn sie nur die radeon4 das dx11 feature nachrüsten würden, würden dx11 spiele besser drauf laufen als dx10.1. also kann man unterm strich relativ "billig" (also mit geringer entwicklungsarbeit) eine ganze generation damit bestreiten..ich weiß, ati hat auch an der leistungsschraube gedreht..aber das meiste was man liest beschränkt sich auf "höherer takt" und "mehr shader"..keine großen architekturveränderungen. ergo können alle radeon3 und tiefer besitzer sich nen ordentlich schub erwarten, während die radeon4 besitzer jetzt nicht unbedingt den messiahs erwarten sollten :D meine meinung^^
 
Ne Karte mit mehr als 120-150 Watt Verbrauch kommt mir nicht in die Tüte.

schonmal dran gedacht den Stromanbieter zu wechseln?? Schont den Geldbeutel mehr als ne stromsparendere Grafikkarte



http://www.thevista.ru/files/images/articles/ANOTHER/11596963.jpg

die Grafik von DX11 ist einfach umwerfend wie ihr auf dem Foto sehen könnt, da hilft die Trösterei mit ner 3 Jahre alten Technologie auch nicht viel (auch wenn der sprung nicht ganz so hoch ist wie von DX9 zu DX10)


die aktuellen karte ruckeln immer noch stark bei höheren auflösungen mit hohen einstellungen, bei dx11 wirds da nen totalen leistungseinbruch geben da die karten dafür eigentlich nicht gedacht sind
 
Zuletzt bearbeitet:
schonmal dran gedacht den Stromanbieter zu wechseln??
Schon mal dran gedacht, dass es nicht um die Kosten sondern um die Peripherie geht?
Kleiner Tipp: Es gibt noch andere Formfaktoren als ATX und Netzteile mit weniger als 850 Watt. :)

während die radeon4 besitzer jetzt nicht unbedingt den messiahs erwarten sollten meine meinung^^
Das kann gut sein, aber Leistung gibt es doch schon sehr stattlich derzeit und sogar zu kleinem Preis (HD4890 für ca. 155 Euro). Viel spannender wäre aber für viele, wenn diese hohe Leistung einer Hd4890 (oder besser) mit dem Verbrauch einer Hd4850 oder GTS250 konkurrieren könnte.


Gibt es vllt. schon Gerüchte über die Länge des PCB?
 
Zuletzt bearbeitet:
Ich bin mal gespannt, im grunde muss ATI nur hoffen das sie einen chip entwickeln der bei möglichst kleiner größe so schnell wie ein leicht beschnitter G 300 ist, um sich gegn die 360gtx durch ein besseres P/L verhältnis durchtusetzern zu können.

Aber ob das gelingt, man wird sehen. Ob ich es noch aushalte im september die antwort NV abzuwarten, core i5 und ne schicke ATi, da juckt es mich jewzt schon in den fingern. Es verspricht auf jedenfall interessant zu werden.

Icvh denke gegnüber der 285 gtx wird man wohl so 70-80% performanceboost sehen bei ner 380 gtx, aber auch dieser monsterchip basiert ja noch auf dem G80, also mal guicken was ATI alles geändert hat im vergleich zum r600/rv770.
 
Zuletzt bearbeitet:
du kommst selbst mit nem gescheiten 400 Watt Netzteil gut über die Runden, selbst bei nem high End System

abgesehen davon werden die neuen Grafikkarten in 40nm hergestellt (vielleicht sogar 32nm) daher sollte das kein Problem sein. Also keine Panik bitte
 
Icvh denke gegnüber der 285 gtx wird man wohl so 70-80% performanceboost sehen bei ner 380 gtx, aber auch dieser monsterchip basiert ja noch auf dem G80, also mal guicken was ATI alles geändert hat im vergleich zum r600/rv770.
Der G300 wird ein erweiterter G80 in 40nm? Versteh ich dich da richtig?

du kommst selbst mit nem gescheiten 400 Watt Netzteil gut über die Runden, selbst bei nem high End System
Weiß ich, tu ich derzeit auch. Aber demnächst ist nur noch ein 300 Watt Netzteil am Start.
 
KAOZNAKE schrieb:
Und was haben bitte die Notebook-Chips mit den DX11- Grafikkarten zu tun? Die kommen doch immer viel später...

Meine Aussage bezog sich explizit auf August 2009.
Was die damit zu tun haben? Ganz einfach.. ATi muss ja einen Plan haben, wie lange die Entwicklung, Produktion, Organisation und Optimierung etc. der mobilen Karten dauert und ich wage es mal ganz 3st zu behaupten, dass sie auch ne kleine Ahnung davon haben, wie lange das bei den Desktop-Karten dauert.

Wären sie jetzt schon mit den Desktop-Karten fertig, warum also würden dann die Notebook-Karten erst nächstes Jahr rauskommen? Die hätten sie dann auch sicherlich schon um einiges eher fertig.. Soviel dazu..
 
Zitat von M.(to_the)K.
aber auch dieser monsterchip basiert ja noch auf dem G80

Ich denke nicht, dass der GT300 noch auf dem G80 basieren wird. Nvidia führt doch recht große Veränderungen durch.

Was ich gerade gefunden habe:

Zitat von Wikipedia
The G300 chipset is also said to be very power hungry, to be consuming as much as 450 watts of power
Das WÄRE ja ein wenig viel :rolleyes:

@ Topic:
Freue mich schon, wenn die ersten DX11 Karten auf dem Markt sind, wird noch richtig interessant :)
 
Zurück
Oben