News Nvidia GeForce GTX 1070: Titan-X-Leistung bei GTX-960-Verbrauch

DocWindows schrieb:
Ich sehe keine schwache Leistung des GP104, denn er erreicht diese Leistung mit einem Bruchteil der Energieaufnahme. Die längsten Balken zeugen nicht automatisch von der besten Technik.
Inwiefern vergleichen wir denn bitteschön 28nm-Effizienz vs. 16nm-Effizienz? Das ergibt doch gar keinen Sinn? Da einzige, was man vergleichen kann und sollte ist DX12-Leistung. Falls du dennoch unbedingt auf Effizienz beharrst, dann stell dir vor, wie die 1070 gegen einen in 16nm geshrinkten Fiji abschneiden würde.

DocWindows schrieb:
Wo du immer so auf Belege stehst: Gibt es nun einen Benchmark der die Auswirkungen von Async Compute in Warhammer zeigt, oder nicht? Es wird immer sehr gerne betont wie wichtig das doch ist, aber was bringt es denn nun konkret?

Nein, denn leider ist in Total War:Warhammer wohl kein eigener nVidia-only-Renderpfad ohne Async-Compute, wie in Ashes of the Singularity eingebaut. Du kannst dich aber gerne an AotS, Hitman, Quantum Break, RotTR oder eben TWW orientieren, wie Pascal abschneidet unter DX12. Wenn du willst verlinke ich dir gerne Tests von CB, PCGH oder auch Digitalfoundry.

DocWindows schrieb:
Das hier ist der einzige Test den ich diesbezüglich finden kann. Wenn das alles ist was AC bringt, hat es das Potential genauso wichtig zu werden wie DX 10.1. Da hält sich das "Leidwesen" doch sehr in Grenzen.

Du betrachtest auch nur die 1080 unter DX12, die dank Architektur an sich eben immer noch nicht wirklich davon profitieren kann. Wie gesagt, betrachte GCN, dann erkennst du die Vorteile. Zumal DX12 und Vulkan dank genereller Overhead-Reduzierung sicher nicht "unwichtig" sind, davon profitieren nämlich grundsätzlich alle und jeder. Wieso DX12 wie DX10.1 enden soll musst du mir auch erklären, DX10 war ein kurzer Zwischenschritt zwischen 9 und 11, bei Erscheinen war bereits bekannt, dass ein DX11 folgen wird. Von DX12 hingegen gibt es weder einen angekündigten Nachfolger, noch war DX12 jemals lange davor bekannt gegeben worden, Microsoft hat sogar verlauten lassen, dass es nach DX11 kein DirectX mehr geben wird.

DocWindows schrieb:
Meiner Meinung nach nicht, denn:

DocWindows schrieb:
Wo ist dein Kontext? Hab ich auch nur einen Satz geschrieben?
Aus dem Zusammenhang gerissen klingen beide Sätze komisch. Darum habe ich auf den Kontext hingewiesen.

Der Kontext zu deiner Aussage ändert nicht den Wortlaut. Du generalisierst/verallgemeinerst.

"[...], wie bei AMD, die auf DX11 Optimierungen verzichtet haben[...]"

ist wohl definitiv falsch/nicht belegbar von dir! Natürlich optimiert auch AMD auf DX11. Es ist einfach dein Wortlaut, der unpassend/nicht stimmig ist, daran ändert der Kontext auch nichts. Selbst ein "weitestgehend verzichtet" wäre wohl immer noch falsch. Die einzig richtige Aussage wäre wohl eher: "AMD hat weniger in die Minimierung des DX11-Overheads gesteckt".
 
Zuletzt bearbeitet:
BookerDeWitt schrieb:
Inwiefern vergleichen wir denn bitteschön 28nm-Effizienz vs. 16nm-Effizienz? Das ergibt doch gar keinen Sinn? Da einzige, was man vergleichen kann und sollte ist DX12-Leistung. Falls du dennoch unbedingt auf Effizienz beharrst, dann stell dir vor, wie die 1070 gegen einen in 16nm geshrinkten Fiji abschneiden würde.

Es gibt erst recht keinen Sinn zwei Dinge miteinander zu vergleichen von dem man eins nicht kaufen kann. Davon hab ich nichts. Theoretische Was-wäre-wenn Überlegungen sind für mich wenig hilfreich wenn ich mich für eine neue Grafikkarte entscheiden will.

BookerDeWitt schrieb:
Nein, denn leider ist in Total War:Warhammer wohl kein eigener nVidia-only-Renderpfad ohne Async-Compute, wie in Ashes of the Singularity eingebaut.

Dann wäre es schön wenn man einfach nur DX12 Performance bewerten würde und nicht andauernd Async Compute separat für irgendwelche Performancedaten verantwortlich macht, wenn man dessen Effekt gar nicht bestimmen kann. Denn der Zugewinn ist - wenn man von dem einzigen Benchmark wo man es an und abschalten kann - verglichen mit den übrigen DX12-Zugewinnen kaum zu spüren. Mal ganz davon abgesehen, dass ein Spiel nicht per se von AC profitiert. Die Spielsituation muss es begünstigen und der Entwickler muss es aktiv nutzen. Wie gut er das bei welchem Spiel für welche Karte mit welcher Architektur macht oder auch nicht macht wird nur die Zeit zeigen.

BookerDeWitt schrieb:
Du betrachtest auch nur die 1080 unter DX12, die dank Architektur an sich eben immer noch nicht wirklich davon profitieren kann. Wie gesagt, betrachte GCN, dann erkennst du die Vorteile. Zumal DX12 und Vulkan dank genereller Overhead-Reduzierung sicher nicht "unwichtig" sind, davon profitieren nämlich grundsätzlich alle und jeder.

Ich betrachte das was gebenchmarkt wurde. Mehr kann ich leider nicht betrachten. Dort geht es offensichtlich um Draw Calls und das CPU-Limit, welches mit DX12 aufgehoben wird und darüber hinaus über das Leistungsplus, oder auch -minus, wenn man Async Compute ein- oder ausschaltet. Natürlich profitiert jeder von DX12 und Vulkan. Das war auch gar nicht die Frage. Die Frage war welchen Zugewinn Async Compute zusätzlich bringt.

Computerbase hat das am 24.02.2016 zum Thema Leistungsexplosion durch DirectX 12 auch schonmal angeschnitten, aber die 1080 leider (noch) nicht mit in den Test eingefügt.
Ich wüßte schon gern wie Pascal sich in diesem Test schlagen würde.
EDIT: Man könnte das hier vielleicht hernehmen. Sieht nicht unbedingt schlecht aus. Ist auf jeden Fall kein Showstopper wo man (ich) bei ner Kaufentscheidung groß ins Grübeln käme.

BookerDeWitt schrieb:
Wieso DX12 wie DX10.1 enden soll musst du mir auch erklären

Ich sprach von Async Compute als DX12-Feature. AMD konnte DX10.1, nVidia konnte es nicht -> DX10.1 wurde nicht verwendet.

BookerDeWitt schrieb:
Der Kontext zu deiner Aussage ändert nicht den Wortlaut. Du generalisierst/verallgemeinerst.

"[...], wie bei AMD, die auf DX11 Optimierungen verzichtet haben[...]"

Der Kontext ändert aber die Bedeutung des Wortlauts. Ich beziehe mich in dem Post auf das CPU-Limit. Da wird nichts verallgemeinert. Höchstens wenn man es mit Gewalt so verstehen will. Da muß man aber schon ein eindeutig in eine Richtung gepoltes Radar haben.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Es gibt erst recht keinen Sinn zwei Dinge miteinander zu vergleichen von dem man eins nicht kaufen kann. Davon hab ich nichts. Theoretische Was-wäre-wenn Überlegungen sind für mich wenig hilfreich wenn ich mich für eine neue Grafikkarte entscheiden will.
Zurecht, dennoch frage ich mich, wieso dein Verbrauchsvergleich an erster Stelle kam? Wenn ich betrachte, dass eine 1070 unter DX12 gerade einmal die Leistung einer alten 28nm Fury erreicht, dann sehe ich das entweder als schwache Vorstellung des GP104-200 oder einer starken von GCN 1.2 in Fiji XT. Dies ist ein Aspekt, den ich definitiv als Käufer bedenken würde.

DocWindows schrieb:
Dann wäre es schön wenn man einfach nur DX12 Performance bewerten würde und nicht andauernd Async Compute separat für irgendwelche Performancedaten verantwortlich macht, wenn man dessen Effekt gar nicht bestimmen kann. Denn der Zugewinn ist - wenn man von dem einzigen Benchmark wo man es an und abschalten kann - verglichen mit den übrigen DX12-Zugewinnen kaum zu spüren. Mal ganz davon abgesehen, dass ein Spiel nicht per se von AC profitiert. Die Spielsituation muss es begünstigen und der Entwickler muss es aktiv nutzen. Wie gut er das bei welchem Spiel für welche Karte mit welcher Architektur macht oder auch nicht macht wird nur die Zeit zeigen.
Gut, dann sage ich, dass Pascal aufgrund seiner Nähe zu Maxwell keine guten DX12-Ergebnisse im GPU-Limit bringt. Woran das liegt? Zumindestens bei AMD weiß man, dass Asynchronous Shader dort die Leistung boosten.

Kohärent könnte man zwar von Maxwells fehlendem Asnyc-Shader-Support in Hardware, der im GPU-Limit für weniger Leistung unter DX12 als unter DX11 sorgt darauf schliessen, dass Pascal, bei dem man je nach Szenario dasselbe Phänomen beobachten kann immer noch keine gute Async-Shader-Unterstützung hat, aber ich unterlasse es lieber bevor es dich noch entzürnt. Allgemein scheint nVidia DX12 eben nicht zu schmecken.

DocWindows schrieb:
Ich betrachte das was gebenchmarkt wurde. Mehr kann ich leider nicht betrachten. Dort geht es offensichtlich um Draw Calls und das CPU-Limit, welches mit DX12 aufgehoben wird und darüber hinaus über das Leistungsplus, oder auch -minus, wenn man Async Compute ein- oder ausschaltet. Natürlich profitiert jeder von DX12 und Vulkan. Das war auch gar nicht die Frage. Die Frage war welchen Zugewinn Async Compute zusätzlich bringt.
Leider erlaubt nur Ashes of the Singularity einen Benchmark mit Async on vs. off. Der Entwickler selbst meinte, dass kein grosser Fokus auf Async-Shaders gelegt wurde, dennoch sehen wir durch diese gute Vorteile für AMD. Bei nVidia hingegen verliert die Generation immer noch an Leistung, was an sich gegen das Arbeitsprinzip von Asynchronous-Shadern ist. Deshalb ist die Unterstützung dafür auf nVidia-Seite immer noch ein Fragezeichen.

DocWindows schrieb:
Computerbase hat das am 24.02.2016 zum Thema Leistungsexplosion durch DirectX 12 auch schonmal angeschnitten, aber die 1080 leider (noch) nicht mit in den Test eingefügt.
Ich wüßte schon gern wie Pascal sich in diesem Test schlagen würde.
EDIT: Man könnte das hier vielleicht hernehmen. Sieht nicht unbedingt schlecht aus. Ist auf jeden Fall kein Showstopper wo man (ich) bei ner Kaufentscheidung groß ins Grübeln käme.
Es zeigt sich aber immer noch, dass DX11 auf Pascal manchmal schneller agiert, als das Prozessor-entlastende DX12, dass dazu auch noch für eine bessere Auslastung der Grafikkarte sorgen sollte. Dies zeigt irgendwie nur, dass mit Pascal und DX12 immer noch nicht alles recht im Lot ist. Mir wäre dies im Hinblick auf DX12 als Zukunft und der Langlebigkeit meiner Karte ein Dorn im Auge.

DocWindows schrieb:
Ich sprach von Async Compute als DX12-Feature. AMD konnte DX10.1, nVidia konnte es nicht -> DX10.1 wurde nicht verwendet.
Da kann ich dich beruhigen, denn im Gegensatz zu DX10.1 Zeiten, das ja als "fehlerhaft" wieder aus Assassins Creed herausgepatcht werden musste (war ja ein gewisser Hersteller schneller), hat ein AMD nun eins im Rücken:

Den Druck der großen Publisher, dass die Spieletitel auch ja auf die Leadplattform angepasst werden. Namentlich Konsolen, in denen GCN steckt und für das auf Asynchronous-Shader optimiert wird. Zumal AMD wieder in den neuen Konsolen stecken wird. DX12/Vulkan-Ports für den PC werden höchstwahrscheinlich mit Asynchronous-Shader-Support via Konsolen auf den Markt gebracht, weshalb es höchst unwahrscheinlich sein wird, dass Async-Shader als DX12-Feature ein ähnliches Schicksal wie DX10.1 ereilen wird.

DocWindows schrieb:
Der Kontext ändert aber die Bedeutung des Wortlauts. Ich beziehe mich in dem Post auf das CPU-Limit. Da wird nichts verallgemeinert. Höchstens wenn man es mit Gewalt so verstehen will. Da muß man aber schon ein eindeutig in eine Richtung gepoltes Radar haben.


DocWindows schrieb:
[...]"Weil nVidia den DirectX 11 Treiber optimiert hat, besonders die Sache mit dem CPU-Limit. Das sorgt dafür, dass DX12 bei nVidia nicht soviel Zugewinn bringt wie bei AMD, die auf DX11 Optimierungen verzichtet haben."

Ich sehe den Wortlaut immer noch als falsch an. AMD hat also gänzlich auf Optimierungen verzichtet?. So etwas erzählst du also einem neugierigen, vermutlichen neuem Forenmitglied? Das klingt eindeutig nicht nur problematisch, wenn man es aus dem Kontext reißt, sondern generell. Wenn du jetzt schon konstruktive Kritik an der Formulierung nicht erträgst und mit der Fanboy-Keule kommst, dann ist es eh sinnlos weiterhin darüber zu reden. Ausserdem wird es langsam OT.
 
Ich erkenne bei der großen Masse der Benchmarks nicht, dass NV mit DX12 großartige Probleme hätte. Auch in DX12 haben doch die Grünen zumeist die Nase vorn, oder können zumindest mithalten. Wen juckt es, dass der Vorsprung von NV in 2 von 30 Benchmarks nicht so enorm hoch ausfällt?

Außerdem würde ich mein Geld für die Zukunft eben ganz ausdrücklich nicht auf DX12 setzen, sondern auf Vulkan und da hat NV keine Konkurrenz. Unter OpenGL ist das aus Gründen, die ich nie verstanden habe schon immer so: schon die GeForce 1 damals (EDIT: wenn ich es mir so recht überlege sogar schon die TNT) und ab da jede NV Karte hat unter OpenGL geradezu dominiert. Die ersten Doom Benchmarks geben das gleiche Bild nun auch mit Vulkan wieder.
Ich habe bereits ausgeführt warum ich denke, dass Vulkan die Zukunft gehört: Multiplatform, Betriebssystemunabhängig usw. Naja, das muss man eben abwarten, aber die technisch interessanten Engines haben ja bereits Vulkanunterstützung angekündigt (id Tech 6, Unreal Engine 4, Source 2 usw.). Und ich hoffe ja wirklich, dass wir uns endlich vom MS-(DX-)Diktat lösen können...

Das kann man nun wirklich nicht wissen, dass Sony bei der PS5 nochmal auf AMD setzen wird. Denn die werden in erster Linie Leistung für 4k und VR, EDIT2: bei normalem Stromverbrauch (für eine schlanke Bauweise) und eine ordentliche/ausreichende Verfügbarkeit brauchen. Also mal abwarten... Ich würde eher auch darauf kein Geld setzen. Die PS4 + X-Box sind ja schon für 1080p zu schwach gewesen.
 
Zuletzt bearbeitet:
Silverback schrieb:
NV Karte hat unter OpenGL geradezu dominiert. Die ersten Doom Benchmarks geben das gleiche Bild nun auch mit Vulkan wieder.
Ich habe bereits ausgeführt warum ich denke, dass Vulkan die Zukunft gehört: Multiplatform, Betriebssystemunabhängig usw. Naja, das muss man eben abwarten, aber die technisch interessanten Engines haben ja bereits Vulkanunterstützung angekündigt (id Tech 6, Unreal Engine 4, Source 2 usw.). Und ich hoffe ja wirklich, dass wir uns endlich vom MS-(DX-)Diktat lösen können...
Wenn es nach der Argumentation ginge, wäre OpenGL schon sei Windows 10 die dominate Schnittstelle. Und die Unreal Engine 4 verwendet auch DX12 (und die machen das wohl nicht, weil Doppeltarbeit so viel spaß macht) und die wird wohl letztlich auch wieder weiter verbreitet sein, wie die anderen beide zusammen.

​Aber allgemein verstehe ich nicht so recht, weshalb immer eine Grafikschnittstelle (Vulkan) mit einer kompletten Sammlung von Programmschnittstellen verglichen wird.

Allgemein glaube ich jetzt noch nicht daran, dass Vulkan DirectX verdrängen könnte. Eher, dass sie Parallel zu einander Existieren werden.
 
Zuletzt bearbeitet:
Vulkan (OpenGL ist ja jetzt Vulkan und wird schon länger nicht unter dem Namen OpenGL weiter entwickelt) wurde ja erst im Februar veröffentlicht. Also die Veröffentlichung muss man ja schon abwarten und dann erst kann etwas anfangen sich durchzusetzen. Und DX wird natürlich nicht komplett verschwinden, das ist mir klar. Aber ob DX (und dann speziell 12) so dermaßen dominant bleiben wird bezweifele ich stark und ich sehe die Zukunft eher bei Vulkan. Aber das ist alles natürlich nur Spekulation. EDIT: aber du hast natürlich Recht: es sollte immer Direct3D heißen und nicht DX wenn man von der Grafik API redet, na du weißt aber was gemeint ist.
 
Zuletzt bearbeitet:
Silverback schrieb:
aber du hast natürlich Recht: es sollte immer Direct3D heißen und nicht DX wenn man von der Grafik API redet, na du weißt aber was gemeint ist.
Ja, ich weiß schon was gemeint ist, aber ich glaube manchmal viele andere nicht, denn ich habe meine Zweifel, dass sich Direct3D alleine so hätte durchsetzen können. Es war das Gesamtpacket von DirectX. Gegen das muss man ankommen und nicht nur alleine gegen Direct3D.
 
BookerDeWitt schrieb:
Zurecht, dennoch frage ich mich, wieso dein Verbrauchsvergleich an erster Stelle kam?

Weil mir der Verbrauch persönlich sehr wichtig ist, und es für mich eine gute Hardware auszeichnet wenn ich wenig (Energie) reinstecken muss und dafür viel (FPS) herausbekomme.

BookerDeWitt schrieb:
Kohärent könnte man zwar von Maxwells fehlendem Asnyc-Shader-Support in Hardware, der im GPU-Limit für weniger Leistung unter DX12 als unter DX11 sorgt darauf schliessen, dass Pascal, bei dem man je nach Szenario dasselbe Phänomen beobachten kann immer noch keine gute Async-Shader-Unterstützung hat, aber ich unterlasse es lieber bevor es dich noch entzürnt. Allgemein scheint nVidia DX12 eben nicht zu schmecken.

Das Schöne ist, dass man die Async Compute Leistung bei Pascal benchmarken kann. Wenn du diese Resultate nicht zur Kenntnis nehmen willst, oder bewusst negativ auslegen möchtest, bitte schön.

BookerDeWitt schrieb:
Es zeigt sich aber immer noch, dass DX11 auf Pascal manchmal schneller agiert, als das Prozessor-entlastende DX12, dass dazu auch noch für eine bessere Auslastung der Grafikkarte sorgen sollte. Dies zeigt irgendwie nur, dass mit Pascal und DX12 immer noch nicht alles recht im Lot ist.

Langsam glaube ich du willst mich ver**schen. Du hast doch bereits geschrieben dass du sehr wohl über die Optimierungen von nVidia unter DX11 Bescheid weißt, und mich getadelt weil dir ein Wort gefehlt hat. DX11 ist von nVidia treiberseitig optimiert worden. DX12 ist sehr neu und kann treiberseitig nicht stark optimiert werden. Die Optimierung fällt eher dem Spielehersteller zu als dem Grafikhardwarehersteller.

BookerDeWitt schrieb:
Den Druck der großen Publisher, dass die Spieletitel auch ja auf die Leadplattform angepasst werden. Namentlich Konsolen, in denen GCN steckt und für das auf Asynchronous-Shader optimiert wird. Zumal AMD wieder in den neuen Konsolen stecken wird. DX12/Vulkan-Ports für den PC werden höchstwahrscheinlich mit Asynchronous-Shader-Support via Konsolen auf den Markt gebracht, weshalb es höchst unwahrscheinlich sein wird, dass Async-Shader als DX12-Feature ein ähnliches Schicksal wie DX10.1 ereilen wird.

Schöne Theorie. Leider läuft die Praxis oft anders. Angesichts der vielen schlechten PC-Ports der letzten Monate glaube ich eher, dass man Async Compute eher aus einem Spiel rausnimmt als es darauf zu optimieren. Zumindest dann wenn es nicht essenziell wichtig für den Spielablauf ist. PS4 und XBONE gibts schon sehr lange, aber die Qualität der Ports hat sich nicht wirklich verbessert. Weder auf GCN-Karten noch auf Maxwell oder Kepler. Time is money. Wenn das Spiel läuft wirds released.

BookerDeWitt schrieb:
Wenn du jetzt schon konstruktive Kritik an der Formulierung nicht erträgst und mit der Fanboy-Keule kommst, dann ist es eh sinnlos weiterhin darüber zu reden. Ausserdem wird es langsam OT.

Ich habe bereit zig mal erklärt wie das Satz zu verstehen ist und du bemühst dich immer noch geflissentlich ihn falsch zu verstehen. Diesbezüglich ist das Wort Fanboy fehl am Platze. Querulant wäre passender. Ich überlege grad ernsthaft diese ganze Diskussion selbst fürs Aquarium anzumelden. Das ist echt nicht mehr feierlich. Vor allem das alles in das Dedckmäntelchen der "konstruktiven Kritik" einzupacken. Bah!
 
Zuletzt bearbeitet:
Jetzt weiss man auch, warum Nvidia die Vorstellung der 1070 so vorgezogen und damit ein totales Review-Chaos angerichtet hat, bei dem selbst eine Seite wie Computerbase keine Karte zum testen bekommen haben.

Nach der Vorschau der AMD RX480 ist die 1070, die erst in einigen Wochen ueberhaupt gekauft werden kann, einfach nur noch die haelfte Wert.
 
@GreatEvil: Wieso soll die 1070 erst in einigen Wochen gekauft werden können? Am 10. soll sie verfügbar sein und damit ist vermutlich auch käuflich erwerblich gemeint

DocWindows schrieb:
Die längsten Balken zeugen nicht automatisch von der besten Technik.
Aus dem Kontext gerissen absolut signaturreif :D
 
@ GreatEvil: die 480 spielt doch in einer ganz anderen Leistungs-Liga. Die bringt FPS wie eine 390 oder OC 970er (und das sind alte Grakas). Das wird sich natürlich auch im Preis niederschlagen: ist doch logisch, dass für die 480 nicht mehr als die 200-300 Dollar (je nach Ausstattung, 4 oder 8 GB) verlangt werden können. Also wenn du schon so argumentieren willst: die 1070 wird definitiv ca. ein halbes bis dreiviertel Jahr vor ihrer AMD Konkurrenz verfügbar sein, denn die ist von AMD selbst für den Herbst angekündigt.
 
Hmm die GTX 1070 wäre schon nice :)
Aber kann mir hier jmd. sagen ob die zu der i5 4570 CPU passen würde??
Ich denke nämlich, die hat nicht genug Saft :(
 
Silverback schrieb:
Außerdem würde ich mein Geld für die Zukunft eben ganz ausdrücklich nicht auf DX12 setzen, sondern auf Vulkan und da hat NV keine Konkurrenz. Unter OpenGL ist das aus Gründen, die ich nie verstanden habe schon immer so: schon die GeForce 1 damals (EDIT: wenn ich es mir so recht überlege sogar schon die TNT) und ab da jede NV Karte hat unter OpenGL geradezu dominiert. Die ersten Doom Benchmarks geben das gleiche Bild nun auch mit Vulkan wieder.
Ich habe bereits ausgeführt warum ich denke, dass Vulkan die Zukunft gehört:

Dir ist aber schon klar, dass Vulkan zu großen Teilen von Mantel profitiert hat?
Ergo sollte AMD da deutlich profitieren im Vergleich zu DX11 und mit NV gleichziehen, falls alle "Features" verwendet werden.
Bis dato gibts von AMD und NV keine ähnlich schnellen GPU's die man in Vulkan benchen könnte. Ist also offen und mit DX12 sieht man ansatzweise schon das beide ähnlich schnell sind.
Gut für uns Kunden!
 
Um mal kurz in den "OT" Bereich zu gehen:

Werden am 10. Juni eigentlich auch die Customs der 1070 verkauft, oder haben diese auch eine kurze Sperrfrist bis sie verkauft werden dürfen ?
 
Ich hoffe, der CB Test zu der GTX 1070 geht bald online. Warte mir schon die Beine in den Bauch.
 
@ Tappy: ist alles richtig was du sagst. Vulkan ist ja auch Async fähig, soweit ich weiß. Auch das wird AMD entgegen kommen. Aber soweit ich weiß basiert es trotzdem auf OpenGL und da war NV traditionell immer sehr stark. Aber du hast recht, AMD könnte bei Vulkan aufschließen auf diesem Bereich. Muss man abwarten...
Ich hoffe nur stark, dass sich Vulkan als API durchsetzt und damit MS + Direct3D als einziges Betriebssystem für Gamer endlich abgelöst wird, oder zumindest gleichwertige Konkurrenz bekommt.
 
Silverback schrieb:
Ich hoffe nur stark, dass sich Vulkan als API durchsetzt und damit MS + Direct3D als einziges Betriebssystem für Gamer endlich abgelöst wird, oder zumindest gleichwertige Konkurrenz bekommt.
Darauf ein dreifaches Amen! Möge das Flehen erhört werden.
... Allerdings deutet die von MS angestrebte Vernetzung/Zusammenführung von XBOX/WIN10 nicht unbedingt darauf hin.
 
Zurück
Oben