News Nvidia GeForce GTX 1070: Titan-X-Leistung bei GTX-960-Verbrauch

nebulus schrieb:
Nein, haben Sie nicht, steht ein paar Nachrichten vorher hier.

?
Wo bitte?

"CB hat wohl keine GTX1070 zum Testen bekommen...ist aber auch nicht so wichtig, da wohl wirklich kaum Jemand die Founder's Edition kauft, die auf allen Ebenen schlechter sein wird als eine Customlösung. "

Du meinst doch wohl nicht diesen Post oder? Weil EAPOCS ja eine absolut zuverlässige Quelle ist.
 
DocWindows schrieb:
Und wenn ich die Tests zu AotS und den Sondertest zu Async Compute im großen Review zur GTX1080 auf Hardwareluxx anschaue, dann sehe ich momentan keinen besonderen Grund warum ich ausgerechnet AMDs Async Compute bräuchte.

AMDs Async-Compute ist in der Betrachtung leistungsmässig immer noch deutlich besser
Wenn man z.B. Total War: Warhammer ansieht, wo eine alte Fury ohne X mit gleichen GFlops eine 1070 überholt, dann ist AMDs Ansatz meiner Ansicht nach noch deutlich überlegen. Vor allem verliert Pascal je nach Szenario unter DX12, wie Maxwell immer noch Leistung.

DocWindows schrieb:
Dann denk dir doch einfach noch das Wort "diese" zwischen "auf" und "DX11" dazu. Kannst auch gerne eine eigene Erklärung formulieren.
Wieso hast du denn überhaupt an erster Stelle solch eine Formulierung verwendet? Um den unerfahrenen Forenmitglied die richtige Meinung mitzugeben? :D

DocWindows schrieb:
Dich erleuchte ich schonmal gar nicht, weil mir dein Ton und die "von oben" herablassende Art nicht gefällt. Das fällt immer öfter und immer unangenehmer auf.

Welcher Ton und welche herablassende Art? Ich verlange Quellen und Belege für Argumente, die mir spanisch vorkommen. Ist das etwa problematisch? Falls mein Tonfall wirklich jemals zu sarkastisch/herablassend(?) war, dann tut es mir Leid, du hast meine vollste Entschuldigung.

Ich sehe es nur nicht gerne, wenn Unsinn, den niemand belegen kann in den Foren steht und un-/kaum erfahrene User verwirrt. (Und ja, damit sind zwei gewisse User, die hier im Thread ihre Posts hinterlassen gemeint).
 
Ah, danke für die Aufklärung. Das ist natürlich ziemlich bitter für ComputerBase :D
Nvidia hätte der Gesellschaft einen Gefallen getan indem sie die Karte nicht der computerBILD, sondern CB geschickt hätten ;)
 
BookerDeWitt schrieb:
Selbst die "alte" Fury ist bei mehreren Benches in AotS, sowie in Hitman und Total War: Warhammer unter DX12 gleichauf wie die neue 1070.

Die "alte" Fury hat dafür den "neuen" HBM-Speicher, und der Preis dafür ist die halbierte Kapazität.

Preis-Leistungs-Kracher wie damals die HD 5850 sind beide nicht, aber die GTX 1070 ist näher dran als die Fury.
 
Scoty schrieb:
Macht bei Division keine gute Firgur, so so. Wie kommst du darauf ohne es zu Wissen?

Indem ich mir den Bench zu Division hier ansehe?
 
Loro Husk schrieb:
Ah, danke für die Aufklärung. Das ist natürlich ziemlich bitter für ComputerBase
Bitte, gern geschehen. Und auf dieser Aussage basiert auch die. Das ist aber nur eine Vermutung.
 
Bild und Base kann man ja mal verwechseln :freak:
 
SKu schrieb:
Indem ich mir den Bench zu Division hier ansehe?

Da sieht es aber auf anderen Benchmarks anders aus bei Division. Dort ist sie, wie erwartet, hinter der 1080.
 
Kasmopaya schrieb:
Meine Titan X hält wieder 4 Jahre durch, inkl. der Vram. Um was wetten wir. :D Dazu dann noch mein extrem lang lebiger Intel 6 Kerner und ab gehts bis 2019.

Naja, das kommt darauf an wie Du Langlebigkeit definierst, die 2.Generation von PC VR wird Deine Titan X mit Sicherheit nicht mehr stemmen können, aber fairerweise wusstest Du das beim Kauf auch nicht (dass solche Anforderungen auf Dich bzw. Deine Karte zukommen würden/könnten). Unter WQHD/1440p gehe ich auch davon aus, dass die Titan X sogar mit einem i7 4-Kerner noch einige Jahre reichen wird bei aktuellen Titeln, bei schlecht programmierten Titeln oder Gameworks-Unfällen müsste evt. das AA abgestellt werden.

Kasmopaya schrieb:
Das stimmt im Moment schon, aktuell zocke ich sogar Witcher 2 mit UHD Textur mods auf 4k mit getackerten 60FPS. Ein Genuss mit DSR auf Anschlag. Aber um das geht es gar nicht, das eine neue Titan die ersten 2 Jahre viel zu viel Rohleistung und Vram hat ist klar. Mir geht es eher um das 3. und 4. Jahr. Da trennt sich dann die Spreu vom Weizen. Welche GPU hat hier noch ausreichend Rohleistung und vor allem Vram für max. Texturen etc. Das war bei mir bis jetzt immer der Fall. Vielleicht mal Schatten ein wenig runter, Unschärfe Effekte etc. Aber meist sind max. Details bis zum Schluss drin. 30% mehr Pixel sind hier schon gefährlich, da ich die Rohleistung an anderer Stelle irgend wie wieder rein bekommen muss. OC mache ich nicht die Karte läuft eh schon ab Werk mit 1300Mhz. Ich hab hald den Vorteil bei 21:9 1080p das ich die nativ auf 16:9 umstellen kann. Dann hat man zwar schwarze Balken aber die Rohleistung ist wieder frei und die Bildqualität stimmt trotzdem. Nur wegen der Option traue ich mir das überhaupt.

Das glaube ich gerne, falls ich bei einer R9 490 (Vega 10 mit 8GB HBM2) anstelle einer R9 480X (wobei das da zum Teil sicherlich auch ginge bei geschätzter Leistung einer normalen Fury) zuschlagen sollte, werde ich mir auch VSR geben bis irgendwann dann ein nativer 4K/UHD OLED/HDR DP1.3 120Hz Free-Sync Monitor winken sollte (aber das wird noch eine ganze Weile dauern).

Naja, ich glaube allerdings, man würde immer noch günstiger mit ausreichend bzw. gleicher Leistung als durch den Kauf einer hochpreisigen Titan (X) Karte davon kommen, wenn man im gleichen Zeitraum die richtigen Performanceklassekarten kaufen würde, aber natürlich würde das verlangen, dass man mit dem Kauf richtig liegt (bspw. eine R9 390 anstelle einer verkrüppelten GTX 970 und dann eine R9 490, wobei man mit einer GTX 1070 wohl auch hinkommen würde trotz vergleichsweise schwachem GDDR5/Speicherinterface, dann aber mit den nVidia Karten preislich vermutlich schlechter liegen würde über den Gesamtzeitraum). Noch sind wir ja nicht einmal bei 8GB angelangt, obwohl im kommenden Jahr mit Sicherheit die 6GB erreicht/gefordert werden wird, momentan 4GB noch ausreichen (wobei ich HBM höher/langlebiger als GDDR5 einschätze).

Mit 8GB HBM2 dürfte man aber schon mit 12 GB normalen GDDR5 (wie bei Deiner Titan X verbaut) mindestens gleich liegen, wobei das natürlich von der Texturgröße abhängig sein wird, 12 oder gar 16 GB HBM2 wären ideal für 4-5 Jahre. Ich glaube aber fast, dass nVidia so geizig sein könnte bei BigPascal (GTX 1080Ti und Titan) auch nur GDDR5X zu verbauen (vielleicht etwas höher getaktet und nicht das Minimum wie bei GTX 1080), zumal es nicht der GP100 sondern GP102 Chip werden dürfte).

Kasmopaya schrieb:
Bin mir nicht sicher ob ein nativer 4k Monitor sogar mit big Volta(ca. 2019) überhaupt ein Thema wird, die Entwickler stecken ja die Rohleistung der neuen Karte in neue Effekte, im Prinzip ist hier nie was frei für so eine hohe Rohleistung, außer man hat eine brand neue GPU so wie ich gerade. Mir macht das aber auch nix aus. Ich bin absolut begeistert von DSR Faktor 4 und hab kein Problem damit meine 1080p Auflösung dann damit aufzuwerten. Ob ein nativer 4k Monitor da ein noch besseres Bild hat interessiert mich nicht. Ich bin schon zufrieden mit der Qualität von DSR Faktor x4. Und zwar so flexibel wie ich das gerne hätte. Einfach abschaltbar wenn die Rohleistung dafür nicht reicht. oder was zur Zeit sehr oft der Fall ist, der Entwickler das UI viel zu winzig dann darstellt. Bis jetzt hab ich nur 2 Spiele durch diesen Umstand auf 4k zocken können, GTA 4 und Witcher 2. Beide male ein Genuss, aber "must have" für mich definitiv nicht. Reicht meine Rohleistung nicht aus zb. bei einem Game das keine Kantenglättung hat(GTA 4) für 4k Auflösung, wird das Game beiseite gelegt und auf die nächste GPU gewartet. Ich kaufe keine neue Hardware nur weil ein Game das gerne so hätte. Da muss das Game dann warten.

Ja, das stimmt natürlich, zumindest bei nVidia-gesponsorten Spielen (Gamesworks und deren anderer, proprietärer Kram) könnte die Zusatzleistung dann schnell mit diesen Zusatz-Spielereien verpuffen, allerdings kann man diese Effekte ja meistens noch abstellen. Wie gesagt, ich habe mich bisher noch nicht an Downsampling versucht (auch bei älteren Titeln nicht) da meine alte Keplerkarte dafür m.E. ein wenig schwach auf der Brust ist, aber mit der kommenden AMD GPU (auch wenn ich noch bis zur Vega10 Veröffentlichung mit einem Neukauf warten werde) werde ich das in jedem Fall antesten und bin schon positiv gestimmt, wenn Du davon so begeistert bist :).

Da ich in der Regel sowieso Spiele im Ausverkauf bei GoG oder Steam erwerbe und somit meist ältere Spiele laufen habe und aktuelle Spiele meist nur über Kickstarter (BattleTech und The Bard's Tale IV in 2017) bekomme, dürfte das auch kein Problem sein. Star Citizen dürfte da vermutlich wohl derzeit am anspruchsvollsten für mich sein und damit werde ich wohl die Anschaffung einer neuen Karte am besten (mir selbst gegenüber) rechtfertigen können, zumal eine R9 390 von Chris Roberts zur Entwicklung des Spiels vorwiegend genutzt wurde und (8 GB GDDR5 Speicherausbau) eigentlich Mindestvoraussetzung sein dürfte für flüssiges spielen.

Ich freue mich aber schon auf morgen Abend/Nacht (22Uhr) und hoffentlich wird AMD da endlich die Polaris Kartenserie vorstellen, wobei ich mir einen Teaser zu den Vega-Chips erhoffe, auch um den GTX 1070/1080 Karten rechtzeitig Wind aus den Segeln zu nehmen:

https://twitter.com/amd_deutschland/status/737182375113822208

Möglich dürfte so etwas schon sein, denn ein Vega10-Karten Erstexemplar ist vorstellbar für eine kleine Spieledemonstration, auch wenn HBM2 momentan noch recht teuer ist (aber für die P100 Karten von nVidia schon geliefert/verbaut wird) und noch etwas entfernt von kostendeckender Massenproduktion, könnte so eine kleine Investition in einen Vorzeigeprototypen einer R9 490(X) marketing-technisch sehr clever sein um GTX 1070 und 1080 zu kontern bzw. potentielle Käufer zum warten auf AMDs Vega10 anzuhalten.
 
Zuletzt bearbeitet:
JMP $FCE2 schrieb:
Die "alte" Fury hat dafür den "neuen" HBM-Speicher, und der Preis dafür ist die halbierte Kapazität.

Preis-Leistungs-Kracher wie damals die HD 5850 sind beide nicht, aber die GTX 1070 ist näher dran als die Fury.

Soll das ein schlechter Scherz sein?

Wo bitteschön habe ich irgendwo ansatzweise behauptet, dass die Fury ein P/L-Kracher ist/bessere P/L als 1070 bietet/whatever, was auch immer deine Aussage bedeuten soll? Ich habe niemals behauptet, dass die Fury das bessere Produkt ist, höchstens vielleicht die bessere DX12-Architektur.

Es ging mir nur allgemein darum, dass die Pascal-Architektur immer noch keine gute/schlechtere Leistung unter DX12 bringt als unter DX11 oder gegen AMD.

Vor allem als letzter Gedanke: woran machst du denn überhaupt irgendetwas hinsichtlich P/L der 1070 fest?

a) gibt es noch keine aussagekräftigen bekannten Preise für Custom-Designs

b) vergleicht normalerweise nicht Vorgängergeneration mit Nachfolger bei Grafikkarten. Vor allem, da es diesmal zwei Nodes auf einmal sind. Das ein kleinerer Chip bei zwei Fertigungssprüngen mehr Leistung bei weniger Produktionskosten als ein alter Fat-Die besitzt sollte an sich auch logisch sein.
Es wäre ja nicht im Sinne der Hersteller, dass Shrinks ein schlechteres Leistung/Herstellungskosten-Verhältnis haben und genau aus diesem resultiert dann die P/L für Kunden.
 
Silverback schrieb:
übrigens scheint es so, dass NV nicht auf das Pferd DX12 gesetzt hat / setzt, sondern auf Vulkan. Ich bin überzeugt, dass das auch die deutlich bessere Entscheidung ist, denn Vulkan läuft auf jedem Smartphone, PC und Konsole und ist Betriebssystem unabhängig, d.h. die auf Gewinnerzielung und Gewinnmaximierung ausgerichteten Spieleentwickler werden da in Zukunft bestimmt ganz angetan sein, denn sie müssen einmal programmieren und sie können x-fach rausbringen.

Vulkan besteht ja zu großen Teilen aus Mantle, schon lustig wenn man sich das mal so überlegt.
AMD wird wie in DX12 auch in Vulkan mehr Plus rausholen, weil DX11 so "schlecht" läuft und Async ja auch bei Vulkan supported wird..
Mal sehen wer es besser vermarkten kann, aber nutzbar ist Vulkan noch weniger als DX12 aktuell.
Aber schonmal gut, dass Pascal sogar ein Plus hinlegt bei Vulkan/DX12.
Ist gut für beide Seiten. :)
 
BookerDeWitt schrieb:
AMDs Async-Compute ist in der Betrachtung leistungsmässig immer noch deutlich besser
Wenn man z.B. Total War: Warhammer ansieht, wo eine alte Fury ohne X mit gleichen GFlops eine 1070 überholt, dann ist AMDs Ansatz meiner Ansicht nach noch deutlich überlegen. Vor allem verliert Pascal je nach Szenario unter DX12, wie Maxwell immer noch Leistung.

Ich finde leider keinen Benchmark der Leistungszuwächse aufzeigt die auf Async Compute zurückzuführen sind. Nur welche die DX12 allgemein benchmarken ohne Async Compute on/off separat aufzuführen. Hardwareluxx hat das im Rahmen des großen Tests zur 1080 bei AotS gemacht und dort waren die Unterschiede eher mau. Dass eine Fury in einem DX12 Spiel hohe Zuwächse hat, erwarte ich auch von einer Karte mit doppeltem Tonga-Chip und Shadern ohne Ende für 650 Euro und einer Stromaufnahme jenseits von Gut und Böse (verglichen mit einer 980 oder 1070).

Finds im Übrigen auch lustig dass du die Fury jetzt schon als "alt" bezeichnest, wo sie doch noch nicht mal ein Jahr alt, und überdies das Leistungsfähigste ist, was AMD derzeit anbietet.

BookerDeWitt schrieb:
Wieso hast du denn überhaupt an erster Stelle solch eine Formulierung verwendet? Um den unerfahrenen Forenmitglied die richtige Meinung mitzugeben? :D

Weil jeder außer dir den Kontext versteht.

BookerDeWitt schrieb:
Welcher Ton und welche herablassende Art? Ich verlange Quellen und Belege für Argumente, die mir spanisch vorkommen. Ist das etwa problematisch? Falls mein Tonfall wirklich jemals zu sarkastisch/herablassend(?) war,...

Siehe z.B. die Diskussion mit Hardware_Hoshi über Wafer und deren Kosten in diesem Thread. Es macht echt keinen Spaß mehr da mitzulesen.
 
Zuletzt bearbeitet:
Smagjus schrieb:
Computerbase hatte übrigens tatsächlich kein Sample bekommen.
Meine These dazu:
CB hat es gewagt, die 1080 unter realistischen Bedingungen in einem Gehäuse zu testen (anstatt in einem offenen Teststand) und außerdem die Drosselung des Boost-Taktes nach weniger als 20min sowie das thermale Limit von ~83°C deutlich herausgestellt.

Deswegen hat Nvidia jetzt zu "erzieherischen Maßnahmen" gegriffen -> 1070-Testsample geht an ComputerBild statt ComputerBase.
Damit CB lernt, beim nächsten Mal doch bitte ein genauso unkritisches Gejubel von sich zu geben wie die anderen gleichgeschalteten Hardware"test"seiten.

Hier werdet Ihr erwähnt -> 5:31
https://youtu.be/myDYnofz_JE?t=5m31s
 
Zuletzt bearbeitet:
StockholmSyndr. schrieb:
Meine These dazu:
CB hat es gewagt, die 1080 unter realistischen Bedingungen in einem Gehäuse zu testen (anstatt in einem offenen Teststand) und außerdem die Drosselung des Boost-Taktes nach weniger als 20min sowie das thermale Limit von ~83°C deutlich herausgestellt.
Deine These kann nicht stimmen, da über Samples nicht von heute auf morgen entschieden wird. Schließlich muss die Redaktion die Karte einige Tage lang haben, um auch wirklich alles Tests zu machen.
 
DocWindows schrieb:
Ich finde leider keinen Benchmark der Leistungszuwächse aufzeigt die auf Async Compute zurückzuführen sind. Nur welche die DX12 allgemein benchmarken ohne Async Compute on/off separat aufzuführen. Hardwareluxx hat das im Rahmen des großen Tests zur 1080 bei AotS gemacht und dort waren die Unterschiede eher mau. Dass eine Fury in einem DX12 Spiel hohe Zuwächse hat, erwarte ich auch von einer Karte mit doppeltem Tonga-Chip und Shadern ohne Ende für 650 Euro und einer Stromaufnahme jenseits von Gut und Böse (verglichen mit einer 980 oder 1070).

Finds im Übrigen auch lustig dass du die Fury jetzt schon als "alt" bezeichnest, wo sie doch noch nicht mal ein Jahr alt, und überdies das Leistungsfähigste ist, was AMD derzeit anbietet.

Die Fury ist alt im Gegensatz zur 1080/1070, mit der sie verglichen wird. Wenn diese ältere Karte besser/gleichauf mit der neuen Generation in mehreren DX12-Games ist, dann spricht das entweder für eine starke DX12-Leistung der Fury oder eben einer schwachen des GP104, was auch nicht verwundern sollte, schließlich ist es an sich nur ein leicht überarbeiteter Maxwell mit höherem Clock-Speed und wie nVidia ja mittlerweile bestätigt hat kann Maxwell keine Asynchronous Shader, sehr zum Leidwesen jener, die hier in den Foren stetig das Gegenteil beweisen wollten.

http://www.eteknix.com/pascal-gtx-1080-async-compute-explored/

Hier ist relativ anschaulich und leicht erklärt, welche Verbesserungen Pascal wirklich mit sich bringt.

Und nur so am Rande: Die Fury kostete lange Zeit genau so viel wie eine 980, ergo um die 500€. Der Rest deiner Aussagen ist schon etwas sehr übertrieben/überspitzt, aber darauf gehe ich lieber nicht ein, sonst tituliert man mich wieder sinnlos als Fanboy :D

DocWindows schrieb:
Weil jeder außer dir den Kontext versteht.
Ist dem so?

"AMD hat deren Karten massiv auf DX12 optimiert, weshalb sie so gut abschneiden, nVidia hat hingegen nichts gemacht"

Klingt irgendwie nicht so prickelnd, nämlich eher wie ein Bash, nur diesmal andersherum. Sollte nur das Problem mit deiner Aussage verdeutlichen, natürlich hat nVidia sich auch mit bei DX12 bemüht :)


DocWindows schrieb:
Siehe z.B. die Diskussion mit Hardware_Hoshi über Wafer und deren Kosten in diesem Thread. Es macht echt keinen Spaß mehr da mitzulesen.

Hardware_Hoshi schrieb:
[...]Laie[...];[...]Clown[...];[...]0815-Forist[...];[...]Unerfahrenheit[...] etc. pp.

Solch ein netter Unterton zieht sich durch jeden seiner Beiträge. Wieso wirfst du mir also "unhöfliches Verhalten" vor, wenn seine Beiträge gespickt mit unterschwelligen Beleidigungen und Anschuldigungen sind? Finde doch ähnliche Aussagen in meinen Texten? (Viel Glück bei der Suche).

Der liebe Herr Hardware_Hoshi meinte, dass die Kosten der 1080 dadurch erklärt werden können, dass die 16nm-Wafer das doppelte von 28nm-Wafern kosten. Verlassen hat er sich dabei auf Aussagen zu Zahlen anno domini 2014! Seine Quelle wollte er nicht einmal posten, ergo etwas beweisen.

Ich hingegen habe ihn auf Logikfehler seines Posts aufmerksam gemacht (Yield etc..), worauf er mich als unwissender Laie hinstellen wollte, bis ich aktuelle Zahlen gepostet habe, die von einem Wafer-Aufpreis von nur 37% ausgehen. Seitdem herrscht Ruhe, es kam keine Rechtfertigung, vor allem keine Entschuldigung für die unterschwelligen Vorwürfe meiner Beschränktheit/ whatever. Ein direktes Fehlverhalten in meiner Tonwahl und Argumentation sehe ich in meinen Beiträgen nicht, wenn jemand Aussagen ohne Belege stellt, meine eigenen Aussagen verdreht (Stichwort:Strohmänner) oder ablenkt und beleidigend wird, dann muss er damit rechnen, dass ich versuche ihn mit Argumenten zu zerlegen.
 
BookerDeWitt schrieb:
Die Fury ist alt im Gegensatz zur 1080/1070, mit der sie verglichen wird. Wenn diese ältere Karte besser/gleichauf mit der neuen Generation in mehreren DX12-Games ist, dann spricht das entweder für eine starke DX12-Leistung der Fury oder eben einer schwachen des GP104

Ich sehe keine schwache Leistung des GP104, denn er erreicht diese Leistung mit einem Bruchteil der Energieaufnahme. Die längsten Balken zeugen nicht automatisch von der besten Technik.

BookerDeWitt schrieb:
schließlich ist es an sich nur ein leicht überarbeiteter Maxwell mit höherem Clock-Speed und wie nVidia ja mittlerweile bestätigt hat kann Maxwell keine Asynchronous Shader, sehr zum Leidwesen jener, die hier in den Foren stetig das Gegenteil beweisen wollten.

Wo du immer so auf Belege stehst: Gibt es nun einen Benchmark der die Auswirkungen von Async Compute in Warhammer zeigt, oder nicht? Es wird immer sehr gerne betont wie wichtig das doch ist, aber was bringt es denn nun konkret?

Das hier ist der einzige Test den ich diesbezüglich finden kann. Wenn das alles ist was AC bringt, hat es das Potential genauso wichtig zu werden wie DX 10.1. Da hält sich das "Leidwesen" doch sehr in Grenzen.

BookerDeWitt schrieb:

Ja

BookerDeWitt schrieb:
"AMD hat deren Karten massiv auf DX12 optimiert, weshalb sie so gut abschneiden, nVidia hat hingegen nichts gemacht"
Klingt irgendwie nicht so prickelnd, nämlich eher wie ein Bash, nur diesmal andersherum.

Wo ist dein Kontext? Hab ich auch nur einen Satz geschrieben?
Aus dem Zusammenhang gerissen klingen beide Sätze komisch. Darum habe ich auf den Kontext hingewiesen.
 
Zuletzt bearbeitet:
Zurück
Oben