• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News The Witcher 3: Nvidia arbeitet an FPS-Problemen von Kepler-GPUs

Finds irgendwie erbärmlich. Sitzt n ganzer Haufen an Leute vor den PCs die nur darauf warten nen Bash loszutreten, weil se keine Arbeit haben - Sieht man schon an den Kommentaren in den Foren "I go Red forever and ever no more Green" ... die Leute erwarten tatsächlich, dass alles Perfekt funktioniert in der heutigen Zeit.

Beide Hersteller leisten sich solche Probleme und machen teils Versprechungen die nicht eingehalten werden. Dann läuft n Spiel halt mal schlecht und sofort gehts los, die Arbeitslosen prügeln sich um die beste Verschwörungstheorie...

Witzig ists, wenn man Benchmarks einer Quelle nimmt und selber damit wahrscheinlich nichts zu tun hat, aber darüber spricht. Vllt ist die Quelle ja scheisse und wird bezahlt?
Hab schon sehr häufig Benchmarks gesehen, da muss ich mich fragen mit welchen Mitteln die arbeiten, wenn ich mit dem selben Setup nicht solche Frames zaubern kann...

Solange aber keiner ein Insider ist und Fakten darlegen kann, sind die Leute alles nur dicke Blender und Besserwisser die letztlich gar nichts wissen.
 
Hmmm ich persönlich spiele komplett auf Ultra mit deaktiviertem Hairworks was die Performance auf meiner GTX980 massiv gesteigert hat. (+20fps im Schnitt).

Allerdings bin ich auch blind denke ich, denn ich sehe keinen Unterschied mit Hairworks an oder aus.
 
also ich vergebe ja nvidia fast alles. liebe nvidia mein leben lang, hatte nur gute erfahrungen mit nvidia grakas usw

aber falls sich das als wahr herausstellen sollte früher oder später würde ich STARK ins grübeln kommen ob ich nvidia jemals nochmal kaufe.

morgen kaufe ich mir vermutlich project cars. und WEHE wenn das nicht einwandfrei läuft. 30+fps sollte ich mit meinem system (signatur) ja hoffentlich in 1080p mit maximierten einstellungen bekommen (auf msaa kann ich verzichten aber sonst sollte alles maximiert sein)
 
HominiLupus schrieb:
Maxwell ist größer in Die size und Transistoranzahl als Kepler. Das ist also ein dicker fetter Nachteil.

wie vergleichen hier eine 780 mit einer 980 -- ok?
~7 Mrd Transistoren bei 533 mm² Fläche und heute kommt man bei gleicher Leistung mit 5,24 Mrd Transistoren aus, die eine Fläche von 398 mm² haben.

Wir könnten jetzt noch die Klasse darunter vergleichen:
also eine GK 760 und co mit einem GK 104 und hätte dann 3,54 und 294 mm² die aber so viel Rechenleistung wie eine GTX 960 960TI und ihrerseits einen GM206 mit 2,94 mrd Transistoren und 227 mm² haben. jetzt nicht mir bench picking anfangen sondern mal als querschnitt über alles gesehen ist das das, was NV gemacht hat.

Titan ist ein Nischenmarkt wieviele Mio werden davon verkauft? und ein Vergleich von Titan 1 mit TitanX hinkt ja wohl
 
Zuletzt bearbeitet:
pipip schrieb:
Sehr schlechter Vergleich ^^ Wieso ?
Ist der Vergleich der selbe, die R9 290X mit einer 6970 zu vergleichen ? Welche nicht der direkte Vorgänger der GPU ist und sicherlich älter ist als 1-2 Jahre ?

Es ging ausschließlich um den Vorwurf, Nvidia würde Kepler bei treiberseitigen Optimierungen seit Release der Maxwell-Generation nicht mehr berücksichtigen. Gleichzeitig lobt er indirekt AMD, welche 2011 / 2012 mit der VLIW-Architektur genau das gemacht haben, was er Nvidia bei Kepler jetzt vorwirft.
 
~7 Mrd Transistoren bei 533 mm² Fläche und heute bei gleicher Leistung mit 5,24 Mrd Transistoren aus, die eine Fläche von 398 mm² haben. man könnte jetzt noch die Klasse drunter vergleichen

Du vergleichst einen Chip mit DP-Einheiten und einen Chip ohne. Den GK110 wird bisher bei NV die einzige HPC GPU für DP bleiben und somit auch weiterhin Geld einspielen. Im Vergleich ist GM204 einfach eine Gamerkarte.
Somit ist der Vergleich hier sowieso schwer.

iHabAhnung
Ändert aber nichts an der Sache, dass VLIW, die HD 6000 Serie schon etliche Jahre her ist. Im Vergleich sieht man dass Fermi (Hotclock) auch nicht besser abschneidet als die VLIW Karten. Einzig der DX12 Support kann man erwähnen, aber das hat rein nur mit der GPU Architektur zu tun.

Hier geht es aber um den GK110 vs GM204 und Hawaii und GK110 und Hawaii sind nahezu gleich alt (zu mindestens die jeweiligen Gamer-Versionen)

@eax1990

Hast du ein wenig Wechselgeld für mich :stacheln:?
Ich nehme auch Bitcoins :evillol:

Sry, kleiner Spaß ^^
 
Zuletzt bearbeitet:
ja das stimmt, es wurden die DP Einheiten gestrichen da sie für Gaming nunmal Stand HEute nicht notwendig sind.
welchen Vorteil haben sie dann für den Gamer und Hersteller wenn sie Tot liegen? keinen sie kosten strom, platz und damit auch Geld.

sehr effektive Entscheidung das zu trennen:

- so kann man den Casual Markt mit Gaming und wo keine DP Leistung notwendig ist, mit einer maximalen Effizienz und kostengünstig hergestellten Chips versorgen,
- und für die Tesla, Professional Users die eh eine 4 stellige Summe pro Karte zahlen mit den anderen "DP inklusiven alten Chips" bedienen. klassische "Diversification Strategy"

nur so kann man das hier schaffen ;)
http://files.shareholder.com/downlo...E5970C8A1/Q1_16_CFO_Commentary_FOR_NASDAQ.pdf

ich muss gleich mal den anual report lesen und dann poste ich wo NV seine Geschäftsfelder abgrenzt was Gaming und was Professional usage ist und wieviel Umsatz und EBIT sie pro Segment erzielen ;)

ich finde dieses ganze 3,5GB = 4 wir veraschen den User genau so schlimm und verwerflich für UNS Konsumenten, aber ich bin immer wieder von dem Marketing und der Entscheidungsfindung des general Management aus strategischer Sicht fasziniert, was NV da im vergleich zu AMD macht
 
Zuletzt bearbeitet:
Buttermilch
sehr effektive Entscheidung das zu trennen:

Das ist etwas dass man nur kurzfristig beantworten kann. Bei DX11 dürfte es durchaus lohnen. Deshalb nenne ich Maxwell auch als die DX11 Grafikkarte, weil sie auf DX11 offensichtlich zugeschnitten ist.
Die Frage ist aber wie es bei DX12 aussieht, das eben ComputeShader mehr in den Fokus schiebt. Compute Shader gibt es zwar auch bei DX11, wurde da aber nie wirklich genützt, da zu umständlich auf der API.

Schau dir doch mal, wieviel Strom Maxwell bei GPGPU Anwendungen zieht, dann wirst du sehen, dass es nicht weniger ist, als bei AMD.
Durch ACE und Maxwell soll ja bis zu 32 Queues ähnliches können, kann die Effizienz von Maxwell auf einmal anders aussehen.
Deshalb abwarten und Tee trinken. Aber eine GPU Generation kann man meist erst beurteilen, wenn der Nachfolger da ist, speziell wenn sich in der Software-Umgebung einiges ändert.

Aber ich sehe es da eher aus der Sicht des Kunden. NV wird hoffen, bis dahin, wenn mehr und mehr Games kommen, dann bereits Pascal zu haben. Wie ich schon vor einem Jahr schrieb, früher oder später wird GPGPU noch mal ordentlich "beworben" und dann wieder das nächste Feature sein, wieso man ja unbedingt upgraden muss und die wenigsten werden sich aufregen, so wie es hier der Fall ist. Weil bei Hardware gibt es ja das ungeschriebene Gesetzt, dass sie nicht so lange halten darf !
 
Zuletzt bearbeitet:
Zehkul schrieb:
Ich wünschte, das wäre Satire, aber dummerweise denken genug Leute tatsächlich so.


und WO ist dein problem damit ? ich hab ja wohl recht etwas zu mögen oder auch zu hassen und ich liebe nvidia nunmal (bisher) weil ich mein leben lang nur positive und gute erfahrungen mit denen gemacht hab. im gegensatz zu amd/ati wo ich mit deren grakas nur probleme hatte was größtenteils an deren grottigen treibern lag.

und aufgrund von etwa 15 jahren an ausschließlich positiven erfahrungen mit nvidia hat sich diese firma nunmal in meiner gunst genug puffer aufgearbeitet das ich denen vieles verzeihen kann. z.b. die 3.5gb sache mit der gtx 970. wayne ?! war mir wirklich egal selbst wenn ich betroffen wäre wäre es mir egal gewesen.

ABER falls sich das als wahr herausstellen sollte würde es die grenze durchbrechen und DAS hier könnte ich nvidia nicht so leicht vergeben. das würde eine narbe für die nähere zukunft geben.

(und für alle die sich jetzt fragen wieso ich die 970er 3.5gb sache leicht vergeben kann und das hier nicht, obwohl beides im prinzip in die selbe kerbe einschlägt, beides betrug vonseiten nvidia ist hier eine erläuterung um die potentiellen flames im keim zu ersticken die daraus resultieren können und vemrutlich auch werden:

der unterschied ist schlicht und ergreifend das die 3.5gb sache in der praxis kaum auswirkungen hat und sobald sie auswirkungen haben wird die graka eh zulahm ist als das es etwas ausmachen würde. welches game zieht derzeit soviel. sogut wie keins. im gegensatz dazu hätte diese treibergeschichte von nvidia leider auswirkungen aus ausnahmslos jedes game was in der praxis einen massiven unterschied machen würde. aus diesem grunde betrachte ich beide angelegenheiten auch als was völlig unterschiedliches)
 
wenn eine 290x ihre Compute shader mitnutzten darf, ist sie dann in Zukunft so schnell wie eine 980 oder sogar schneller,
nur wenn jetzt die Einheiten quasi ausgeschaltet sind und nicht arbeiten, was passiert dann mit der Leistungsaufnahme wenn die Karte mal alle Einheiten zu 100% auslastet, also alles an DP und SP das komplette Frontend? die rennt doch sofort ins TDP Limit :D naja mir egal kommt nen Fullcover Kühler drauf ist ja eh alles unter Wasser, aber die armen Luftkühler freunde :D "

http://www.tomshardware.de/sapphire-vapor-x-r9-290-tri-x-review,testberichte-241542-6.html
http://www.tomshardware.de/maxwell-...marks-power-target,testberichte-241648-7.html

und wieder genial von NV, sie verkaufen JETZT allen neue Karten und machen pro Quartal 1,5 Mrd € umsatz, und wenn dann DX 12 kommt mit Win 10 und 2016 die neue Fertigung dann gibts es wieder nen Grund aufzurüsten :D
Quasi die Intel strategie mit jede 2 JAhre ein neuer Sockel und 10% mehr Rechenleistung dank der neuen Optimierung :D
wie das neue Ariel jetzt auch in Perlenform und bunten Kügelchen und alles noch viel sauberer ab 30°C :D :D :D
 
Zuletzt bearbeitet:
Abwarten, zurzeit gibts ohnehin nur die Wahl zwischen Nvidia mit ihren komischen Aktionen oder AMD, die generell kein Bock mehr haben zu optimieren. Da bleibt ich auch lieber bei NV. Mit Windows 10 wird sich der Markt sicherlich noch ändern. Wie mir scheint, befindet sich das Geschäft im Umbruch, die Konsolen machen gut Druck und eben Windows 10.:)
 
? Hat da nVidia auch ähnliche Praktiken angewendet oder waren die so brav wie AMD / ATI ?
Ich Vergleich meine 580 3GB regelmäßig mit dem direkten Konkurrenten HD 6970 2GB und bin eigentlich sehr zufrieden mit NV. In 90% der Fällen ist meine 580 schneller als der direkte Konkurrent.

Was mir an NV nicht passt ist das sie deutsche Spiele immer so vernachlässigen. Zb. Anno 2070, oder Risen, oder auch Rollenspiele wie Dragon Age, oder wie man hier wieder schön sieht Witcher III hat AMD nicht selten die Nase vorne. Bei deutschen Games eigentlich meist immer.
 
Man sieht es eindeutig an der GTX 960 vs GTX 770... Eigentlich ist die 770 immer schneller als die 960 und in Witcher 3 sieht man eindeutig die fehlende Optimierung der altenen Generation. Hat zum Glück nur 320€ gekostet und nicht das doppelte oder mehr. Dann wäre ich richtig angepisst.

Wenn die neuen AMDs gut werden gehe ich wieder zu AMD. War immer bei AMD :-)
 
Ist doch klar, das Nvidia nicht mehr viel für Kepler macht...Groß grün und böse halt :-D
 
eax1990 schrieb:
Finds irgendwie erbärmlich. Sitzt n ganzer Haufen an Leute vor den PCs die nur darauf warten nen Bash loszutreten, weil se keine Arbeit haben - Sieht man schon an den Kommentaren in den Foren "I go Red forever and ever no more Green" ... die Leute erwarten tatsächlich, dass alles Perfekt funktioniert in der heutigen Zeit.

Beide Hersteller leisten sich solche Probleme und machen teils Versprechungen die nicht eingehalten werden. Dann läuft n Spiel halt mal schlecht und sofort gehts los, die Arbeitslosen prügeln sich um die beste Verschwörungstheorie...

Witzig ists, wenn man Benchmarks einer Quelle nimmt und selber damit wahrscheinlich nichts zu tun hat, aber darüber spricht. Vllt ist die Quelle ja scheisse und wird bezahlt?
Hab schon sehr häufig Benchmarks gesehen, da muss ich mich fragen mit welchen Mitteln die arbeiten, wenn ich mit dem selben Setup nicht solche Frames zaubern kann...

Solange aber keiner ein Insider ist und Fakten darlegen kann, sind die Leute alles nur dicke Blender und Besserwisser die letztlich gar nichts wissen.

Du scheinst auch nicht so gut beschäftigt zu sein, da du ja anscheinend den ganzen "Bash" liest. Ich frage mich wie du darauf schließt, dass die Leute keine Arbeit haben. Dein Urteil sagt eigtl. nichts über die Leute aus, sondern nur über dich selber.
Es handelt sich hierbei um ein Forum, falls du es noch nicht wusstest. Google mal wofür Foren da sind und such dir anschließend einen Job.
 
eax1990 schrieb:
Finds irgendwie erbärmlich. Sitzt n ganzer Haufen an Leute vor den PCs die nur darauf warten nen Bash loszutreten, weil se keine Arbeit haben - Sieht man schon an den Kommentaren in den Foren "I go Red forever and ever no more Green" ... die Leute erwarten tatsächlich, dass alles Perfekt funktioniert in der heutigen Zeit.

Beide Hersteller leisten sich solche Probleme und machen teils Versprechungen die nicht eingehalten werden. Dann läuft n Spiel halt mal schlecht und sofort gehts los, die Arbeitslosen prügeln sich um die beste Verschwörungstheorie...

Witzig ists, wenn man Benchmarks einer Quelle nimmt und selber damit wahrscheinlich nichts zu tun hat, aber darüber spricht. Vllt ist die Quelle ja scheisse und wird bezahlt?
Hab schon sehr häufig Benchmarks gesehen, da muss ich mich fragen mit welchen Mitteln die arbeiten, wenn ich mit dem selben Setup nicht solche Frames zaubern kann...

Solange aber keiner ein Insider ist und Fakten darlegen kann, sind die Leute alles nur dicke Blender und Besserwisser die letztlich gar nichts wissen.

Als die PC Games Hardware Benchmarks released wurden, kam ich schon ins Grübeln. Meine Hoffnungen waren, dass die Realität besser aussieht.
Doch die ersten 2 Stunden des Spiels waren zwischen 27-37 FPS und immer schwankend! Es ist zwar "spielbar", doch meinem Empfinden nach, nicht einer 780 TI gerecht!

Die Computerbase Benchmarks sind eher ein Minimum als ein Druchschnitt.

So kann bejahen, dass die FPS der 780 TI in etwa den Benchmarks entsprechen.

Alles in allem bin ich mit der Leistung, trotz Patches und Treiber, nicht zufrieden. Falls Nvidia daran Schuld ist, wäre es eine große Enttäuschung!

xcsvxangelx schrieb:
Hmmm ich persönlich spiele komplett auf Ultra mit deaktiviertem Hairworks was die Performance auf meiner GTX980 massiv gesteigert hat. (+20fps im Schnitt).

Allerdings bin ich auch blind denke ich, denn ich sehe keinen Unterschied mit Hairworks an oder aus.

GTX980 ist auch die neue Maxwell-Generation und nicht die Kepler, um die es hier geht!
 
krOnicLTD schrieb:

Die „3.5 GB Sache“ ist mir egal wie noch was und nur eines von vielen Dingen. Nvidia hatte schon seit je her die lausigsten Geschäftspraktiken, und selbst wenn sie die nicht hätten, eine Firma zu lieben, ist, höflich ausgedrückt, recht einfältig.

Über Konsolenfanboys macht man sich ja auch (zurecht) lustig, wird Zeit, dass Nvidia mit denselben Maßen gemessen wird.
 
Buttermilch schrieb:
...... aber ich bin immer wieder von dem Marketing und der Entscheidungsfindung des general Management aus strategischer Sicht fasziniert, was NV da im vergleich zu AMD macht

Ja, das ist ja das blöde, Nvidia´s Marketing beherrscht die Verarschung seiner Kunden bestens, aber was daran faszinierend ist, erschliesst sich mir nicht.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Ich Vergleich meine 580 3GB regelmäßig mit dem direkten Konkurrenten HD 6970 2GB und bin eigentlich sehr zufrieden mit NV. In 90% der Fällen ist meine 580 schneller als der direkte Konkurrent.

Da ist NVIDIA wohl auch zufrieden mit Dir!;)
Immerhin hat ja deine GTX 580 3GB fast das doppelte einer HD 6970 gekostet.:lol:
 
Zurück
Oben