News Nvidia GeForce: Spielen auf Turing angeblich ab dem dritten Quartal

Jo das 4K mit der nächsten Generation Geblubber hört man schon seit Ewigkeiten. Damals hieß es auch die GTX 680 sei eine Karte die locker alles auf 1440p spielen kann (von CB so selbst im Test geschrieben) und jeder hoffte auf die 780 und 780 Ti für 4K.

Heutzutage kannst du mit den Karten kaum noch 1080p auf Mittel spielen ohne unter 50fps zu fallen und das obwohl die games heute nichtmal großartig besser aussehen.

Ich meine die Titan V ist natürlich schon eine super Karte für 4K, aber für 3100€ kann man sich natürlich auch eine PS4 Pro, Xbox One X, Nintendo Switch einen 4K HDR TV kaufen und seiner Frau ein Jahresabo von Brigitte, Bild der Frau, Bunte, Cosmopolitan, Die Aktuelle, Das Goldene Blatt, Elle, Echo der Frau, Frau Aktuell, Frau im Spiegel, Freundin, Gala, Glamour, Glücks Revue, IN, IN Touch, Joy, InStyle, Laura, Lisa, Mach Mal Pause, Madame, Neue Welt, OK!, Petra, Vogue und eventuell 2 Apfeltaschen von McDonalds.
 
du hast "Closer" vergessen! :cool_alt:
 
Vor 2020/21 ist 4K auf Ultra mit einer Single Grafikkarte über 80fps bei aktuellen spielen nicht möglich .

Punkt !

Erst nach der neuen NVIDIA Generation also nach der die dieses Jahr kommt . Wird man eventuell die Möglichkeit haben .
 
Aldaric87 schrieb:
Mit den Karten am Markt muss man in vielen Spielen schon deutlich runterregeln um spielbare FPS in 4k zu erreichen. Auch Turing, oder wie sie die Generation nennen werden, wird mMn uneingeschränktes 4k Gaming nicht ermöglichen.

Genau das und es wäre schön, wenn CB - oder von mir aus auch PCGH - das in 2-3 Jahren beim 80erTi- oder Titan-Turing-Nachfolger mit GTA V und Total War - Warhammer (1) austesten würde, ob diese dann bei Ultra-Maximaleinstellungen unter 4K/UHD die 60+fps annähernd im Griff haben oder noch eine weitere/spätere GPU-Generation das erst bewerkstelligen wird können (aktuell fehlen in beiden, nicht mehr wirklich top-aktuellen Spielen ca. 100% Rohleistung um gerade so über die 60fps ab und zu 'mal kriechen zu können).

Hauptsache 4K/UHD-Einstellungen werden mehr und mehr in Tests als Maßstab herangezogen, damit auch schön die 4K/UHD-Monitore- und Möchtegern-4K/UHD-GPU-Industrie viel und gut die eigenen Produkte an blauäugige, überforderte Kunden absetzen kann, auch wenn die Zeit dafür eigentlich noch nicht (ausge)reif(t) ist und die Kunden sich Produkte zu überteuerten Preisen als Quasi-Early-Adopter andrehen lassen.

Schon witzig, wie sich das ganze entwickelt und man selber natürlich nicht mehr "angesagt" ist, wenn man da nicht mitziehen will oder kann.

Welche Blüten die aktuelle Entwicklung hervor bringt, kann man ja auch am Beispiel günstigerer externer (mit Gehäuse verkaufter) Grafikkarten als interner Grafikkarten in den USA sehen, irgendwie schon leicht surreal die Situation :freaky: ...

fox40phil schrieb:
... würde 4k+ Gaming häufiger genutzt/gekauft, wenn die Spieleentwickler mehr Zeit/Geld investieren würden in die Optimierung ihrer Engines und zusammen an einer neuen API arbeiten - oder eben eine nutzen, die wesentlich performanter ist! (Vulkan, OpenCL etc.) ... muss es eben die Software richten! Auf Konsolen ist auch sooo viel mehr Möglich bei VIEL weniger Leistung!

Davon, dass die Entwickler ressourcen-effizient und -schonend in heutiger Zeit Spiele programmieren und nicht wie einige maßlos dabei herumasen, habe ich mich schon etwas länger verabschiedet und schon die ständig wachsende Installationsgröße bei Spielen - trotz teilweise kleinerem Umfang und wenig/kaum sichtbarem optischen Vorteilen, Gamesworks-Salat und dumm-dreister Maximaltesselierung - in Richtung 100 GB pro Spiel, ist ein gutes Indiz dafür, dass dabei sehr viel verprasst wird/schief läuft und die Kunden es alle kritiklos schlucken ohne aufzumucken (trotz der überproportional steigenden Speicherpreise).

Es mangelt meist entweder an der richtigen Einstellung (Erziehung/Ausbildung) der Entwickler dazu oder aber dem Hintergrundwissen/Können, wobei letzteres ja auch ein Grund für das zaghafte Vorankommen bei Low Level APIs sein dürfte, zumal das vom Marktführer bei diskreten GPUs ja auch nicht gewollt/unterstützt wird, sondern eher weiter herausgezögert/boykottiert und belohnt wird, wenn weitherin mit altbackenen DX11 und Open GL entwickelt wird.
Ergänzung ()

Zealord schrieb:
... für 3100€ kann man sich natürlich auch eine PS4 Pro, Xbox One X, Nintendo Switch einen 4K HDR TV kaufen und seiner Frau ein Jahresabo von Brigitte, Bild der Frau, Bunte, Cosmopolitan, Die Aktuelle, Das Goldene Blatt, Elle, Echo der Frau, Frau Aktuell, Frau im Spiegel, Freundin, Gala, Glamour, Glücks Revue, IN, IN Touch, Joy, InStyle, Laura, Lisa, Mach Mal Pause, Madame, Neue Welt, OK!, Petra, Vogue und eventuell 2 Apfeltaschen von McDonalds.

In der Tat :) ...
 
Zuletzt bearbeitet:
Chismon schrieb:
Genau das und es wäre schön, wenn CB - oder von mir aus auch PCGH - das in 2-3 Jahren beim 80erTi- oder Titan-Turing-Nachfolger mit GTA V und Total War - Warhammer (1) austesten würde, ob diese dann bei Ultra-Maximaleinstellungen unter 4K/UHD die 60+fps annähernd im Griff haben

GTA5 läuft auf meiner 1070 bei UHD Auflöung und Einstellungen auf hoch mit FXAA und wimre 2x MSAA ganz leidlich auf 40-60fps.
 
HerrRossi schrieb:
GTA5 läuft auf meiner 1070 bei UHD Auflöung und Einstellungen auf hoch mit FXAA und wimre 2x MSAA ganz leidlich auf 40-60fps.

Naja, aber bestimmt nicht uneingeschränkt (mit 60+ fps) in Ultramaximaleinstellungen (was auch eine Titan V nicht packen würde) und davon träumen einige der Hobby-Enthusiasten hier bei 4K/UHD (mit den kommenden Turing-GPUs), siehe hier:

GTA V maxed out 4K-UHD (Titan Xp).jpg

TW - Warhammer 1, maxed out 4K-UHD (Titan Xp).jpg
 
Zuletzt bearbeitet:
Ich hatte doch geschrieben "hohe Einstellungen" und "40-60fps". Ultra und durchgehend 60+ fps in UHD ist natürlich mit einer 1070 (und auch mit einer Titan Xp) nicht drin.
 
Turing kommt sicher nicht in 7nm. Der Leistungszuwachs wird sich also in überschaubaren Grenzen halten.
Und wenn ich gerade die neuesten Newsgerüchte lese, die bereits von einer UVP seitens Nvidia für eine popelige 2080(erwartetes Niveau einer 1080Ti) von 1500$ fabulieren, was dann wohl ein Straßenpreis von irgendwas zwischen 2000 und 3000$ wäre bei gleichbleibendem Preiswahn, da wünsche ich schon mal viel Spaß beim Aufrüsten für 4K.
Wenigstens bräuchte sich aber niemand Sorgen wegen schlechter anfänglicher Verfügbarkeit der Karten machen. ;)
 
Keine Ahnung was man auf das Gerücht halten soll, ich jedenfalls halte es für bullshit. Bis Februar ging jeder davon aus, Ampere wird Pascal Anfang April ablösen. Nun will man innerhalb von Wochen alles über den Haufen schmeißen was Gerüchte anging es wird alles anderes? Klar. GP102 ist EOL und auch die Produktion von GP104 wird wohl auf ein Minimum reduziert sein. Womit sollte man jetzt den Markt bis Sommer beliefern?

Quark, GTX2080 kommt Anfang April, in 12nm, 12GB GDDR6, knapp schneller als GTX1080Ti, für 799-899$ als Founders Edition. Sagt halt meine Glaskugel. Das enizige wofür das Gerücht gut ist, ist dass wirklich alles an Pascalbeständen verkauft wird.

Turing wird meiner Meinung nach immer noch eine auf Mining getrimmte Karte.

Im Sommer dann hoffentlich eine Titan Ampere in 10nm, dass dürfte dann nochmal richtig Schub geben.

Dieses ganze "mimi in 4K kann man nicht spielen" Geheule amüsiert mich obendrein enorm.
 
deady1000 schrieb:
AMD muss endlich aus dem Quark kommen.
Die sollten mal eine Grafikkarte rausbringen, die beim Speicher (und damit den Preisen) nicht übertreibt, sagen wir 8GB,und dafür einen soliden Chip hat auf 1080Ti Niveau.

Das ganze dann bitte für 349€ und alle sind zufrieden.

Geilster Trollkommentar ever.
Noch schlimmer wäre nur wenn es ernst gemeint wäre...
 
Powell schrieb:
das sind über 2 jahre bis zur Vorstellung einer neuen Generation...Wahnsinn! gab´s das schonmal bei nvidia?

Ja immer, nur wurden die Karten dieses Mal nicht umbenannt..
 
349 Euro für ne AMD auf 1080 TI Niveau ... was für troller. Und am Ende dann doch die 1080ti weil muss Grün sein ....
 
Ohne das der AV1 Codec so weit ist das man ihn in Hardware gießen kann, braucht man da gar nicht mit neuen Modellen anfangen. Etwas längere Entwicklungsziklen sind mittlerweile vollkommen ok.
 
fox40phil schrieb:
Wenn die Hardware es nicht packt, muss es eben die Software richten! Auf Konsolen ist auch sooo viel mehr Möglich bei VIEL weniger Leistung!
Naja, so groß ist der Unterschied zwischen Konsolen und PCs in Sachen Optimierung auch nicht.

Wenn man sich die meisten der achso beeindruckenden Konsolenspiele mal genau anschaut, wird man feststellen, dass man diese auf ähnlicher PC-Hardware fast genauso gut spielen kann, man muss lediglich die gleichen Einstellungen vornehmen.

Im Klartext heißt das 30fps Frameratelimit, mittlere-niedrige Grafikdetails und um die ~900p auf den Standard-Konsolen (Xbox One, PS4). In der Praxis gibt es dann oft noch Fps-Drops auf 25fps. :rolleyes:

Vorher im Thread wurde eine PS4 mit einer HD7870 verglichen. Ich bin mir sicher, dass eine HD7870 unter diesen Parametern auch bei aktuellen Spielen eine identische Performance abliefert. BF1 zum Beispiel läuft auf der HD7870 meines Bruders @1080p mit niedrigen-mittlere Details wesentlich besser als es auf einer PS4 läuft.

Die Sache ist nur, dass kein PC-Spieler freiwillig ein 30fps Limit einrichtet und er auch nicht auf sub-1080p spielen will. ;)

@Topic: Finde die Preisentwicklung derzeit sehr bedenklich. Mit einem 1440p @165hz Gsync-Monitor bin ich für die nächsten Jahre leider auf Nvidia festgelegt weil AMD nichts liefert was einen solchen Monitor ordentlich befeuern kann. :( Selbst mit meiner GTX 1080 muss ich die Grafikeinstellungen bereits etwas weiter runterschrauben als es mir lieb ist.
 
Naja stimmt nicht ganz dein Bruder wird kein 1,6-1,75 GHZ CPU haben, stelle mal den Takt so niedrig. Nur von der CPU Leistung müssten die Games auf dem PC viel viel besser laufen nur machen sie dass nicht. ;-)
 
fox40phil schrieb:
Wahrscheinlich würde 4k+ Gaming häufiger genutzt/gekauft, wenn die Spieleentwickler mehr Zeit/Geld investieren würden in die Optimierung ihrer Engines und zusammen an einer neuen API arbeiten - oder eben eine nutzen, die wesentlich performanter ist!

Diese Zeit und dieses Geld holen sie aber dummerweise nicht unbedingt wieder rein wenn die Kunden
a) nicht zum Vollpries kaufen (ich warte noch bis es 20 Euro kostet und ein paar Patches die Bugs beseitigt haben) und
b) die Preise nicht nach 4 Wochen um >50% fallen müssen um überhaupt noch nennenswerte Stückzahlen verkaufen zu können.

Mafia 3 ist z.B. noch gar nicht mal soo alt, aber jetzt schon im Humble Bundle drin.

Bei dem rasanten Preisverfall bei PC Spielen kann man sich den Luxus langer Optimierungszeiten oder Experimenten mit APIs kaum noch leisten.
 
"angeblich" lasst uns jeden fakemist einfach mal glauben, was ist die quelle von den news? das ist reiner fakemist vom feinsten, es gibt keinerlei bestätigung dafür, weiss nicht woher ihr immer eure "news" bezieht.
 
Nun, was spricht denn für einen Marktstart erst im 3. Quartal, 2018, genau, die letzten Aussagen der "Lederjacke" zur Veröffentlichungen der nächsten Gaming-GPU-Generation, dass die kommenden nVidia-Konferenzen/Präsentationen typischer Weise auf Computing GPUs ausgerichtet sind, so dass wieder A.I., ein möglicher Volta-Nachfolger, u.a. aber nicht wirklich Gaming im Vordergrund dabei stehen dürfte und natürlich das neue "Gerüchteupdate" von Herrn Wallossek/Tom's Hardware scheinbar aus mehr als einer Quelle sowie die Tatsache, dass nVidia die altbackenen Pascal GPUs noch für exorbitante Preise verkauft bekommt und man die Preise nicht schon lange nach unten anpassen musste.

Was spräche dahingegen dafür das die vorherigen Gerüchte wahrscheinlicher sind, einmal der geringere, laufende Quartalsabsatz von nVidia GPUs im Vergleich zu AMD, wenn man dem Jon Peddie Research Report glauben mag. Die Nachricht, dass GP102 Fertigung relativ zuverlässig und zeitig schon im letzten Jahr eingestellt wurde und basierend auf einer sehr strikt ausgelegten 2-Jahres-Regel der Pascal-Nachfolger (Turing, Ampere oder wie auch immer der heißen wird) noch vor Ende des 1. Halbjahres 2018 im Handel sein müsste.

Also wenn ich nVidia wäre, hätte ich es auch nicht wirklich eilig damit den Pascal-Nachfolger auf den Markt zu bringen und nicht noch vorher mit Mondpreisen bei den billig herzustellenden Pascal-Chips abzusahnen (bis dahin werden sich Konsumenten dann evt. auch mehr an den massiven Preisruck bei GPUs gewöhnt haben und williger/süchtiger auf die neuen GPUs sein, wenn die Preise längere Zeit so bleiben) auch mangels Konkurrenz im Gaming Bereich (nicht aufgrund der GPU-Leistung sondern der Verfügbarkeit, da die Miner zuvorderst zu AMD greifen).

Ich würde Stand jetzt für ca. 400-450 Euro auch ein RX Vega56 Custom-Modell kaufen und gewiss keine GP104 Karte von nVidia mehr, denn letztere liegen mittlerweile (außer in der Effizienz) hinter den AMD/RTG RX Vega Karten zurück und in letzteren dürfte/könnte noch einiges an Optimierungs-/Leistungszuwachspotential stecken, in Pascal wohl eher nicht mehr (zumal man eher die Optimierung bei Veröffentlichung des Nachfolgers herunterfahren dürfte bei nVidia, damit das neue Produkt etwas besser da steht).

Bei den aktuell abgerufenen Preisen stellt sich die Frage (für mich) aber nicht und ich lasse erst einmal die Finger weg von den Grafikkarten(-preisen), es sei denn meine GTX 670 OC raucht mir irgendwann zeitnah ab ... hoffentlich nicht.

Was die Preise angeht, so halte ich die 1500 Euro für einen GT104 Vollausbau eigentlich auch für hanebüchen, aber 950 - 1050 Euro eigentlich nicht, wenn man sich die aktuellen Preise der GTX 1080Ti ansieht und bedenkt, dass man wohl 12 GB (GDDR6), nicht nur ungerade 11GB, sowie 5 - max. 20% mehr Rohleistung (ich gehe eher von 10% mehr aus) bekommen dürfte und, nicht zu vergessen, die Effizienz einer GTX1180/2080 wohl auch deutlich besser ausfallen dürfte.

Vielleicht gibt es doch noch zusätzlich ein paar lohnende Architekturneuerungen/-verbesserungen (ganz habe ich die Hoffnung darauf noch nicht aufgegeben) wie etwa Unterstützung des kompletten DX12.1 Tier (was bei RX Vega ja schon der Fall ist) oder eine Art HBCC-Äquivalent von nVidia bei der kommenden GPU-Generation?

Wenn das alles so kommen würde, dann, ja dann, würde sich selbst für GTX1080Ti Besitzer ein Umstieg auf das erste Gaming-Flaggschiff der neuen GPU-Generation evt. lohnen, vorausgesetzt sie sind dazu gewillt, jetzt schon wieder tief in die Tasche zu greifen :D.

Dass man einfach die GTX 1080Ti teuer wird verkaufen können und dafür allerdings eine GTX 1180/2080 Modell fast zum Nulltarif (anders als vielleicht die mittelprächtige Founders Edition von nVidia selbst) wird kaufen können, erklärt vielleicht die Einschätzung, dass die GPUs anfänglich bei 1500 Euro liegen könnten (des Weiteren von Minern dann evt. immer noch gekauft würden zu den Preisen) ;).
 
Zuletzt bearbeitet:
Genau außerdem weiß keiner ob GDRR6 wie GDRR5x ist beim mining wenn ja werden AMD GPUs weiter besser verkauft. Genau so wie die Preise jetzt bei den GDRR5x Modellen einfach abartige sind und da haben die Minier nicht die Finger im spiel nur NV und die Händler, mal drüber nachdenken bitte.
 
Zurück
Oben