News Nvidia GeForce: Spielen auf Turing angeblich ab dem dritten Quartal

Ich warte auf 2019. Erstmal die obligatorische Navi-Enttäuschung abwarten und dann nebst hoffentlich nicht enttäuschendem Zen2 eine 2080(Ti). :freaky:
 
Hoffe ja dass es bald eine GT2030 für 200€ gibt MS kommt vor lachen nicht mehr aus den schlaf.
 
xy1337 schrieb:
... im Frühjahr 2017 für 360€ auf eine GTX 1070 umgestiegen. Wenn ich das da nicht gemacht hätte, würde ich wahrscheinlich immernoch meine GTX 670 verwenden und hätte auf einige spiele verzichtet.

Du hättest mit Abstrichen leben müssen, ja, aber verzichten, nicht wirklich ;).

Bei der aktuellen Marktsituation sehe ich jedenfalls keinen guten Grund eine GPU zu kaufen, da man für die vermutlich gepfefferten, veranschlagten Preise relativ wenig Zusatzleistung bekommen wird, die solche überzogenen Preise rechtfertigen, aber hey, es gibt ja immer noch die Leute/Hobby-Enthusiasten, die sich alles schön reden ... ist ja schließlich Hobby und solange man den Rubel rollen lassen kann und die Konsequenzen einem egal sind :rolleyes:.

Das wird für mich das interessanteste an den ersten Turing Tests, wo werden sich preis-leistungstechnisch die neuen GT104 Grafikkarten einordnen und werden diese von der versammelten Presse trotzdem gelobhudelt werden, mangels Alternative/direkter Konkurrenzprodukte AMDs/RTGs?

Zeit wäre es schon meine GTX 670 OC zu ersetzen, aber nicht bei diesen Mondpreisen und ja, der Trend bei mir geht eher zu weniger teuren Leistungsklassen (evt. wird es eine GTX 1160/2060 werden oder gar eine GTX 1150/2050Ti oder ich warte auf AMDs Navi, denn ich habe es nicht eilig nVidia das Geld hinterher zu werfen) und ebenso oder noch mehr Laufzeit der Grafikkarten in der Zukunft (ein Lob auf Gigabyte sei an dieser Stelle angebracht für die vorbildliche Fertigungsqualität meiner aktuellen, relativ altbackenen GPU (auf die es damals nur 2 Jahre Garantie gab)), da mir die etwas hübschere/höher auflösende Grafik diese exorbitanten Aufpreise nicht wert sind und für mich immer noch Spielidee/Spielprinzip/Spielstory im Vordergrund stehen und den Spaß bringen und nicht die i.a. (nicht nur bei oftmals lausigen AAA Spielen) maßlos überbewertete Optik ;).

Und ja, ich denke insbesondere ältere Jahrgänge hier werden ähnlich denken, zumal da i.d.R. auch Grafikkarten nicht zur Steigerung des Selbstwertgefühls herhalten müssen und man eben Prioritäten und das Spielverhalten ändert im Laufe der Jahre ...
 
Zuletzt bearbeitet:
Ich finde es immer wieder lustig 😁, wieviele über AMD am herziehen sind.

Ich kaufe lieber eine Karte mit mehr Rohleistung in allen Bereichen (CAD, Video Rendering etc.) und kann mit der auch zocken. Nach jedem halben Jahr werden nähmlich auch da die Treiber für Spiele verbessert.

Mit gutem Wattman Einstellungen bekommt man eine RX 56 auf 150 - 180 Watt & eine RX 64 / Frontier auf 200 W - 250 W runter gedrückt...

Dazu noch meist mehr Speicher und Innovativen vorhanden (Treiber, Speicher & Technologie).

Back 2 Topic:
Warten wir mal ab, ob NVIDIA mit Turing die Compute Fähigkeiten deaktiviert, damit das Mining uninteressant(er) wird.

Ich gehe schwer von einen Pascal refresh aus (ohne Beweis oder fundierte Quellen) mit besserer Ausbeute beim Fertiger. Und damit auch keine Beschneidung der Computing Fähigkeiten oder Veränderung des Speichers (GDDRX 6 gilt ja bereits als gesetzt, im Profi Segment sowohl auch bis HBM2 Speicher).

Von meiner Seite aus, muss es nicht sein, dass die Miner Fähigkeiten der Turing GPUs beschnitten wird.
Der Markt wird sich nach gewisser Zeit selbst regulieren.

Ich hoffe eher, dass auch Konsumenten beim Gebrauchtmarkt drei mal prüfen, ob der Verkäufer ein Miner ist / war. Diese sollten einfach auf den Karten sitzen bleiben und und Ihre Investitionen in GPUs beim nächsten Mal genauer überdenken, bevor Hardware Zwecksenfremdet wird bzw. den anderen Varianten (GPUs für Miner) vorgezogen wird.

Dies alles wie immer subjektiv und aus persönlicher Sichtweise wiedergeben.

Die Preise werden weithin höher werden, bis es für gewisse Cryptoalgorithmen effizientere Varianten / Alternativen gibt (ASIC Miner & Co).
 
Zuletzt bearbeitet:
Gibt doch genug Leute die egal wie viel die neuen Karten kosten sofort zugreifen.

Dann heißt es jetzt kann ich endlich in 4K alles auf Ultra stellen und mit 60FPS zocken.
Ich hingegen würde mich über normale GTX1060 Preise freuen.:evillol:
 
Zuletzt bearbeitet:
Dass bezweifle ich sehr sehr stark bis 4K mit 60fps läuft dauert es noch etwas länger. Davon abgesehen wird NV wieder massiv am RAM und Interface sparen. Ich glaube auch dass es nur ein Maxxwell/Pascal refresh ohne Neuerungen sein wird, wie damals bei CPUs treten halt jetzt hier auf der Stelle.

Naja dann haben die Nächsten Konsolen wie mehr Power als die PCs.
Ergänzung ()

Ach noch was Konsolen Games kann man auch wieder verkaufen weil viele immer sagen die sind Teuer. ;-)
 
Mcr-King schrieb:
Dass bezweifle ich sehr sehr stark bis 4K mit 60fps läuft dauert es noch etwas länger. Davon abgesehen wird NV wieder massiv am RAM und Interface sparen. Ich glaube auch dass es nur ein Maxxwell/Pascal refresh ohne Neuerungen sein wird, wie damals bei CPUs treten halt jetzt hier auf der Stelle.

Naja dann haben die Nächsten Konsolen wie mehr Power als die PCs.
Ergänzung ()

Ach noch was Konsolen Games kann man auch wieder verkaufen weil viele immer sagen die sind Teuer. ;-)

Völlig aus der Luft gegriffen. Volta zeigt bereits das GPUs noch lange nicht am Limit sind. Einzig die mangeldne Konkurrenz zwingt halt nicht zu grossen Schritten, aber wenn nciht viel passiert wechslken halt auch nciht viele.
 
Nee ist es nicht du sagst es doch selber sorry warum sollte ich Volta und den Nachfolger für GAMER bringen? Wenn eine Kunden schon wie die Apple Schafe sind mh drüber nachdenken okay, also lieber Maxxwell/Pascal Refresch mit minimalen Leistungszuwachs für viel Schotter verkauft. ;-)
Ergänzung ()

Ach noch was wie groß ist Volta und was kostet er der Die ist so ziemlich dass Ende der Fahnenstange was die Größe angeht.
 
Vor allem, da Volta einer GPU im Enterprise / Deep Learning Bereich vorbehalten ist.

PC Games Hardware geht nicht von ähnlich hohen UVP Preisen aus. Wie es Dank Miner aussehen wird und NVIDIA eventuell an diese wieder direkt über das Werk verkauft, steht auf einem anderen Blatt 😤.
Auch das die Leistung von Turing nicht wirklich höher werden wird (< 30 % - 50 %) ist schwer von aus zu gehen: http://www.pcgameshardware.de/Nvidi...ews/2018-Ampere-Volta-Turing-Spieler-1251289/

AMD zieht nach GCN 2 bzw. seit GCN 3 immer gleich oder besser mit den vorigen NVIDIA Releases.

Den Konter konnten diese schon seit dem nicht mehr wirklich zeitnah liefern.
Daher kann NVIDIA analog zu Intel melken...😏

PS. Von daher vielen Dank an an alle Coffee Lake Käufer...😉😆
Ihr habt es wirklich verstanden.

Aber wie immer, sollte jeder das konsumieren, was er möchte. 😅

PS 2. Ja auch ich kaufe immer von beiden Unternehmen Grafikkarten.
Bei CPUs hat sich dies bisher noch nicht vom Timing her ergeben, aber Ryzen wäre ein Grund gewesen...

Ausnahmen beim M-ITX (i-GPU) lasse ich jetzt mal außen vor.

🤗
 
Zuletzt bearbeitet:
Solange Mining so ein dominantes Thema ist, ist es im Grunde völlig egal wann und unter welcher Bezeichnung neue Karten vorgestellt werden. Man wird sie eh nicht kaufen können bzw. wenn dann nur zu +50% Aufschlag über Marktpreis.

Interessant fand ich daher die Gerüchte, die andernorts aufgetaucht sind, dass Turing eventuell der Mining-Ableger von Volta sein könnte, während im Desktop Ampere auf Pascal folgt.

Fraglich allerdings, ob eine solche Strategie aufgehen würde. Die Miner kaufen ja alles, was bei drei nicht auf dem Baum ist. Ich glaube das dürfte denen egal sein, ob da Turing oder Ampere drauf steht. Wenn eines von beiden nicht verfügbar ist, wird halt das jeweils andere gekauft. Die saugen den Markt so oder so leer.

Insofern ist die Vorfreude doch extrem gedämpft bei mir. Man kann eigentlich nur auf einen veritablen Cryptocurrencycrash hoffen, aber diesen Gefallen werden uns die Spekulanten vermutlich auch längerfristig noch nicht tun.
 
Bezüglich Mining und big business bei NVIDIA & AMD:

Zur aktuellen Grafikkarten-Lieferflaute merken Tom's Hardware an, das die europäischen Einzelhändler selber kaum noch Karten bzw. Nachlieferungen bekommen – ergo also nicht der Bedarf hierzulande einfach so hoch ist, sondern schlicht das Angebot (deutlich) zu schwach ausfällt für einen eigentlich nur normalen Bedarf. Hintergrund ist wohl, das die Grafikkarten-Hersteller kaum noch etwas in den Einzelhandel fließen lassen, sondern lieber direkt ab Werk an Crypto-Miner bzw. Miner-Zulieferer verkaufen. Dabei können dann auch abgespeckte Produkte (spezielle Mining-Modelle) verkauft werden und in jedem Fall fallen Support und langfristige Garantie flach – die Kostenlage sinkt für die Hersteller also, der Gewinn steigt. Womöglich können die Grafikkarten-Hersteller inzwischen auch schon höhere Abgabepreise nehmen, dann würde selbige wenigstens auch einmal ein wenig vom Mining-Boom/Wahn profitieren.

Der letztliche Auslöser des ganzen bleibt aber nach wie von in der zu schwachen Nachlieferung entsprechender Grafikchips von AMD und nVidia zu suchen: Grafikboards herzustellen ist schließlich vergleichsweise unproblematisch, nur ohne ausreichende Anzahl an Grafikchips wird es immer Abnehmer geben, die man dann vertrösten muß. Andere Stimmen weisen in diesem Zusammenhang nicht ganz zu Unrecht darauf hin, das bei nVidia derzeit womöglich schon die Lagerberäumung an Pascal-Chips anläuft – und damit vor allem ein kurzfristiges Hochfahren der Chipfertigung kaum vereinbar wäre. Dies kommt für nVidia sicherlich zur falschen Zeit: Denn kurzfristig kann man mit einer Chipfertigung prinzipgebunden nicht reagieren – und mittelfristig braucht man die Pascal-Chips wegen der ab dem Frühling anstehenden Ampere-Chips in der Tat nicht mehr.

Bei AMD ergibt sich allerdings eine gänzlich andere Situation: Hier schafft es AMD seit letztem August (!) nicht, Vega 10 in den ausreichenden Mengen herzustellen – und auch die schon im Sommer 2016 vorgestellten Polaris-Chips sind nach wie vor nicht in wirklich ausreichender Menge in Produktion, wenn jedes Anziehen des Mining-Booms da wochen- und monatelange Lieferschwierigkeiten auslöst. Speziell da AMD nun aber für das Jahr 2018 nicht wirklich neues im Grafikkarten-Bereich in Vorbereitung hat (und wenn, dann nicht so zeitnah wie bei nVidia), ergäbe eine Ausweitung der Chipfertigung kein größeres kalkulatorisches Risiko – was wirklich zu viel sein sollte, wird man (im Gegensatz zu nVidias Pascal-Generation) auch später noch absetzen können. So gesehen ist es arg verwunderlich, das AMD nicht mal endlich versucht, von der einwandfrei vorhandenen hohen Nachfrage entsprechend zu profitieren.

Hardware- und Nachrichten-Links des 17. Januar 2018 | 3DCenter.org
 
StefVR schrieb:
Völlig aus der Luft gegriffen. Volta zeigt bereits das GPUs noch lange nicht am Limit sind. Einzig die mangeldne Konkurrenz zwingt halt nicht zu grossen Schritten, aber wenn nciht viel passiert wechslken halt auch nciht viele.

Volta zeigt das sehr gut.
Die Tensor Cores sind wie Vegas PS und FP16 würde man dieses nutzen wäre Vega10 auch irgendwo bei der 1080Ti, wo v100 währe weiß keiner oder ob es übehraupt möglich währe.
beides tut man aber nicht, und ohne diese TensorCores ist V100 für seine DIE Size genauso jämmerlich wie Vega zum zocken, das ding ist fast doppelt so groß wie Vega oder GP102.

Liegt aber auch an uralt PC wo NV die Holz API DX11 ewig am leben hält. :)
Das NV "Monopol" wird uns nun paar Jahre erhalten bleiben, mining hin oder her, da hilft kein jammern.

Währe ich AMD würde ich auch vorrangig die Vega Stacks an Apple oder gar Sony und MS für +-0 verkaufen für die kommenden Konsolen als in PC Retailmarkt.
 
Zuletzt bearbeitet von einem Moderator:
Leaked schrieb:
İch gelesen, dass die 2080 ca. 1200$ kosten soll und wenn die wirklich so hoch kosten werden, dann wirds eine xbox one x :)

Und dann spielst du lieber auf 1440p und 30fps? Respekt😂
 
Shrimpy schrieb:
Währe ich AMD würde ich auch vorrangig die Vega Stacks an Apple oder gar Sony und MS für +-0 verkaufen für die kommenden Konsolen als in PC Retailmarkt.

kleiner fehler. „wührde“ wäre nach deinem sprachverständnis richtig.

lg
 
Um die Leistungsfähigkeit kommender NV Karten einzuschätzen, wäre es von Vorteil zu wissen in welcher Fertigungstechnik diese gebaut werden. Pascal war ja 16nm. Und ich hab schon viel gelesen. 7nm, 10nm, oder 12nm,wobei letzteres dank der guten Beziehungen zwischen TSMC und Nvidia eine auf NV zugeschnittene Version von 12nm ist.
Die Frage ist welche Strategie Nvidia verfolgt. 12nm ist ausgereift => hohe Yields, hohe Marge, aber geringer Leistungssprung gegenüber Pascal, sofern Nvidia bei ähnlicher Die-Größe bleibt. Da dürften es max. 30% Leistungsgewinn geben. Das wäre eine kurzlebige Generation.
Spätestens 2019 wird AMD nach dem Profi-Vega-Pipecleaner in 7nm Navi bringen. Und selbst wenn AMD die PS wie bei Vega nicht ganz auf die Straße bekommt, erwarte ich allein aufgrund der Fertigungstechnik, dass Nvidia 2019 in 7nm nachziehen wird. Und da erwarte ich nicht weniger als nahezu die doppelte Leistung einer 1080ti von NV.
 
Zuletzt bearbeitet:
Diese Meldung halte ich bei allen Spekulationen für am schlüssigsten. Ein später Launch der neuen Gaming GPUs macht angesichts der Stärke von Pascal ggü. der Konkurrenz Sinn. Einzig im Mining hat Pascal bisher das Nachsehen - aber gerade in diesem Anwendungsbereich wollen beide GPU Hersteller ihre Gamer-Karten nicht sehen.
 
nTs|Razor schrieb:
...dann spielst du lieber auf 1440p und 30fps? Respekt😂

Für evt. 1000 Euro weniger Anschaffungskosten, wer denn nicht (?):rolleyes: ... von einer gesunden Kosten-Nutzen-Relation und Maßhalten ist man durch die aktuelle Martkentwicklung weit entfernt und dass ihm das spielen auf 1440p mit 30fps oder 1080p mit 60fps viel weniger Spaß als Dir machen dürfte, ist nicht anzunehmen, zumal man sich jeder Zeit wohlig an die evt. 1000 Euro Ersparnis erinnern kann :p ;).

Wie schon vielfach geäussert sind aktuell leistungsstarke Konsolen (primär Microsofts XBOX natürlich) deutlich attraktiver als neue Mittelklasse-Spiele-PCs (und für Büro/Office-Anwendungen, Internet-Browsen, usw. können die Umsteiger dann immer noch Ihren alten/vorherigen PC verwenden oder ggfs. ein Billiglaptop.


Wenn ich mir dazu noch die mittlerweile oft armselig einfallslosen AAA-Titel, die immer gleichgestrickt, manchmal auch richtig verbuggt und jetzt auch mit Mikrotranskationen schon in Single-Player-Modus/-Spielen kontaminiert sind, da kann man sich gut die Frage stellen, was einem Gaming-GPUs oder Gaming insgesamt eigentlich noch Wert ist?

Und ja, früher war bis auf die mittlerweile massiv überbewertete Spiel-Optik/-Grafik leider alles besser ;). Wer das alles so kritiklos hinnimmt und immer fleißig/unkritisch/lemminghaft der Industrie das Geld zusteckt, dem ist auch nicht mehr zu helfen.

Mit mindestens 40% bis maximal 55% Rohleistungzuwachs ist bei Turing (oder wie auch immer der relativ belanglose Name lauten wird) im Vergleich m.E. zu Pascal zu rechnen, 40% sollten es sein, damit nVidia sich nicht blamiert, denn eine GTX1080Ti will man schon mit mindestens 5% übertrumpfen wollen mit dem neuen GT104 Chip-Vollausbau (GTX1180/2080) und PC-Gaming-Flaggschiff, um dessen Kauf auch mehr zu rechtfertigen/attraktiver zu machen für Gamer.

Mehr als 20% gegenüber einer GTX 1080Ti zu Beginn (bei mehr als 55% Leistungszuwachs) würde sich für nVidia nicht gut rechnen, da der Schritt zu groß wäre und man die Kundschaft eben doch kräftig melken will, bis uneingeschränktes 4K/UHD geboten wird.

Für in allen aktuellen PC Spiele 60+fps flüssiges, uneingeschränktes UHD/4K auf Ultra-Einstellungen bräuchte man allermindestens 100% mehr Rohleistung als bei einer übertakteten, wassergekühlten Titan Xp (die als Vollausbau bekanntlich schneller als eine wassergekühlte und übertaktete GTX 1080Ti ist) und davon sind wir noch mindestens 2 Generationen (inklusive kommender Turing-GPUs) entfernt, aber davon träumen (das schon mit Turing GPUs geliefert zu bekommen) dürfen hier einige Hobby-Enthusiasten natürlich weiterhin :D.
 
Zuletzt bearbeitet:
Chismon schrieb:
aber davon träumen (das schon mit Turing GPUs geliefert zu bekommen) dürfen hier einige Hobby-Enthusiasten natürlich weiterhin :D.

Diese Hoffnung wird doch jedesmal bei einem nVidia Release befeuert. Damals hieß es Maxwell wird 4k Gaming ermöglichen, danach wurde bei Pascal das gleiche rausposaunt. Mit den Karten am Markt muss man in vielen Spielen schon deutlich runterregeln um spielbare FPS in 4k zu erreichen. Auch Turing, oder wie sie die Generation nennen werden, wird mMn uneingeschränktes 4k Gaming nicht ermöglichen.
 
Wahrscheinlich würde 4k+ Gaming häufiger genutzt/gekauft, wenn die Spieleentwickler mehr Zeit/Geld investieren würden in die Optimierung ihrer Engines und zusammen an einer neuen API arbeiten - oder eben eine nutzen, die wesentlich performanter ist! (Vulkan, OpenCL etc.)

Wenn die Hardware es nicht packt, muss es eben die Software richten! Auf Konsolen ist auch sooo viel mehr Möglich bei VIEL weniger Leistung!
 
Zurück
Oben