Notiz GeForce GTX 1180: Wie aus Platzhalter-Einträgen gesicherte Fakten werden

Volker

Ost 1
Teammitglied
Dabei seit
Juni 2001
Beiträge
14.489
#1
TechpowerUp! arbeitet stetig an ihrer umfangreichen Produktdatenbank. Das schließt auch das Anlegen noch unbekannter Produkte ein, zu denen es noch keine handfesten Eckdaten gibt. Das ist legitim. Weil das allerdings nicht allen klar ist, wird der Platzhalter zur „Nvidia GeForce GTX 1180“ aktuell als gesichert herumgereicht.

Zur Notiz: GeForce GTX 1180: Wie aus Platzhalter-Einträgen gesicherte Fakten werden
 

Shaav

Fleet Admiral
Dabei seit
Okt. 2009
Beiträge
11.420
#2
Richtig so! Der Rest soll zu Wccftech gehen und den Luftschlössern hinterherjagen.
 

SKu

Vice Admiral
Dabei seit
Aug. 2012
Beiträge
6.770
#3
Ich bin mal gespannt ob Nvidia mit Ampere die Leistungssteigerungen liefern kann wie mit Maxwell und Pascal.
 

Floxxwhite

Lt. Commander
Dabei seit
März 2014
Beiträge
1.030
#4
Bei diesen Leistungssprüngen auch einfach mal auf 2 Jahres Rhythmus umsteigen. Oder wie Apple einfach ein s (für Speed) dran hängen 🤦🏼*♂️ In Wahrheit lohnt es sich ja gerade mal nach 3 Generationen aufzurüsten unter normalen p/l Verhältnissen ..
 

M.B.H.

Lt. Commander
Dabei seit
Dez. 2006
Beiträge
1.964
#5
Hoffentlich kommt diese Karte auch als Ti-Variante heraus und bietet einen deutlichen Boost, gerade für die höher auflösenden VR-Brillen ist das dringendst notwendig, da dürften die Grafikkarten auch gerne 500 % so stark sein um die garnicht mal so hohe Auflösung rendern zu können und nicht die Settings alle auf Minimum zu stellen damits gerade so läuft. Da muss sich einiges tun!
und irgendwann mit 16 K VR Brillen und 2.X SuperSampling kann man dann so langsam von Realismus reden :)
Aber bis dahin werden bestimmt noch 7-10 Jahre vergehen :(

Oder wenn die Hersteller mal eine Option bieten würde, die Grafikkarten zusammenzuschalten, zb. ein externes Rack mit 4-8 Grafikkarten, OHNE die SLI-Problematiken (Mini-Ruckler, kaum ein Spiel kompatible). Dann könnte man sich (ok durch deutliche Mehrkosten) richtige Grafikpower zusammenstellen die man fast beliebig hochskalieren kann. Diejenigen, die dann halt 5 bis 10 k Euro investieren können, bekommen die geballte Grafikpower.
 
Zuletzt bearbeitet:

Maine

Lieutenant
Dabei seit
Jan. 2007
Beiträge
732
#6
Waaaaaas? CB springt nicht auf den Hypetrain auf? Wo kommen wir denn da hin, wenn Journalisten nur noch seriöse Berichte verfassen???

:freaky:
 

Darklordx

Rear Admiral
Dabei seit
Juni 2006
Beiträge
5.661
#7
Finde ich gut so. Spekulatius hat seine Zeit und die ist nicht jetzt. ;)

Im Übrigen sollte AMD bald mit einem neuen Chip aus den Puschen kommen, zaubert NVIDIA spätestens dann was als Reaktion aus dem Hut. Bis dahin: Glaskugel rules! :evillol:
 
Dabei seit
Okt. 2011
Beiträge
2.606
#8
@M.B.H.

Bedank dich bei NVIDIA dafür das sie DX12 und Vulkan boykottieren. Wenn die endlich einmal aufhören würden DX11 als den heiligen Gral anzusehen dann würden Multi-GPU Systeme auch ohne SLI und Crossfire funktionieren. Gerade wenn du so hohe Anforderungen hast wie du es sagst sind die neuen Grafik-APIs die einzige Möglichkeit deinen Leistungshunger zu stillen.
Single GPU Karten & Systeme werden auch in 10 Jahren nicht in der Lage sein deine Beschriebenen Anforderungen umzusetzen. Die Entwicklungszyklen werden immer länger. Neue Fertigungstechnologien werden immer später stabil umsetzbar sein. So sieht nun einmal die Zukunft im PC Bereich aus.
Die Chipgröße können sie auch nicht ins unendliche Steigern sofern sie den Stromverbrauch nicht durch die Decke schießen lassen wollen.
 
Zuletzt bearbeitet:

benneque

Rear Admiral
Dabei seit
Juli 2010
Beiträge
5.889
#9
200W für die 1180? Sollten die Karten nicht sparsamer werden?
Das muss dann ja heißen, dass die 1180 doppelt so schnell wird wie die 1080. Immerhin ist die 1080 schon 2 Jahre alt und in der Zwischenzeit gab's ja wieder diverse neue Fertigungsverfahren. Und dazu dann noch 20W mehr Leistungsaufnahme. Und nicht zu vergessen, dass da auch 40% mehr Shader drin sind.
Oder kommen die 20W vom RAM? 16GB GDDR6 brauchen bestimmt auch etwas mehr Saft als 8GB GDDR3 - wobei der VRAM ja auch sparsamer werden sollte mit jeder Generation.

Wird schon mal vorbestellt!!!111einself

[/irony]
 

DKK007

Lt. Junior Grade
Dabei seit
Nov. 2015
Beiträge
321
#10
Wobei die Überschrift so klingt, als würde es tatsächlich gesicherte Fakten geben.

Das sollte besser in "vermeintlich gesicherte Fakten" geändert werden.
 

Herdware

Fleet Admiral
Dabei seit
Okt. 2011
Beiträge
12.995
#11
In Wahrheit lohnt es sich ja gerade mal nach 3 Generationen aufzurüsten...
Ich hocke noch auf einer 780Ti, aber ich werde bestimmt keine 2 Jahre alte 1080 mehr kaufen. Zumal bei durch Mining-Hype künstlich überhöhten Preisen.
Bevor es einen aktuellen Nachfolger gibt, wird nicht gekauft. Und wenn Nvidia weiter trödelt und AMD dabei schneller ist, wird vielleicht auch mal wieder was von denen.
(Ärgerlich nur, dass man sich je nach GPU-Hersteller auch auf bestimmte Monitore festlegen muss, wenn man synchronisierte Frameraten will.)

200W für die 1180? Sollten die Karten nicht sparsamer werden?
Ich finde, es sollte beides geben. Sparsame Modelle in Mittelklasse und Low End, aber auch echte High End-Karten, die die PCIe-Spezifikationen (300W) möglichst weit ausreizen.
 

ascer

Commander
Dabei seit
Juni 2008
Beiträge
2.821
#12
Ich könnte mir vorstellen, dass es sogar noch länger dauert als bisher gedacht, denn mittlerweile ist doch gesichert, dass Ampere die neue HPC-Generation wird und diese - gemäß Datacenter first - zuerst vorgestellt werden soll?!

Da von Ampere noch nicht viel zu sehen ist, würde ich vermuten das Turing für Gaming noch eine Ecke länger auf sich warten lässt.
 

Piak

Lieutenant
Dabei seit
Jan. 2010
Beiträge
939
#13
Nvidia hat doch gar keine Eile. Derzeit sind sie so konkurrenzlos wie lange nicht mehr. Sie können eine 1080TI günstiger produzieren wie AMD eine Vega 64, die zudem langsamer ist und oft mehr Strom verbraucht. Nvidia wird die Schublade öffnen wenn AMD Leistung liefert.
 
Dabei seit
März 2007
Beiträge
4.924
#14

Herdware

Fleet Admiral
Dabei seit
Okt. 2011
Beiträge
12.995
#15
Nvidia hat doch gar keine Eile. Derzeit sind sie so konkurrenzlos wie lange nicht mehr.
Ich sehe aber an meinem eigenen Beispiel, dass Nvidia trotzdem Geld entgeht. Ich bin sicher nicht der einzige, der inzwischen gerne aufrüsten möchte, aber keine 2 Jahre alte Karte mehr kaufen will. Oder anders gesagt: Wer an einer 1080 interessiert war, hat sich schon längst eine gekauft. Großartig neue Käufer werden sich dafür nicht mehr finden.

Es nutzt also nicht wirklich viel, "konkurrenzlos" zu sein. Das einzige, was Nvidia (und AMD) trotzdem hilft ihre alten Schätzchen weiter los zu werden, ist dieser bescheuerte Mining-Hype. Ohne den wären sie längst viel stärker unter Druck, was neues zu liefern.
 
Dabei seit
Jan. 2016
Beiträge
701
#16
Absolut.
Welcher Gamer kauft bitte 2 Jahre alte Karten zu einem deutlich höheren Preis als vor einem Jahr?
Auch ich warte.

Wegen den Monitoren mache ich mir übrigens keinen Kopf.
Werde mir nen 144Hz Monitor holen, und dann sind mit Freesync und GSync auch egal.
 

Esenel

Lieutenant
Dabei seit
Juni 2017
Beiträge
628
#17
Ich als 1080 Vorbesteller würde auch gerne wieder aufrüsten. Aber nun noch eine 1080Ti wegen 20-25% mehr Leistung für nen 1000er zu holen lohnt einfach nicht.
Es juckt mich zwar schon so in den Fingern wieder rumzubasteln, aber ich warte bis eine neue Generation rauskommt.
Auch wenn es noch ein Jahr dauern wird.
 

ascer

Commander
Dabei seit
Juni 2008
Beiträge
2.821
#19
Ich sehe aber an meinem eigenen Beispiel, dass Nvidia trotzdem Geld entgeht.
Nicht wirklich, weil es gibt ja bestimmte Produktionslimits. NVIDIA sagt ja nicht umsonst Datacenter first, die Marge ist da viel höher.

Und Gamingkarten wird man auch super für AI-Workstations und Mining los. D.h. deren Produktion werden die auch ganz sicher so abverkaufen können und wenn nicht, dann wird die Gamingproduktion sicherlich einfach noch weiter zurückgefahren und HPC noch weiter hochgefahren.



Nvidia hat doch gar keine Eile. Derzeit sind sie so konkurrenzlos wie lange nicht mehr.
Das stimmt natürlich auch, dass hatte ich hier...

Ich könnte mir vorstellen, dass es sogar noch länger dauert als bisher gedacht, denn mittlerweile ist doch gesichert, dass Ampere die neue HPC-Generation wird und diese - gemäß Datacenter first - zuerst vorgestellt werden soll?!

Da von Ampere noch nicht viel zu sehen ist, würde ich vermuten das Turing für Gaming noch eine Ecke länger auf sich warten lässt.
...noch gar nicht mit berücksichtigt.
 

Herdware

Fleet Admiral
Dabei seit
Okt. 2011
Beiträge
12.995
#20
Nicht wirklich, weil es gibt ja bestimmte Produktionslimits. NVIDIA sagt ja nicht umsonst Datacenter first, die Marge ist da viel höher.´
Da ich kein Data-Center betreibe und auch kein Mining, wäre Nvidia für mich halt gestorben und weitgehend uninteressant (abgesehen von allgemeinem, rein theortischen Interesse an der Technik), wenn sie den Gaming/Consumer-Markt aufgeben würden.

Wenn sie mein Geld nicht haben wollen, ist das ok. ;)

In dem Fall wäre zu hoffen, dass andere Hersteller in diesen dann brach liegenden Milliarden-Markt einsteigen.
 
Top