Notiz GeForce GTX 1180: Wie aus Platzhalter-Einträgen gesicherte Fakten werden

Piak schrieb:
Nvidia hat doch gar keine Eile. Derzeit sind sie so konkurrenzlos wie lange nicht mehr. Sie können eine 1080TI günstiger produzieren wie AMD eine Vega 64, die zudem langsamer ist und oft mehr Strom verbraucht. Nvidia wird die Schublade öffnen wenn AMD Leistung liefert.

Is schon hart. Ich realisier grad wieder was für ein monumentaler Fehlgriff GCN war/ist. Man wollte voll auf Compute gehn, hat Gaming vernachlässigt, und ist jetzt in beiden Bereichen nicht konkurrenzfähig und macht kein Geld.
 
Esenel schrieb:
Ja, weil du nicht über deinen eigenen Tellerrand blickst.

Hättest doch einfach beim ersten Antworten geschrieben, dass du doch mehr zu basteln hast, statt "?" zu antworten.

Habe mobil keine Signaturen, hast doch bestimmt bemerkt, dass ich von einem lukü System gesprochen habe. Kein Grund ranzig zu werden.

@über mir: ja danke grade auch gerafft ;)
 
Ende Februar hab ich mir meine jetzt 080 Ti geholt, zu 924 Euro. Mit der Entscheidung vin ich zufrieden. Man merkt die Horse Power einfach, vorher hatte ich ne 1070. In 4k is ne 1080 Ti einfach ungeschlagen.

Die sogenannte 1180 wird sicherlich mit DDR 6 erscheinen, 8 oder 12 GB an Menge, je nach Verfügbarkeit. Und der Chip könnte in etwa so viele Shadereinheiten haben, wie die 1080 Ti. Also eine Leistungssteigerung von 20% halte ich für realistisch. Allerdings würde mich dann mal interessieren wie eine 1180 Ti aussehen soll. Es bleibt wohl nur abzuwarten.

Mit meiner Wahl jedenfalls, bin ich trotz des Preises, zufrieden. Und die bleibt jetzt ne Weile drin. Bei den Spielen tut sich ja seit Jahren nicht mehr besonders viel. Umso besser.
 
Steini1990 schrieb:
@M.B.H.

Bedank dich bei NVIDIA dafür das sie DX12 und Vulkan boykottieren. Wenn die endlich einmal aufhören würden DX11 als den heiligen Gral anzusehen dann würden Multi-GPU Systeme auch ohne SLI und Crossfire funktionieren. Gerade wenn du so hohe Anforderungen hast wie du es sagst sind die neuen Grafik-APIs die einzige Möglichkeit deinen Leistungshunger zu stillen.
Single GPU Karten & Systeme werden auch in 10 Jahren nicht in der Lage sein deine Beschriebenen Anforderungen umzusetzen. Die Entwicklungszyklen werden immer länger. Neue Fertigungstechnologien werden immer später stabil umsetzbar sein. So sieht nun einmal die Zukunft im PC Bereich aus.
Die Chipgröße können sie auch nicht ins unendliche Steigern sofern sie den Stromverbrauch nicht durch die Decke schießen lassen wollen.

Was ist denn das wieder fürn quatsch?
Mal abgesehen davon dass ich nicht sehen kann wo Nvidia DX12 und Vulkan boykottieren sollte, heißt DX12/Vulkan nicht automatisch Multi-GPU Unterstützung. Eher das Gegenteil, da die Spielehersteller das aktiv Implementieren müssen. Und da kaum jemand wirklich Multi-GPU Systeme einsetzt lohnt es sich auch nicht im Entferntesten, Unterstützung dafür anzubieten.
Und die üblichen Probleme von Multi-GPU Systemen werden da wohl leider auch bleiben, da die neuen APIs auch nichts daran ändern können, z.B. Aufteilung der Last (jede GPU nen eigenen Frame, jede GPU ne Bildschirm-Region, jede GPU andere Teile der Pipeline? Was machst du wenn die Last sehr ungleich verteilt ist?), die Tatsache dass jede GPU ihren eigenen Speicher hat und du das alles unter Umständen synchronisieren musst und so weiter.
 
Steini1990 schrieb:
Wenn sie es wirklich forcieren würden dann hätten sie Gameworks schon lange auf DX12 und Vulkan verfügbar gemacht und die Spielhersteller auch dazu animiert dies zu nutzen. Mir würde aber kein Gameworks Spiel einfallen welches etwas anderes als DX11 unterstützt.

Also du möchtest von nVidia als Beweis dafür dass sie DX12 und Vulkan unterstützen, dass sie Gameworks portieren? Versteh ich das richtig? Solltest du nicht über jeden Tag froh sein an dem es noch kein Gameworks unter diesen APIs gibt?

Als Grund warum das (noch) nicht der Fall ist kann ich mir durchaus vorstellen dass DX12 dafüf einfach zu Low-Levelig ist. Da kannst du Spieleherstellern einfach weniger vorkauen was Middleware angeht.
Und es sollte auch klar sein, dass falls nVidia Gameworkseffekte unter DX12 einführt, es für AMD-Karten noch viel viel schwieriger wird, diese auch darzustellen. DX12 ist bekanntermaßen "näher am Metall" und das "Metall" von nVidia und AMD unterscheidet sich doch erheblich.

Vielleicht freut es dich aber zu hören, und vielleicht nimmst du das als Hinweis dass nVidia da nichts boykottiert, dass nVidia eine Vulkan-Zwischenschicht als Open Source erstelle hat die den Einsatz von Vulkan vereinfachen-, undSpielehersteller ermuntern soll
Vulkan einzusetzen.
 
Zuletzt bearbeitet:
"Da seit der Vorstellung der letzten GeForce-Gaming-Lösungen in dem oberen Mittelklasse- und High-End-Bereich zwei Jahre vergangen sind, wird die Ungeduld größer"

nö, seit den 2 Jahren kamen noch nicht viel spielenswerte Games, also kann die TI ruhig noch mind. 3 Jahre ein paar Spiele zusammenkratzen... damit sich die Ausgabe gelohnt hat.
 
Stunrise schrieb:
Wie aus einer Notiz über Fake News das Ende von Nvidia Grafikkarten prophezeit wird, bei dem Wannabes mit Bilanzzahlen um sich werfen und das Ende von PC Gaming gleich prognostizieren. :rolleyes:

Einer der wenigen sinnvollen Beiträge.

Nvidia hat doch gefühlt schon seit 6jahren keine Konkurrenz und dennoch kommen neue Karten.

Sicher wird Nvidia den Mining Boom nutzen um die Lagerbestände zu hohen Preisen abzuverlaufen und vielleicht wurde der Release der nächsten gen auch um einige Monate verschoben(aber siehe Vega das kann verschiedenste Gründe haben und der letzte ist Gamer zu Trollen).

Die nächste gen. wurde bestimmt schon vor einigen Jahren geplant und der Grundstein dafür gelegt.

Möglicherweise will Nvidia genug Chips für den Release haben damit es wegen der Miner nicht zum paperlaunch für Gamer kommt. Aber nein das kann nicht sein Nvidia muss definitiv immer böseste Absichten haben anderes kann nicht möglich sein.
Weder ist AMD heilig noch Nvidia die Reinkarnationen des Bösen. Einfach Firmen die Umsätze/ Gewinne /Marktanteile/Renditen/ Quoten etc. steigern wollen, nicht mehr und nicht weniger.

Man ist doch warm draußen, grillt ne Runde, genießt das Leben und im Herbst wird sicher die nächste gen. in den Regalen stehen.

Ich hätte gern auch bezahlbare 4k Monitore mit 100hz und ne graka die das spielend schafft, die nächste gen. von VR usw.
Nur umgekehrt glaube ich nicht wie hier die meisten, dass die Industrie diese Dinge nur deshalb nicht bringt um mich zu ärgern.
 
Hier wird im Thema generell viel Mist verzapft, genau so wie die Aussage falsch ist, dass nVidia seit 6 Jahren keine Konkurrenz hätte. Das ist ebenso falsch wie der grundsätzliche Stop von Gaming-Architekturen. Aber, was man einfach festhalten muss, dass nVidia seine Ressourcen momentan in anderen Bereichen bündelt, die nichts mit Gaming zu tun haben.
 
M.B.H. schrieb:
und irgendwann mit 16 K VR Brillen und 2.X SuperSampling kann man dann so langsam von Realismus reden :)
Aber bis dahin werden bestimmt noch 7-10 Jahre vergehen :(
😂
Die Pixelzahl springt zwischen 4k und 16k um den Faktor 16, mit SS dann um Faktor 32. Da werden noch ein paar mehr Jährchen vergehen, wobei ich mich gerade sowieso frage warum man bei 16k noch auf Super-Sampling setzen sollte, AA sollte zu dem Zeitpunkt schon gegessen sein. Fun-Fact: Ein 16k Bild mit HDR10+ ist knapp 500 MB groß - viel Spaß 100 pro Sekunde oder mehr davon auf einen Monitor zu bekommen. :lol:
 
Aldaric87 schrieb:
Hier wird im Thema generell viel Mist verzapft, genau so wie die Aussage falsch ist, dass nVidia seit 6 Jahren keine Konkurrenz hätte. Das ist ebenso falsch wie der grundsätzliche Stop von Gaming-Architekturen. Aber, was man einfach festhalten muss, dass nVidia seine Ressourcen momentan in anderen Bereichen bündelt, die nichts mit Gaming zu tun haben.

Du musst aber schon den ganzen Satz lesen... "gefühlt" und natürlich gibts auch stand heute Konkurrenz...
 
"Doch die Fakten um den nächsten Gaming-Chip von Nvidia sind bisher nicht nur dünn gesät, es gibt sie quasi überhaupt nicht."

Warum zur Hölle eigentlich nicht? Mich nervt diese Ungewissheit ungemein. Betrifft ja auch AMD mit ihrer Navi. Warum wird nicht erklärt, was geplant ist? Und damit meine ich nicht irgendwelche Maketinggesülze, sondern einfach nur die rohen Daten der Chips und ein ungefähres Datum, ab wann man das Zeug kaufen kann. Bei den CPUs ist man da irgendwie informativer.
 
Mit 7nm TSMC Fertigung rechne ich für den GT104 Chip noch nicht (noch zu teuer und nicht nötig, denn nVidia wird nur soviel Leistung für Gamer bieten wie sie müssen (35-45% mehr als bei Pascal?), denn in kleinen Schritten kann man besser abkassieren - wenn die Konkurrenz leistungstechnisch nicht in allen GPU-Klassen nachkommt - und das werden die sich sicherlich von Intel abgeschaut haben), allerdings wäre TSMC 7nm Fertigung evt. schon eine Option für die GTX1180Ti/2080Ti sowie die kommenden Titan-GPUs (je nachdem wann deren Marktstart angesetzt ist?).

Herdware schrieb:
In dem Fall wäre zu hoffen, dass andere Hersteller in diesen dann brach liegenden Milliarden-Markt einsteigen.

Das Problem sind die Patente und das Know-How, da gäbe es nur noch wenige Anwärter, wie VIA oder Matrox mit Großinvestor/-konzern im Schlepptau, die da noch einmal einen Anlauf starten könnten und vielleicht braucht's das auch nicht, wenn Intel tatsächlich auch im Gaming-Segment erfolgreich einsteigen könnte (frühestens wohl in 3-4 Jahren).
 
Chismon schrieb:
allerdings wäre TSMC 7nm Fertigung evt. schon eine Option für die GTX1180Ti/2080Ti sowie die kommenden Titan-GPUs (je nachdem wann deren Marktstart angesetzt ist?).

Ich glaube nicht, dass die GeForce-Karten für's Gaming noch irgendeinen Einfluss auf Fertigung, Marktstart, ... für die Titan Karten haben. Seit der Titan V sind das ja nur noch professionelle ("Einstiegs"-)Karten. Das wird NVIDIA sicherlich nicht mit der nächsten Generation rückgängig machen.

Eine neue Titan wird man bestimmt sogar noch eher sehen, als die neuen Gaming-Karten. Weil Ampere für den professionellen Markt ja nochmal vor Turing eingeführt werden soll. Und damit wird dann wohl eine Titan A (oder wie auch immer) auf Ampere-Basis eine der ersten professionellen Karten sein wie üblich.

Und Turing für Gaming halt davon komplett abgekoppelt und nach hinten geschoben. Wenn sie dem bisherigen Releasetempo treu bleiben, wird man auch eine 1180 Ti in 2018 nicht mehr sehen.
 
Wenn Nvidia ihrem Release-Zyklus treu bleibt, dann kommt eine 1180ti 2019.

1080 - Mai 2016
1080 ti - März 2017

1180 - Q3(?) 2018
1180ti - Q3(?) 2019
 
Find's gut das ihr es noch ein mal klar stellt, das bisher ALLES Spekulationen sind.

Stehe seit einem Jahr auch in den Startlöchern wie viele andere hier die kommentiert haben. Für WQHD lohnt sich eine 1080 einfach nicht wirklich, da ich mir sicher bin das ich in 1-2 Jahren wieder unzufrieden mit der Performance bei neuen Titeln wäre - man will ja schließlich auch etwas von seinen 1xxHz am Monitor spüren:p

Hoffe einfach das es Q3 2018 wird, und wenn die in der 4. Septemberwoche erscheinen.. :D
 
Zuletzt bearbeitet:
Ich hoffe nur die bringen die GPU Wasserkühlungsblöcke zeitgleich/zeitnah mit raus :-)
Nicht dass man wieder ewig warten muss :rolleyes:
 
Esenel schrieb:
Ich hoffe nur die bringen die GPU Wasserkühlungsblöcke zeitgleich/zeitnah mit raus :-)
Stimmt! Aber wenn die Startpreise nicht zu sehr abgehoben sind wird vlt. erst mal eine Referenzkarte reingebaut und auf den Kühlerrelease bis zum Umbau gewartet. ...dann weiß man seine WaKü auch wieder mehr zu schätzen:D
 
Hopsekäse schrieb:
Der einzige Hersteller, der wirklich aktuell Ansätze zeigt, den Gaming-Markt zu vernachlässigen, ist AMD. Vega ging ganz klar richtung Compute und Anzeichen für getrennte Compute/Gaming-Architekturen gibt es hier nicht.

Hawaii war auch bereits ein Compute-Chip. Tahiti auch. Davor kenne ich mich nicht aus, aber AMD hat seit GCN immer gleichzeitig für Compute und Gaming geeignete Chips gebaut und gleichzeitig versucht, die Gaming-Industrie in Richtung der sinnvollen Nutzung von Compute-Fähigkeiten moderner GPUs zu schieben. Selbst Nvidia haben das mit PhysX gemacht.

AMD versucht beides zu vereinen. Nvidia (und Intel?) machen es anders bzw. können es sich leisten auf beiden Schienen gleichzeitig zu fahren und diese säuberlich zu trennen.
 
Zuletzt bearbeitet:
Da bin ich mal gespannt.

Ich bin aber bereits ein paar Jahre voraus mit meiner Graka
 
Zurück
Oben