News GeForce RTX 4080 12GB: Nvidia streicht Grafikkarte wegen falscher Bezeichnung

Ayo34 schrieb:
Normal hatten Grafikkarten immer eine Unterscheidung wie "TI" oder "Super" im Namen.
Die Bezeichnung "Super" habe ich das erste mal bei den RTX 20XX Turing gesehen bzw. gehört, vermutlich weil es eine 2080 Ti schon gab.

Ayo34 schrieb:
Manchmal gab es auch eine Grafikkarte mit 2 verschiedenen RAM-Größen.
Das mag schon sein, aber so viel ich weiß nicht direkt zum Launch, meist wurde später ein gleiches Modell mit mehr VRam nachgeschoben, wie bei der RTX 3080 die ja zunächst 10GB Speicher hatte und dann wurde später die LHR mit 12 GB nachgeschoben. Von daher war das schon bei der Präsentationsshow etwas seltsam und man hat sich dann mal etwas genauer mit der RTX 4080 12GB beschäftigt und dann wurde es durch die Bekanntgabe der Spezifikationen erst richtig mysteriös.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gerithos
Taxxor schrieb:
Nein, man müsste der 4080 die gleichen ~80% Steigerung zugestehen, wie der 4090, also mal mindestens den AD103 Vollausbau nutzen.
Wieso nein? Du kritisierst den Abstand zwischen 4090 und 4080. Mache ich die 4090 langsamer, dann passt der Abstand.
Verbesserung zur vorherigen Generation ist für dich ja nicht relevant in der Diskussion.
 
shaboo schrieb:
Quatsch, 12-GB-4080 und 16-GB-4080 sind zwei klar unterscheidbare Produkte,
Ja. Und zwar insofern unterscheidbar, dass sie sich in der Speichermenge unterscheiden. Dass es zwei komplett verschiedene GPUs sind ist nicht erkennbar
 
  • Gefällt mir
Reaktionen: Rockstar85, aldaric, Jowiesel und 7 andere
Zotac2012 schrieb:
Das mag schon sein, aber so viel ich weiß nicht direkt zum Launch, meist wurde später ein gleiches Modell mit mehr Vram nachgeschoben, wie bei der RTX 3080 die ja zunächst 10GB Speicher hatte und dann wurde später die LHR mit 12 GB nachgeschoben. Von daher war das schon bei der Präsentationsshow etwas seltsam und man hat sich dann mal etwas genauer mit der RTX 4080 12GB beschäftigt und dann wurde es durch die Bekanntgabe der Spezifikationen erst richtig mysteriös.

Intel Arc 770 gibt es direkt mit 8 oder 16GB. Aber es bleibt eben die gleiche Grafikkarte dahinter mit einem Unterschied, den man direkt sehen kann. Wäre die 770 mit 8GB nur 50% so schnell wie die 16GB Variante, dann gehört das auch in den Namen, z.B. mit einem Zusatz wie TI oder mit einer kleineren Bezeichnung wie 730.

4080 12GB und 4080 16GB als Bezeichnung war einfach MIST!
 
br3adwhale schrieb:
Da hat NVIDIA einfach mal getestet wie weit sie gehen können, zurückrudern geht ja immer.
In derletzten Generation gab es eine 3080 10GB und eine 3080 12GB.
Da hat sich ja auch keiner beschwert, immerhin ist die 3080 12GB ja auch ca 5 bis 10% flotter.
Da wird Nvidia gedacht haben, das kann man noch etwas aufdehnen.^^
 
  • Gefällt mir
Reaktionen: br3adwhale
Anstatt die Umverpackungen zu vernichten, könnten sie die doch auch für 50-100 €/$ verkaufen... das würden doch sicherlich auch viele Leute zahlen 🤣
 
Ayo34 schrieb:
Intel Arc 770 gibt es direkt mit 8 oder 16GB.
Ja Intel hat das so gemacht, ich bezog mich auf Nvidia und nach all dem was es schon gab, schaut man dann schon mal genauer hin, wenn die kompletten Spezifikationen verfügbar sind. 🤔
Ayo34 schrieb:
4080 12GB und 4080 16GB als Bezeichnung war einfach MIST!
Da hat unser CEO von Nvidia Jen-Hsun Huang wieder mal ein wenig getrickst und wollte uns eine RTX 4060 Ti / RTX 4070 als eine RTX 4080 12GB unterjubeln und verkaufen. Aber das war so offensichtlich, das die RTX 4080 12GB alles war, außer eine RTX 4080, das alle schon von einer "Fake" 4080 gesprochen haben. Jo dachte sich Nvidia, man kann es ja mal versuchen. 😂
 
Bzg. das sei keine Irreführung:
Was, wenn nicht der Chip, macht denn eine 4080 zu einer 4080?
 
  • Gefällt mir
Reaktionen: Wintermute
Die Leistung?
 
  • Gefällt mir
Reaktionen: ThirdLife
Ragnarök88 schrieb:
In derletzten Generation gab es eine 3080 10GB und eine 3080 12GB.
Da hat sich ja auch keiner beschwert, immerhin ist die 3080 12GB ja auch ca 5 bis 10% flotter.
Da wird Nvidia gedacht haben, das kann man noch etwas aufdehnen.^^
Wir reden nicht von 5 oder 10%
Und wir reden auch von einer anderen Ausgangslage, wo die Karten nach und nach auf den Markt kamen, also die 3080 12GB später die 3080 10GB ergänzt hat.
Aber in der Sache kann und konnte man dieses Vorgehen auch kritisieren. Wenn NV gleich von Anfang an eine vernünftige Ausstattung gewählt hätte, wäre der Schritt auch gar nicht nötig geworden. Dazu die Verwirrung um die Einführung neuer LHR Modelle.
Der Kritikpunkt ist aber eher, dass hier eine "4070" als 4080 verkauft werden soll. Wie ich schon sagte, weil man die Kunden ausquetschen will um die teuer eingekauften Produktionskapazitäten zu refinanzieren, die man nach dem Einbruch im IT Markt nicht mehr braucht. Das ganze Portfolio ist gemessen an den absurden Preisen bei Highend nicht ausgereift und durchdacht.
 
  • Gefällt mir
Reaktionen: Rockstar85
Ayo34 schrieb:
Nur stimmt die hier hinten und vorne nicht, wenn die eine "4080" (aka 4060 ti) deutlich lahmer als die andere "4080" (aka 4070) ist.
 
  • Gefällt mir
Reaktionen: DaCrazyP
ManPon schrieb:
So wie sich die RTX 4090 Karten verkaufen "muss" Nvidia gar nichts, schon gar nicht zur "Ehrenrettung". Die werden sich vielleicht ärgern, dass man nicht 2.499€ als UVP für die RTX 4090 genannt hat. ;)
Wenn die Leute wirklich so bescheuert sind und die Dinger kaufen.
 
  • Gefällt mir
Reaktionen: Rockstar85
Blumentopf1989 schrieb:
Die einzige sinnvolle Antwort ist jetzt daraus eine 4070 zu machen und den Preis auf deutlich unter 1000 $ zu senken.
Wir dürfen nicht vergessen, dass die xx70er Karten eigentlich im Segment um die 400€ angesiedelt waren. Da müssen wir wieder hin!
 
  • Gefällt mir
Reaktionen: DaCrazyP und Wintermute
HansDetflefAndi schrieb:
Schlechtere Fertigung > deutlich schlechtere Effizienz. Sonst auch keine coolen Features wie NVENC und oder DLSS 3. Geschweige vom ganzen anderen Stuff der bei NV einfach dabei ist.
7800XT für 650,- wäre da so meine Schmerzgrenze bei all den Kompromissen. Und das Gehalt hat sich in den letzten 2 Jahren immer noch nicht verdoppelt um solche Preissprünge auch nur annähernd zu rechtfertigen.
Fanboy Extreme?!
? Hab ich was verpasst. Ich glaube AMD wird mit Nvidia Effizienstechnisch sowas von auf Augenhöhe sein.

Welche Coolen Features von Nvidia? Die die eh kein Gamer zwingend braucht.
650€ für ne 7800XT selten so gelacht.

Der größte Quatsch den du hier von dir gibst.
 
  • Gefällt mir
Reaktionen: Rockstar85, rg88, Balikon und 4 andere
Gesualdo schrieb:
Wir dürfen nicht vergessen, dass die xx70er Karten eigentlich im Segment um die 400€ angesiedelt waren. Da müssen wir wieder hin!
Tja diese Zeiten sind etwas länger vorbei und werden vorerst nicht mehr kommen.
 
  • Gefällt mir
Reaktionen: Ragnarök88, shaboo, Lhurgoyf und eine weitere Person
Gesualdo schrieb:
Wir dürfen nicht vergessen, dass die xx70er Karten eigentlich im Segment um die 400€ angesiedelt waren. Da müssen wir wieder hin!
Ich sehe nicht, wie eine x70 nur noch 300-330 USD kosten soll. Durch den extrem schwachen Euro muss man sich gewöhnen, dass bei Hardware nicht mehr 1:1 beim Preis USD <-> Euro gilt.

Nehmen wir mal 399 USD, dann sind das rund 480-500 Euro.
Bei 499 USD (-> "realistischer", gleicher MSRP wie bei der 3070 und 2070), dann sind wir bei 600-630 Euro.

Am Ende ist jedoch nicht der Name und dessen Preis entscheidend, sondern die "harten" Faktoren => Performance, VRAM, Verbrauch.
Wenn eine 70er Karte nur 30% (fiktive Zahl) der Performance einer 90er hat und 399 USD kostet, ist sie trotzdem kein guter Deal.
Bei z.B. 60% der 90er Performance und 499 USD sieht es schon wieder etwas anders aus.

Am Ende ist doch nur die, wie schon geschrieben, Performance und Stromverbrauch interessant. Ob die Karte am Ende 70, 60 oder sonstwie heißt, interessiert da nicht.


Wenn ich mir jedoch die Hardwaredaten der Chips so ansehe (unterhalb der 102er), dann erwarte ich da keine Performance-Wunder. Der 103er und darunter sind da doch sehr stark abgespeckt (in Relation zum 102er). Aber wie immer: wait for the benchmarks (der unabhängigen Medien wie CB und Co).
 
Wenn Nvidia alle Karten der 4000er Generation ehrlich und richtig aufgestellt hätte, hätten wir ein durchgehendes Leistungsplus von ca 70%-80% gegenüber dem direkten Vorgänger.
Darüber hinaus hätte man die Sparflamme ausschalten und die Karten ordentlich ausstatten sollen, mit DP 2.0 / 2.1, PCI-E 5.0, gescheites SI und ordentlichem VRAM (KEINE 4070 oder gar 4080 mit nur 12GB, nicht schon wieder).

Von einer Überarbeitung des Kühlers ganz zu schweigen, einen völlig unnötigen 2kg bis 2,5kg Klotz, der einem unter Umständen noch den Slot abreißt braucht niemand.

Wenn das mal als Minimum gegeben wäre, dann hätte ein Preisanstieg bei vielen auch keine riesige Welle gemacht, denn dann hätte man wenigstens für sein Geld auch ordentliche Hardware bekommen.......das was man jetzt hat ist überteuerter Alt-Müll.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gene Jackman, Recharging und LTCMike
GERmaximus schrieb:
Bor ich hoffe es wirklich, nur man hört einfach nichts. So nichts nichts, gar rein garnichts, gi ga garnichts von AMD.
Es beruhigt mich nicht, nichts zu hören, so kurz vorm geplanten Star:(
Die Ruhe vor dem Sturm.
 
  • Gefällt mir
Reaktionen: GERmaximus
Gaspedal schrieb:
toller Kontrast den ich sogar runterregeln muss, kein Ghosting Effekt, Lokal Dimming, tolle prachtvolle Farben. Was will man mehr. MicroLeds werden Oleds ablösen, daher abwarten. Oled ist derzeit keine Alternative für mich, so dass ich erneut auf NanoIPS setzen würde. Nicht jeder spielt nur am PC, ich arbeite stundenlang auch damit, habe oft für paar Stunden helle Standbilder, dass mag OLED garnicht.

1000:1 ist weit entfernt von toll, IPS Glow hat man leider auch, FALD hat der Monitor auch nicht, was zu Lichthöfen führt. Klar sind VA und TN auch keine Alternativen, ist dieselbe uralte Technik mit anderen Nachteilen, diese lassen sich aber umgehen, siehe unten.
Wenn man deiner Argumentation folgt "erst einmal warten, es kommt etwas besseres", dann kann man nie kaufen, denn MicroLED ist seit 2018 angekündigt, außer Produkten >70.000€ und min. 89 Zoll gibt es bisher NICHTS und eine Roadmap gibt es auch nicht, kann also noch viele Jahre dauern, bis wir echte Consumer-Produkte sehen.
Hier z.B. ein Bericht von cb

Und es gibt eben bereits Alternativen zu der alten Technik und wenn man Angst vor Burn-In hat, gibt es auch eine Alternative zu OLED:
Mini-LED wird im Monitorbereich mittlerweile häufiger eingesetzt und die Preise sind für den Anstieg der Bildqualität (im Vergleich zu normalen VA/IPS/TN Panels) schon gemäßigt.
Als Beispiel mal den Samsung Neo G8 bei rtings.

Natürlich kann man auch mit einem normalen IPS-Panel glücklich sein, aber wenn man 2000€ für eine GPU ausgibt und hier immer wieder sagt "Ich liebe RT + hohe fps, die GPU brauche ich als Gamer". Dann verstehe ich nicht, warum man ausgerechnet beim Monitor Kompromisse eingeht, für mich ist er die wichtigste Komponente, was bringt mir das beste RT, wenn mein Monitor orangefarbenen IPS-Glow hat?
 
Zurück
Oben