Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News RTX Titan Benchmarks: Geheimer Prototyp mit 48 GB und voller AD102 aufgetaucht
beckenrandschwi
Commander
- Registriert
- Aug. 2004
- Beiträge
- 2.102
Das Teil würde ne 5090 bei 600W wohl ganz knapp nicht überholen. Bei 900W, wie es mal Gerüchte gegeben hat dann aber schon. Die Kühlung ist absolut geil! Leider braucht es wohl wirklich mindestens 4 Slots...
Angenommen Nvidia hätte diese Karte rausgebracht, und die 50er Serie ja bereits in Planung etc. war, hätte ich mir gut vorstellen können, dass so das High-End Produktportfolio ausschaut:
Aktuelle 5090 wäre die 5080 mit 32GB und die 5090 kommt mit 64GB.
Das wärs doch gewesen 😁
Aktuelle 5090 wäre die 5080 mit 32GB und die 5090 kommt mit 64GB.
Das wärs doch gewesen 😁
Xes
Admiral
- Registriert
- Nov. 2013
- Beiträge
- 7.830
Nvidia hätte ein dickes Minusgeschäft gemacht, wenn sie das Teil als Consumergrafikkarte angeboten hätten:derSafran schrieb:Die Karte weckt Begehrlichkeiten.
Schade, dass man sic als Verrbaucher h nicht mehr darauf verlassen kann das bestmögliche Produkt (zu einem entsprechenden Preis) erwerben kann.
Den gleichen, (im Gegensatz zur RTX 4090) nur leicht beschnittenen Chip konnten sie ja prima in den RTX 6000 Ada Profikarten verbauen, die ihnen damals für 7500-8000€ aus den Händen gerissen wurden.
Das sind Preise wo selbst die meisten Enthusiasten abgewunken hätten.
Mit billigeren Titan Karten hätte man nicht nur weniger verdient, die Karten wären bei gleicher 48GB VRAM Ausstattung vermutlich auch kaum bei den Gamern angekommen, sondern einfach wie damals in der Kryptominingzeit palettenweise als "günstige" AI-Workstationkarten zweckentfremdet worden.
Alles was mit AI zu tun hat, möchte eigentlich gerne so viel VRAM wie möglich. Ich vermute immer noch, dass das der Hauptgrund ist, warum Nvidia dahingehend derzeit so geizig ist was die Consumermodelle angeht:
Es soll blos keiner auf die Idee kommen, für seine KI-Anwendungen einfach (mehrere) günstige Gamingkarten statt den deutlich besser bestückten, aber sündhaft teuren Profikarten zu verwenden.
Alles was an warmer Luft Richtung CPU geht ist suboptimal, egal aus welcher Richtung.kachiri schrieb:Ich meine das zeigt ja schon der Test der Astral auf CB. Die Abwärme ist die gleiche. Es macht aber eben einen Unterschied, ob ein Teil der Luft hinten rausgeblasen wird oder die Luft erstmal "zur Seite" rausgeht, ehe sie in Richtung CPU-Kühler aufsteigt.
Umso mehr Luft zwischen CPU-Kühlkörper und Grafikkarte, umso kleiner die direkten Auswirkungen. Meine Logik zumindest.
Ich versteh deine Aussage nicht......... Sorry....
Ergänzung ()
Nvidia wird es ihm schlicht nicht erlaubt haben.Francis B. schrieb:Wo die leistungstechnisch liegen wird, war ja grob vorraus zu sehen, hab das Video gestern gesehen und war etwas enttäuscht, dass er sie nicht zerlegt hat, sonst hat er sich auch nicht so und meist find ich das am interessantesten.
Aber vielleicht hat ja auch Nvidia was dagegen oder er macht's noch in einem anderen Video.
Und sich von Nvidia verklagen lassen kann sich selbst der Bauer glaub nicht leisten.
Und somit darfst du 3x raten von wem er den Sample bekommen hat.........
MonoIith
Cadet 4th Year
- Registriert
- Dez. 2024
- Beiträge
- 93
Warum sollte Nvidia dem Roman grade diese Karte überlassen? So schlecht wie er (zurecht) über die 5xxx Serie berichtet hatte, wundert es mich, dass er überhaupt noch welche bekommt. Zumal die RTX Titan selbiger ziemlich auf den Pelz gerückt ist.Contor schrieb:Nvidia wird es ihm schlicht nicht erlaubt haben.
Und sich von Nvidia verklagen lassen kann sich selbst der Bauer glaub nicht leisten.
Und somit darfst du 3x raten von wem er den Sample bekommen hat.........
Warum sollte ausgerechnet der8auer so ne Karte von nvidia bekommen? Gibt's doch viel größere Tech Youtuber?!
Sollte die Karte nicht auch mit nem .inf Mod mit aktuellen Treibern laufen?
Verstehe auch nicht warum eine TITAN Ada Karte der 5090 den Rang abgelaufen hätte. Das sind zwei sperate Kategorien. Nvidia könnte genauso mit einer Titan Blackwell den Abstand wieder erhöhen, uneinholbar für Titan Ada.
Finde es auch schade das nVidia den Vollausbau des dicksten Chips den Gamern vorenthält. NVidia baut die größten leistungsfähigsten GPUs und kein Gamer darf sich an ihrer maximalen Leistung erfreuen, irgendwie blöd von nVidia. Müsste ja auch kein Titan Brand mit noch mehr Speicher sein, aber so ne "RTX Ultra Blackwell" mit ~800W, GB202 nahe Vollausbau und derzeit schnellstem 32GB GDDR7 würden sich denke einige kaufen wollen, wenn der Preis nicht völlig eskalieren würde. Könnte ja auch allein von nVidia vertrieben werden ohne Partner.
Sollte die Karte nicht auch mit nem .inf Mod mit aktuellen Treibern laufen?
Verstehe auch nicht warum eine TITAN Ada Karte der 5090 den Rang abgelaufen hätte. Das sind zwei sperate Kategorien. Nvidia könnte genauso mit einer Titan Blackwell den Abstand wieder erhöhen, uneinholbar für Titan Ada.
Finde es auch schade das nVidia den Vollausbau des dicksten Chips den Gamern vorenthält. NVidia baut die größten leistungsfähigsten GPUs und kein Gamer darf sich an ihrer maximalen Leistung erfreuen, irgendwie blöd von nVidia. Müsste ja auch kein Titan Brand mit noch mehr Speicher sein, aber so ne "RTX Ultra Blackwell" mit ~800W, GB202 nahe Vollausbau und derzeit schnellstem 32GB GDDR7 würden sich denke einige kaufen wollen, wenn der Preis nicht völlig eskalieren würde. Könnte ja auch allein von nVidia vertrieben werden ohne Partner.
kachiri
Fleet Admiral
- Registriert
- Apr. 2011
- Beiträge
- 20.567
Hättest du denn 7000-8000 Euro bezahlt. Mindestens? Oder soll NV den Chip verschenken und sich damit auch noch das eigene Profi-Geschäft torpedieren?SFVogt schrieb:inde es auch schade das nVidia den Vollausbau des dicksten Chips den Gamern vorenthält. NVidia baut die größten leistungsfähigsten GPUs und kein Gamer darf sich an ihrer maximalen Leistung erfreuen, irgendwie blöd von nVidia.
Vielleicht gibt es ja eine Titan Blackwell

Es gibt für NV auch absolut keinen Grund eine Titan ohne Not auf den Markt zu schmeißen, wenn die Chips, sogar teildeaktiviert, als Profi-Karten weggehen wie warme Semmeln Sonntagmorgens beim Bäcker.
LeckerRK
Lt. Junior Grade
- Registriert
- Aug. 2009
- Beiträge
- 335
Na endlich gibt es wieder Titan bei Nvidia auch wenn sie viel zu spät kommen und nur ein Einzelstück sind.Ich warte noch 100 Jahre bis es eine RTX 5080 Titan gibt die 32 GB Videoram hat und davon 512 MB Cache damit sie nicht die RTX 5090 schlägt wie damals mit der GTX 1080 Ti lol,was will man mit einer 5060 Ti oder 5070 Ti denen fehlt es eindeutig am Videospeicher und daher völlig unnütz.Man sollte nicht vergessen das RTX und DLSS Videospeicher auffressen ohne Ende aber in der heutigen Zeit wird ja der Arbeitsspeicher in DDR4 oder DDR5 mit benutzt und vor allem eine sehr schnelle SSD mit mindestens 2- 4 TB Speicher für die Auslagerungsdatei sowie den Spielen von den angeblichen Programmieren die es einfach nicht hinbekommen es genau so schnell auf einer SATA 3 hin zu bekommen und das geht einwandfrei!
Zuletzt bearbeitet:
Powl_0
Commodore
- Registriert
- Sep. 2018
- Beiträge
- 4.823
Die GPU skaliert nicht unbegrenzt mit der Leistungsaufnahme. Bevor da 900W durchgehen, erreicht die GPU vermutlich bereits instabile Taktraten.beckenrandschwi schrieb:Das Teil würde ne 5090 bei 600W wohl ganz knapp nicht überholen. Bei 900W, wie es mal Gerüchte gegeben hat dann aber schon
Alexander 65
Lt. Junior Grade
- Registriert
- Apr. 2024
- Beiträge
- 377
Seltsam bei meinem Rechner i9-13900K ist im "MSFS 2023" die Geschwindigkeit "Limited by GPU "RX 7900 XTX"" begrenzt!
Gibts noch was schnelleres?
Aber nicht ne RTX 9080 die bekomme ich von der Größe / Breite von 137mm nicht ins Gehäuse!
Gibts noch was schnelleres?
Aber nicht ne RTX 9080 die bekomme ich von der Größe / Breite von 137mm nicht ins Gehäuse!
syfsyn
Admiral
- Registriert
- Nov. 2010
- Beiträge
- 8.675
nvidia zieht sich aus dem Desktop gpu markt zurück da wird nix mehr kommen nach der rtx6090 die nur ein refresh der rtx5090 ist in n4p -6% chipfläche und -22% Strombedarf
Die gründe sind ai und hpc chipbedarf sowie das chipdesign muss mehr cache haben was chipfläche kostet und in n2 bis zu 80% der chipfläche erfordert das geht nicht.
Sram was der cache ist schrumpft nicht mehr folglich werden die chips teurer und man kann nur noch die Taktraten die perf. steigern. Das geht aber bei der packdichte nur bedingt und man kann keine kleinen chips mehr fertigen weil diese schlicht zu hohe packdichte haben was den Takt dann wegen wärmestau eine Taktwand erreichen wird. +-1ghz
Die Lösung ist simple das man komplett neu denkt und auf eine 64bit arch umstellt und dann den sram auslagert in einen billigeren node also mcm nvidia idee das mit einen link zu machen lohnt sich nur mit hpc und ai chips.
Daher nehme ich an das man ein igp tile bei intel als apu entwickelt die bis zu 4gpc a18sm a 256alu gibt aber in ampere design.
quasi ampere doppelte alu cache identisch faktisch ampere mal 2 auf a16 node -33% sram Größe dank gaa
der volle chip hat also dann 18432 alu die mit 3,0ghz grob 100w tdp hat
Der tile dürfte grob 92mm² groß sein dieser dürfte bei eine waferpreis bei grob 30000$ dann 42-48$ kosten
Der vram geht komplett an ddr6 mit 512bit Anbindung geteilt mit der cpu Die marge ist dann fixed für nvidia mit etwa 150% faktisch kostet der tile dann für intel 120$ +cpu tile +I/o tile
Also die apu ab 600$ bei der perf. der rtx5090 in ner apu.
Gut möglich das ein halber chip mit nur 2gpc dann auch gibt mit 50w tdp apu ab 300$ perf auf level der rtx4080
Das wird maximal mit a14 node noch +20% Takt bekommen danach ist erstmal stillstand bis zur ps7 2034
Wenn cfet alles neu mischt
bei amd bin ich mir sicher was sie Planen bei nvidia ist da noch ein großes Fragezeichen da auch im raum steht das nvidia eigene cpu und gpu als eigenen pc anbieten wollen.
Dieses Projekt ist sicher wird aber als ai workstation gehandhabt wo man versucht x86 zu emulieren das wird scheitern.
Darum wird es die Kooperation mit intel geben und diese ai workstations werden ne Nische erfüllen, für eben ai workloads mit eigener software.
dgpu lohnen sich für nvidia nicht mehr, nicht bei den chipkosten und mit ner apu sind abnahmen der tiles zu 100% gesichert und somit fixe einnahmen.
Kein Lagerbestand mehr, kein Abverkauf mehr, kein teures pcb design mehr. Also nur Vorteile wo dann man sich komplett auf ai konzentrieren kann.
Da amd sich mit udna auch den Weg geht. Allerdings nur mit 4se (1 se 24cu) a128 alu in maximum auf a16 und danach auch nur den Takt erhöht +- 15% dank a14 node. +10% dank a10 node.
Wird man maximal die perf. der rtx5090 erreichen.
Das wird ein stilstand geben bis zur cfet Fertigung 2034 und das ist beiden Herstellern bewusst
Was quadros angeht dürfte noch eine Serie bleiben die auf hpc emuliert wird dafür wird es eine Ausgabeeinheit geben mit rops und tmu der rest läuft über die ai fab.
Es kann auch sein das nvidia ein high end chip design grob 380mm² und eine quadro daraus macht immer auf maxed 250w tdp limitiert.
Diese sku ist nicht schneller als die derzeitige rtx5090 aber kann jegliche gpu sku emulieren.
da es auch weiterhin epyc und intel server Plattformen gibt mit pcie, geht das auch.
Die Gründe sind klar. Alle wollen AI, die Fertigung lässt keine günstigen chips zu und bis cfet wird man keine Lösung für sram haben da mcm sich als zu schwierig erwiesen hat.
Darum hat man sich für software entschieden und man versucht die hardware so stromsparend zu machen wie möglich. Und setzt das Rennen für maximale perf. aus bis man das sram problem gelöst hat.
gaa kann es nur halb lösen da es immer noch 80% chipfläche frisst inklusive Si
darum der Ausweg in gaming orientierte apu die deutlich kleinere sram Größen haben wird.
Ein weiter so mit derzeitigen n4p node wird nicht helfen und mcm wurde quasi aufgegeben.
Das es so gekommen ist ist sehr schade und sagt das man die kosten für mcm sich sparen will da der gaming markt keine Zukunft hat und in ai die Zukunft sieht damit skaliert man in komplette server racks und denkt über nvlink und alternativen für gpu zu emulieren als ai fabric.
Das man mcm mit chip die gestapelt sind funktionieren noch mehr alu und mehr cache bekommt ist klar aber das kostet viel Geld um das zu entwickeln das lohnt sich aber nicht solange es nur gaa gibt dann gleich zu cfet und 3d chips.
Cfet ist derzeit in Forschung wird vermutlich 2030 in sample gehen und 2034 bereit sein für erste fabs zur Fertigung bereit sein.
Die ersten designs werden apu mit doppelten alu und vierfache cache Größen mit Taktraten jenseits der 12ghz cpu 8ghz gpu
Das ist möglich da die wärme durchgeleitet wird und es quasi kaum bis keinen wärmestau gibt. Darum diese Taktraten die auch wegen dem glas Substrat zu verdanken sind.
Es ist schade das man sich gegen mcm bei gpu entschieden hat es wäre möglich gewesen bei Verzicht auf sram zugunsten gaming zum schaden gegen ai.
Mit ampere in a16 node wären drin gewesen 3,5ghz gpu clock und etwa 256sm bei 440w tbp grob 240mm² chip der doppelt so schnell geworden wäre wie die rtx5090 mit 384bit si und gddr7 32gbps das hätte gereicht.
Aktuell ist die Bandbreite quasi Sinnfrei bei der rtx50 gen, einzig die neue amp Einheit sorgt für mehr fps wegen kürzere Latenzen und somit geringeren drawcalls Das dies mit den vram Takt skaliert ist seltsam
Da es sich aber um ein Software feature handelt das lediglich extra sram zugewiesen bekommt funktioniert diese nur mit aktiven hags und das ist ne einzige Baustelle. Theoretisch dürfte diese Funktion sogar mit ada gpu laufen.
Was gut wäre den das cpu limit ist das größte Problem derzeitiger gpu. nur blöd das dies nicht geht ohne das MS mitmacht, den hags ist so tief im OS drin das jede Änderung zu Problemen führt.
Sprich derzeit kann man es nur mit dem OS build nutzen das die gpu schon gab derzeit nur rtx40 24h2
rtx50 vermutlich endgültig intrigiert 26h2
Das hängt gerne mal paar Jahre zurück rbar funktionierte auch erst mit 24h2 problemfrei mit der rtx30 gen
Die gründe sind ai und hpc chipbedarf sowie das chipdesign muss mehr cache haben was chipfläche kostet und in n2 bis zu 80% der chipfläche erfordert das geht nicht.
Sram was der cache ist schrumpft nicht mehr folglich werden die chips teurer und man kann nur noch die Taktraten die perf. steigern. Das geht aber bei der packdichte nur bedingt und man kann keine kleinen chips mehr fertigen weil diese schlicht zu hohe packdichte haben was den Takt dann wegen wärmestau eine Taktwand erreichen wird. +-1ghz
Die Lösung ist simple das man komplett neu denkt und auf eine 64bit arch umstellt und dann den sram auslagert in einen billigeren node also mcm nvidia idee das mit einen link zu machen lohnt sich nur mit hpc und ai chips.
Daher nehme ich an das man ein igp tile bei intel als apu entwickelt die bis zu 4gpc a18sm a 256alu gibt aber in ampere design.
quasi ampere doppelte alu cache identisch faktisch ampere mal 2 auf a16 node -33% sram Größe dank gaa
der volle chip hat also dann 18432 alu die mit 3,0ghz grob 100w tdp hat
Der tile dürfte grob 92mm² groß sein dieser dürfte bei eine waferpreis bei grob 30000$ dann 42-48$ kosten
Der vram geht komplett an ddr6 mit 512bit Anbindung geteilt mit der cpu Die marge ist dann fixed für nvidia mit etwa 150% faktisch kostet der tile dann für intel 120$ +cpu tile +I/o tile
Also die apu ab 600$ bei der perf. der rtx5090 in ner apu.
Gut möglich das ein halber chip mit nur 2gpc dann auch gibt mit 50w tdp apu ab 300$ perf auf level der rtx4080
Das wird maximal mit a14 node noch +20% Takt bekommen danach ist erstmal stillstand bis zur ps7 2034
Wenn cfet alles neu mischt
bei amd bin ich mir sicher was sie Planen bei nvidia ist da noch ein großes Fragezeichen da auch im raum steht das nvidia eigene cpu und gpu als eigenen pc anbieten wollen.
Dieses Projekt ist sicher wird aber als ai workstation gehandhabt wo man versucht x86 zu emulieren das wird scheitern.
Darum wird es die Kooperation mit intel geben und diese ai workstations werden ne Nische erfüllen, für eben ai workloads mit eigener software.
dgpu lohnen sich für nvidia nicht mehr, nicht bei den chipkosten und mit ner apu sind abnahmen der tiles zu 100% gesichert und somit fixe einnahmen.
Kein Lagerbestand mehr, kein Abverkauf mehr, kein teures pcb design mehr. Also nur Vorteile wo dann man sich komplett auf ai konzentrieren kann.
Da amd sich mit udna auch den Weg geht. Allerdings nur mit 4se (1 se 24cu) a128 alu in maximum auf a16 und danach auch nur den Takt erhöht +- 15% dank a14 node. +10% dank a10 node.
Wird man maximal die perf. der rtx5090 erreichen.
Das wird ein stilstand geben bis zur cfet Fertigung 2034 und das ist beiden Herstellern bewusst
Was quadros angeht dürfte noch eine Serie bleiben die auf hpc emuliert wird dafür wird es eine Ausgabeeinheit geben mit rops und tmu der rest läuft über die ai fab.
Es kann auch sein das nvidia ein high end chip design grob 380mm² und eine quadro daraus macht immer auf maxed 250w tdp limitiert.
Diese sku ist nicht schneller als die derzeitige rtx5090 aber kann jegliche gpu sku emulieren.
da es auch weiterhin epyc und intel server Plattformen gibt mit pcie, geht das auch.
Die Gründe sind klar. Alle wollen AI, die Fertigung lässt keine günstigen chips zu und bis cfet wird man keine Lösung für sram haben da mcm sich als zu schwierig erwiesen hat.
Darum hat man sich für software entschieden und man versucht die hardware so stromsparend zu machen wie möglich. Und setzt das Rennen für maximale perf. aus bis man das sram problem gelöst hat.
gaa kann es nur halb lösen da es immer noch 80% chipfläche frisst inklusive Si
darum der Ausweg in gaming orientierte apu die deutlich kleinere sram Größen haben wird.
Ein weiter so mit derzeitigen n4p node wird nicht helfen und mcm wurde quasi aufgegeben.
Das es so gekommen ist ist sehr schade und sagt das man die kosten für mcm sich sparen will da der gaming markt keine Zukunft hat und in ai die Zukunft sieht damit skaliert man in komplette server racks und denkt über nvlink und alternativen für gpu zu emulieren als ai fabric.
Das man mcm mit chip die gestapelt sind funktionieren noch mehr alu und mehr cache bekommt ist klar aber das kostet viel Geld um das zu entwickeln das lohnt sich aber nicht solange es nur gaa gibt dann gleich zu cfet und 3d chips.
Cfet ist derzeit in Forschung wird vermutlich 2030 in sample gehen und 2034 bereit sein für erste fabs zur Fertigung bereit sein.
Die ersten designs werden apu mit doppelten alu und vierfache cache Größen mit Taktraten jenseits der 12ghz cpu 8ghz gpu
Das ist möglich da die wärme durchgeleitet wird und es quasi kaum bis keinen wärmestau gibt. Darum diese Taktraten die auch wegen dem glas Substrat zu verdanken sind.
Es ist schade das man sich gegen mcm bei gpu entschieden hat es wäre möglich gewesen bei Verzicht auf sram zugunsten gaming zum schaden gegen ai.
Mit ampere in a16 node wären drin gewesen 3,5ghz gpu clock und etwa 256sm bei 440w tbp grob 240mm² chip der doppelt so schnell geworden wäre wie die rtx5090 mit 384bit si und gddr7 32gbps das hätte gereicht.
Aktuell ist die Bandbreite quasi Sinnfrei bei der rtx50 gen, einzig die neue amp Einheit sorgt für mehr fps wegen kürzere Latenzen und somit geringeren drawcalls Das dies mit den vram Takt skaliert ist seltsam
Da es sich aber um ein Software feature handelt das lediglich extra sram zugewiesen bekommt funktioniert diese nur mit aktiven hags und das ist ne einzige Baustelle. Theoretisch dürfte diese Funktion sogar mit ada gpu laufen.
Was gut wäre den das cpu limit ist das größte Problem derzeitiger gpu. nur blöd das dies nicht geht ohne das MS mitmacht, den hags ist so tief im OS drin das jede Änderung zu Problemen führt.
Sprich derzeit kann man es nur mit dem OS build nutzen das die gpu schon gab derzeit nur rtx40 24h2
rtx50 vermutlich endgültig intrigiert 26h2
Das hängt gerne mal paar Jahre zurück rbar funktionierte auch erst mit 24h2 problemfrei mit der rtx30 gen
syfsyn
Admiral
- Registriert
- Nov. 2010
- Beiträge
- 8.675
Ich hoffe es auch nicht aber alles Spricht dagegen. Die computex ist nächste Woche dann wird einiges Klar.
Was mich interessiert was nvidia mit project dgx plant und LG pholed Vorstellung mit den Plänen für monitore
Von amd kommt nix abseits der rx9060xt Preisankündigung und release Termin vermutlich 5.6.25-19.6.25
Der Rest dreht sich nur um AI.
Was mich interessiert was nvidia mit project dgx plant und LG pholed Vorstellung mit den Plänen für monitore
Von amd kommt nix abseits der rx9060xt Preisankündigung und release Termin vermutlich 5.6.25-19.6.25
Der Rest dreht sich nur um AI.
Alexander 65
Lt. Junior Grade
- Registriert
- Apr. 2024
- Beiträge
- 377
MORPEUS schrieb:Ist hier irgendwo ein Riss im Raum-Zeit-Kontinuum oder warum fabuliert hier der nächste über Dinge bis ins Jahr 2034?
Und nein @syfsyn der Gamingmarkt wird nicht sterben. Darauf wette ich ComputerBase Pro Abo.![]()
Aber nur wenn Q zustimmt!
Deswegen sprach ich von einer 32GB Full-GB202 Karte, keiner Titan, die dann für professionelle Anwendungen speichermäßig unterdimensioniert wäre, keine Gefahr für 48GB+ Karten! Und deswegen sollte auch der Preis nicht auf 7 bis 8.000 eskalieren. Aber für 3 bis 4.000 hätten sich wahrscheinlich viele Enthusiasten die Karte gekauft, wenn man sieht für welche Preise die 5090 weg gegangen ist.kachiri schrieb:Hättest du denn 7000-8000 Euro bezahlt. Mindestens? Oder soll NV den Chip verschenken und sich damit auch noch das eigene Profi-Geschäft torpedieren?
Vielleicht gibt es ja eine Titan Blackwell(eher nicht)
Es gibt für NV auch absolut keinen Grund eine Titan ohne Not auf den Markt zu schmeißen, wenn die Chips, sogar teildeaktiviert, als Profi-Karten weggehen wie warme Semmeln Sonntagmorgens beim Bäcker.
Verschenken würde nvidia bei diesem Preis sicherlich auch nichts bei den hohen Margen im Enthusiasten Segment, erst recht nicht wenn die Karte nVidia only wäre ohne Partner. Ich denke halt jede verkaufte <4.000 Enthusiasten Karte wäre besser als ne liegen gebliebene >10.000 Euro Profi Karte. Ich sehe halt da verschenktes Potenzial im absoluten Enthusiasten Segment, man hat die GPUs und die PCBs, scheitert nur am Willen, meiner Meinung nach.
https://www.proshop.de/Grafikkarte/...eizhals&utm_medium=cpc&utm_campaign=pricesite von den 3 Karten die der Shop die Tage bekommen hat von der Ausführung, ist immer noch eine da, so weg gehen wie warme Semmeln, wie du das schreibst, passiert das scheinbar nicht, trotz das die Karten erst jetzt die Tage verfügbar werden und der Andrang am größten sein sollte.
Zuletzt bearbeitet: