News Gerüchte zu Nvidia-Grafikkarten: Bilder zeigen mutmaßliche RTX 4090 Ti oder Titan Ada

Mcr-King schrieb:
Also warum geht DLSS 3.0 nicht auf RT20er und RTX30er. ;)
Weil die Hardware zu wenig Leistung hat, aber laufen würde es. Hat Nvidia so bekannt gegeben und gab auch die ein oder andere News darüber.

Mcr-King schrieb:
Nee die Tensor-Kerne sind mehr oder weniger die gleichen bei den RTX GPUs nur stärker und mehr vorhanden.
Und genau das ist der Grund.

amorosa schrieb:
Sehe ich auch so wie @Mcr-King . Hätte man wirklich gewollt, hätte man es auf der 20er und 30er Generation locker zum laufen bringen können.
Scheinbar ging es nicht, aber das ist kein Zustand, den du und viele andere hier akzeptieren. Ihr wisst es mal wieder besser.
Da frag ich mich, wieso ihr keine GPUs entwickelt, wenn ihr das so viel besser könnt?

Lesenswert:
https://www.pcgameshardware.de/Gefo...-auf-RTX-3000-Turing-RTX-2000-Ampere-1403920/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HeidBen
MrHeisenberg schrieb:
Weil die Hardware zu wenig Leistung hat, aber laufen würde es. Hat Nvidia so bekannt gegeben und gab auch die ein oder andere News darüber.
Vielleicht ginge es, wenn Nvidia sich ernsthaft dran versuchen würden, aber ohne diverse Einbußen sicherlich nicht.

JohnWickzer schrieb:
Scheinbar ein netter Zeitgenosse
Klar, das bin ich. :D
 
Zer0Strat schrieb:
Vielleicht ginge es, wenn Nvidia sich ernsthaft dran versuchen würden, aber ohne diverse Einbußen sicherlich nicht.
Sie geben ja zu, dass es technisch geht, aber der Performancegewinn soll so minimal sein, dass es sich nicht lohnt.
 
Zu den Leuten hier die meinen FSR3.0 würde nur auf den neuen AMD Karten laufen:

Noch spannender ist die Aussage von Frank Azor, dass FidelityFX Super Resolution (FSR) 3 auch mit Grafikkarten kompatibel sein soll, die nicht auf AMDs RDNA 3-Architektur basieren. Genau wie bei FSR 2 dürfte die Upscaling-Technologie also auch mit älteren AMD-GPUs und mit Nvidia GeForce-Grafikkarte verwendet werden können.
 
Allein die Option auf 800W gefällt mir hier. Der Lüfter Scheint auch gut Dimensioniert zu sein.

Schade dass ich keine GPU Leistung mehr brauche ^^

Und bitte auch die Grabenkämpfe auf beiden Seiten hier einstellen. Hat eh keinen Sinn.

Nvidia ist aktuell schneller unterwegs, was die Zukunft bringt weiß keiner und wen Jucken paar high end Käufer wenn die masse woanders unterwegs ist.

AMD hat aktuell viel zu rudern. Gab ja auch viele technische Änderungen. Heißt das jetzt dass sie nicht aufholen können? Nein. Heißt dass das Nvidia ihren nächsten großen Schritt auch zwangsläufig schlecht/gut macht? Ebensowenig.

Schaltet Eure Glaskugeln besser ab wenn der bias schon von der ersten silbe klar ist. Das führt zu Nichts und man kann es noch weniger ernst nehmen.
 
  • Gefällt mir
Reaktionen: HeidBen
PS828 schrieb:
Schaltet Eure Glaskugeln besser ab wenn der bias schon von der ersten silbe klar ist. Das führt zu Nichts und man kann es noch weniger ernst nehmen.
Dir ist schon klar, dass die Redaktion hier in der Vergangenheit regelmäßig Artikel über Gerüchte und Spekulationen gebracht hatte, in denen es um genau das ging? :D

Dieses platte Abtun als "Glaskugel" nervt mich ein wenig, um ehrlich zu sein. Man kann Dinge in einem gewissen Rahmen plausibilieren und das sogar relativ gut.

Die Spieleleistung von Zen 4 beispielsweise war Monate im Voraus relativ klar. Warum? Wegen des Gigabyte Leaks + ein wenig Erfahrung...
 
Ich spreche eher von Vorverurteilungen von Produkten die evtl noch jahre weg sind. Das ist einfach nur unprofessionell. Das ist nicht das gleiche wie zu Sagen "so könnte es werden"

Drückt man es aber in "wird eh Mist" begibt man sich in Bereiche wo es nicht mehr passt. Und dann kann man es nicht mehr ernst nehmen. Neutrale Einordnung muss möglich sein, auch darauf hinzuweisen dass nix von alledem bestätigt und oder in stein gemeißelt ist ebenso. Und nichts anderes hat CB getan.

Außer natürlich man will stenkern und provozieren worauf auch immer wieder die gleichen nutzer auffallen und zurückstenkern.

Darum geht es mir und das muss aufhören.
 
DevPandi schrieb:
Na ja, kostentechnisch fährt AMD und Intel aktuell besser, was den Materialeinsatz angeht.
Die ARC A770 bietet die Leistung einer RTX 3060 bis 3060Ti und ist wesentlich teurer in der Herstellung als der billige Samsung Prozess und hat in einer Version auch noch 16GB Speicher.
AMD´s 7900XT 20GB muss gegen Nvidias RTX 4070 Ti 12GB antreten. Alleine der GCD hat bereits mehr als die Größe des kompletten Nvidia Chips, selbiges in geringerem Maße trifft auf RTX 4080 vs 7900XTX zu.
Der Nvidia Chip ist etwas größer als AMD´s GCD. Den Rest (cache und Speicherinterface bis 520mm²) muss AMD in einem günstigeren Prozess auch noch bezahlen, sowie die 8GB mehr V-ram.

Deutliche Kostenvorteile hätte AMD nur gegenüber der 4090.
Die ~80mm² mehr Chipfläche im von mir aus 70bis 90% teureren 5nm Prozess, kann AMD mit 220mm² in 6nm niemals kompensieren.
DevPandi schrieb:
AD102 ist in dem Fall alles andere als günstig in der Produktion...
Spielt keine Rolle, da UVP 60% höher und 50 bis 100% mehr Leistung im Vollausbau.

DevPandi schrieb:
und auch AD103 ist nicht gerade günstig.
Immer noch günstiger als der Chip einer 7900XT(X).
Ich verstehe nicht, wie man darauf kommt, AMD könne günstiger produzieren.
Das ist doch anhand der Zahlen völlig absurd. Die 4080 müsste schon 450mm² groß sein, damit sich ein Vorteil für AMD ergibt.

Zer0Strat schrieb:
Eine RTX 5090 mit stark überarbeiteter Arch und Hardware Denoising könnte die Dominanz sogar noch weiter ausbauen. Gute Nacht Radeon.
Die "Rede" ist immerhin von rund 250 TeraFLOPs.:D
 
  • Gefällt mir
Reaktionen: Zer0Strat
MrHeisenberg schrieb:
Weil die Hardware zu wenig Leistung hat, aber laufen würde es. Hat Nvidia so bekannt gegeben und gab auch die ein oder andere News darüber.

Scheinbar ging es nicht, aber das ist kein Zustand, den du und viele andere hier akzeptieren. Ihr wisst es mal wieder besser.
Da frag ich mich, wieso ihr keine GPUs entwickelt, wenn ihr das so viel besser könnt?

Lesenswert:
https://www.pcgameshardware.de/Gefo...-auf-RTX-3000-Turing-RTX-2000-Ampere-1403920/

Man muss nicht alles glauben was Nvidia erzählt. Die haben schon ursprünglich versucht die 4070 Ti als eine "4080" den Käufern zu unterjubeln, und das bei einer gegenüber der normalen 4080 stark beschnittener Karte und einem anderen Chip. Sowas nennt man Kundentäuschung.

Dazu lügen die Jungs von Nvidia was Marketing der 4070 Ti angeht das sich die Balken biegen.
3x die Leistung der 3090 Ti hat die 4070 Ti laut Nvidia. Ja ne, ist klar. Dass es sich dabei um unfaire DLSS3 Vergleiche handelt (die in Rasterization unobtainable sind laut Steve Burke) erwähnen sie natürlich nicht.

Sehenswert:

Da muss das was die Jungs von Nvidia erzählen dass angeblich auf einer 3090 kein Frame Generation möglich sein soll (die Karte ist ja bekannterweise ziemlich schwach /ironie) auch nicht unbedingt den Tatsachen entsprechen.
 
  • Gefällt mir
Reaktionen: PTS, Onkel Föhn, Mcr-King und eine weitere Person
Artikel-Update: Nvidia hat nun offenbar damit begonnen, Engineering Samples der Titan Ada an Entwicklungseinrichtungen zu versenden, wie aufgetauchte Einträge in einer Logistik-Datenbank verraten, auf die zunächst Wccftech aufmerksam wurde. Darin ist die Rede von einigen Grafikkarten, die zu Testzwecken aus den USA nach Indien transportiert werden sollen. Weiterhin ist die Rede von einem 384 Bit breitem Speicherinterface und 48 GB Grafikspeicher. Und als Board-Nummer ist PG137 angegeben – bereits in der Vergangenheit wurde dahinter eine potenzielle Titan-Grafikkarte vermutet.

Auffällig ist jedoch, dass auf der Slotblende der vor kurzem fotografierten mutmaßlichen Titan Ada die Board-Nummer 1G137 in Kombination mit der SKU-0000-TS1 zu sehen war, wohingegen diese Board-Nummer in der Datenbank mit der SKU-0330-EB2 genannt wird – und ohnehin finden sich dort noch viele weitere Grafikkarten, die zum Rätselraten animieren. Merkwürdig ist zudem, dass bei der Board-Nummer PG137 lediglich von GDDR6-Speicher die Rede ist, nicht aber von der schnelleren Variante mit X-Suffix, die auch bei der GeForce RTX 4090 zum Einsatz kommt.

Ob es sich dabei um einen Fehler handelt, die erwartete Titan Ada tatsächlich mit dem langsameren Speichertyp bestückt wird, Nvidia aktuell noch experimentiert oder es sich wider erwarten um eine gänzlich andere Grafikkarte handelt – all das bleibt vorerst abzuwarten.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und BlinkBlink
Ob es sich dabei um einen Fehler handelt, die erwartete Titan Ada tatsächlich mit dem langsameren Speichertyp bestückt wird, aktuell noch experimentiert wird oder es sich wider erwarten um eine gänzlich andere Grafikkarte handelt – all das bleibt vorerst abzuwarten.
@Vitche
Da fehlt etwas: Ihr Jonathan Frakes
 
  • Gefällt mir
Reaktionen: Onkel Föhn und _Flattermann_
Das Teil ist mal ein Schwachsinn. nehmen wir mal an die Karte kommt so raus. Dann schraube ich mir die in mein Gehäuse und das Gehäuse deckt hinten dann teilweise den Querschnitt ab, da wo die Abwärme raus sollte. Muss man dann mit der Stichsäge sein Gehäuse hinten ausschneiden?
 
Jedenfalls wäre die 4090Ti die erste GPU die von der Dicke her nicht in mein Gehäuse passen würde.
Die 4090 Strix z.b. fällt wegen der Länge raus. :p

Klever schrieb:
Man muss nicht alles glauben was Nvidia erzählt. Die haben schon ursprünglich versucht die 4070 Ti als eine "4080" den Käufern zu unterjubeln, und das bei einer gegenüber der normalen 4080 stark beschnittener Karte und einem anderen Chip. Sowas nennt man Kundentäuschung.

Da muss das was die Jungs von Nvidia erzählen dass angeblich auf einer 3090 kein Frame Generation möglich sein soll (die Karte ist ja bekannterweise ziemlich schwach /ironie) auch nicht unbedingt den Tatsachen entsprechen.
Vor der reinen Leistung her, hätte die 4070Ti besser ins Lineup als 4080 reingepasst und die 408016GB als 4080Ti, wenn die Karten pro Generation eine Klasse stärker werden, aka 4080=3090. Da hätten dann auch die Preise gepasst, 3080Ti->4080Ti beide 1199$.
Nvidia wollte aber unbedingt den Namen 4080Ti für einen beschnittenen AD102 reservieren. Hätte Nvidia die 408016GB nicht einfach 4085 nennen können? :D
Die 4090 ist so oder so ein Spezialfall...

Und was DLSS3 angeht, wäre einzig die einzige Erklärung das es in den Kernen eine technische Veränderung gegeben hat die DLSS3 ermöglicht. Von der Tensor-Leistung müsste die 3090 auf selber Höhe mit der 4070Ti sein und selbst wenn nicht, dann definitiv mit den schwächeren 4000ern die noch kommen.
 
Soviel dazu das die xx90er die titan ersetzen soll, sofern das wirklich stimmt mit der neuauflage der titan. Ich war der Meinung das Thema Titan hat sich mit den 90ern erledigt.
Weiteres verkneife ich mir
 
  • Gefällt mir
Reaktionen: [F]L4SH und Onkel Föhn
Klever schrieb:
Vollzitat entfernt.
Wie es richtig geht. -> hier lesen
kundentäuschung ist ja schon harter tobak....

und letzendlich ist es völlig egal ob frame generation auf 3000ern läuft oder nicht.

ich als firma würde auch sagen es geht nicht. punkt

so ist das eben.
 
Zuletzt bearbeitet von einem Moderator:
|SoulReaver| schrieb:
Muss man dann mit der Stichsäge sein Gehäuse hinten ausschneiden?
Es gibt mittlerweile genug Gehäuse, die gar keine Stege mehr zwischen den einzelnen Slotblenden haben. Als Beispiele wären da Fractal Design Meshify 2 (XL/Compact), Pop Air, Torrent (Compact) und die verschiedenen Varianten das Lian Li O11.

Davon ab ist das aktuell ja nur ein Engineering Sample, also nicht zwangsweise das finale PCB- & Kühlerdesign. Da wird der Kühler auch eher überdimensioniert sein, weil mit dem Engineering Sample ja die Grenzen des geplanten Modells ausgetestet werden.
 
  • Gefällt mir
Reaktionen: |SoulReaver|
theGucky schrieb:
Vor der reinen Leistung her, hätte die 4070Ti besser ins Lineup als 4080 reingepasst und die 408016GB als 4080Ti, wenn die Karten pro Generation eine Klasse stärker werden, aka 4080=3090. Da hätten dann auch die Preise gepasst, 3080Ti->4080Ti beide 1199$.

Der Preis der 4070 Ti hätte der 4080 gepasst, die technische Ausstattung der 4070 Ti ist für den Preis zu wenig. Nicht mit dem 192-Bus Interface, nicht mit dem VRAM von 12 GB, das wäre nie und nimmer eine 4080 und Nvidia haben nicht ohne Grund ihr ursprüngliches Vorhaben aufgegeben. Sonst hätten sie sich mit der "false 4080" nur blamiert.

theGucky schrieb:
Und was DLSS3 angeht, wäre einzig die einzige Erklärung das es in den Kernen eine technische Veränderung gegeben hat die DLSS3 ermöglicht. Von der Tensor-Leistung müsste die 3090 auf selber Höhe mit der 4070Ti sein und selbst wenn nicht, dann definitiv mit den schwächeren 4000ern die noch kommen.
Dies trifft nicht zu - laut Nvidia selbst ist Frame Generation/DLSS 3 genauso auf Ampere und Turing möglich, die genauso wie Lovelace über Optical Flow Accelerators (OFAs) verfügen. Deren Ausrede ist aber, dass die OFAs von Turing und Ampere angeblich zu langsam für Frame Generation wären, was ich nicht glaube. Die Vergangenheit hat schon gezeigt dass Nvidia sich keine Mühe macht, ältere Gens mit neuen Features zu supporten (die es bei Erscheinung von den Karten nicht gab).

Z.B. Resizable Bar wäre von Turing ohne Probleme supported worden, alle technischen Voraussetzungen dazu sind gegeben. Aber Nvidia hat gar nichts unternommen, um Resizable Bar auch auf Turing zu ermöglichen - das Feature gab es nur für Ampere. Warum? Na, die Leute sollen doch zum Kauf animiert werden. Dieselbe Geschichte nun mit Frame Generation/DLSS 3.

Slavicgirl schrieb:
kundentäuschung ist ja schon harter tobak....

Kundentäuschung durch falsche Namensgebung (Branding der 4070 Ti als "4080" und auch noch dafür 100 Dollar mehr haben zu wollen) und falsches Performance-Marketing (dass die 4070 Ti angeblich 3 mal so schnell ist wie die 3090 Ti laut Nvidia ohne jegliche Disclaimer des Testverfahrens, nirgendwo ist angegeben dass sie DLSS 3 gegen DLSS2/kein DLSS gebencht haben, aber 3x mal so viel Leistung!).
Oder Nvidia's Lügen, such es dir aus - so wie es Steve Burke in seinem Review der 4070 Ti auch erklärt (Nvidia's Last Minute Lies).

Slavicgirl schrieb:
und letzendlich ist es völlig egal ob frame generation auf 3000ern läuft oder nicht.

Dir mag das egal sein, anderen nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Klever schrieb:
Vollzitat entfernt.
ehmm die Namensgebung haben sie selbst "erfunden" und können diese jederzeit auch ändern...
mit den preisen hat es ja geklappt ;p.

desweiteren is "Up too x3" nicht 3x schneller, sondern bis zu 3x wenn cherry picking betrieben wird.

generell kann man nvidia nichts vorwerfen, top produkte jetzt sogar dlss3 dazu, und du meckerst?

nvidia ist das iphone der gpus, und amd das android und samsung... ganz einfach.

wir alle wissen wer kein kopfweh will und smoothes erlebnis nimmt iphone, aufständler greifen zum android.

so ist das wer denkt ist nicht so, belügt sich selbst

Nvidia=Kein Kopfweh,Gute Erfahrung

AMD= Ist auch ok, aber irgendwie die Budget Variante vom erst gennanten


gruss

Übrigens:

Bin kein Fanboy, ich habe zzt igpu von zen4 im betrieb, ich spreche nur aus wie es ist.

ich kaufe sicher keine amd für 1000€ oder 800€... lieber nvidia da hab ich dlss3 und irgendwie aktuelle treiber und so fühlt sich besser an

hätte auch kein problem wenn es umgekehrt wäre..

aber wer zahlt bitte 1000€ für amd ??? also bei der ungewissheit?
 
Zuletzt bearbeitet von einem Moderator:
@Slavicgirl

Und den Kunden steht es zu, Nvidia's Lügen bei der Vermarkung ihres Produktes (die hätten eine 4050 auch eine 4080 nennen können, und?) nicht zu glauben. Was auch der Absatz von der 4070 Ti, 4080 und der 4090 zeigt, dieser ist nämlich alles andere als gut.
Ergänzung ()

Slavicgirl schrieb:
generell kann man nvidia nichts vorwerfen, top produkte jetzt sogar dlss3 dazu, und du meckerst?
Generell kann man Nvidia eine absurde Preispolitik und Marketinglügen vorwerfen, und du bist zufrieden?

Slavicgirl schrieb:
wir alle wissen wer kein kopfweh will und smoothes erlebnis nimmt iphone, aufständler greifen zum android.
Wer sind "wir"?
 
  • Gefällt mir
Reaktionen: iron_monkey, Onkel Föhn und Hatsune_Miku
Klever schrieb:
@Slavicgirl

Und den Kunden steht es zu, Nvidia's Lügen bei der Vermarkung ihres Produktes (die hätten eine 4050 auch eine 4080 nennen können, und?) nicht zu glauben. Was auch der Absatz von der 4070 Ti, 4080 und der 4090 zeigt, dieser ist nämlich alles andere als gut.
Die 3 gennanten GPUS spielen auf dem Großen Schlachtfeld eine sehr sehr kleine Rolle.

Grafikkarten für ab 900€ sind exotische spezialistische nischen produkte.

sie verstehen doch das diese gpus von einer minderheit an % gekauft werden?

Desweiteren hat Nvidia massiven aufwind in

Robotik,KI,Autonomes Fahren,Industrie

was da kommt, da wird gaming nur nebengeschäft sein bzw ist es schon.


denke mal darüber nach

Übrigens die TOP 10 GPUS die in Pc Installiert ist, wo steam drauf ist.

keine high end gpus, alles low budget oder einsteiger

und keine amd (hat schon sein grund)

top 10.

das ist realität.

aa.jpg
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben