News Nvidia Gaming Ampere: Angeblicher Kühler der GeForce RTX 3080 fotografiert

catch 22 schrieb:
....., damit Nvidia sich gehörig unter Zugzwang sah.
Ja, aber unter Zugzwang wäre da eher AMD gewesen. Nvidia hat hier recht einfach AMDs Navi gekontert, und nennt die "Super"-GPUs noch nicht einmal Refresh. Die "Super"-GPUs hätte man Nvidia auch gleich machen können. Statt dessen melkt man die Kuh ab so lange es geht, und verarscht sollten sich eher die Endkunden fühlen.......
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Wenn der September kommt, bin ich bereit maximal soviel auszugeben, wie die vorletzte High-End-Karte ohne Konkurrenz (1080ti) kostete und nicht mehr und das wäre schon ein geisteskranker Kracher, denn dann kostet die Karte fast soviel wie Gehäuse/NT/RAM/CPU/Kühler und das ist mittlerweile nach Systemwechsel auch kein billiger Schrott - und der Witz scheint zu sein, dass ich dann vllt. nicht mal eine Oberklassenkarte bekäme.

Die nächste Pointe wird dann aber für die Verkäufer der letzten Oberklassenkarten (2070 Super/2080/2080Super) kommen, die ja in ähnlichen Regionen preislich rangierten, die werden brutal durchgereicht, da sie einfach nicht den imaginären Enthusiastenstatus einer Ti oder vgl. mit Ati/Amd XT PE haben - wer kauft denn für 500€ eine ein Jahr alte 2080, wenn da noch ne 80ti ist, um der die Nachfolgegenerationen... "Runden drehen" ... naja okay, haben sich auch schon etliche olle Titanen geholt, weil sie dachten sie wären dann ganz oben und ähh doch nicht:freak:

...von daher hab ich da eine gewisse vernünftige Hemmschwelle meine dreifache Miete für ne Grafikkarte rauszuballern:D - auch wenn der Kühler 150€ in der Herstellung kosten soll - wahrscheinlich im Schicksallsberg geschmiedeter Zwergenstahl💍:hammer_alt:

PS: Aber mutig solche Preise bei einer bevorstehenden Rezession zu verlangen - da bin ich gespannt im Herbst :D
 
  • Gefällt mir
Reaktionen: Qualla
catch 22 schrieb:
Das stimmt, man sollte aber auch nicht vergessen, wie es zu der 2070 Super gekommen ist, denn am Anfang waren 2060 und 2070 ohne Super während AMD 5700 und 5700XT hatte und das hat schon gereicht, damit Nvidia sich gehörig unter Zugzwang sah.
Das ist richtig, aber man darf nicht vergessen, AMD hat bei der 5700XT schon den neuen 7nm Chip eingesetzt und komplett auf Raytracing verzichtet. Was den Vorteil hatte, dass man diese 5700er Serie zu einem sehr guten Preis anbieten und in der Performance zu Nvidia in der Mittelklasse [RTX 2070] aufschließen konnte. Aber Nvidia konnte dann doch recht schnell mit der 2070 Super Kontern, trotz des neuen 7nm Fertigungschip von AMD.

Der Nachteil wiegt aber viel schwerer, denn die 5700 [XT] kann Raytracing nicht stemmen, genauso wenig wie die Pascal Grafikkarten von Nvidia und da demnächst die neue Konsolen Generation, Big Navi, wie auch die Nvidia Ampere Grafikkarten kommen, die allesamt Raytracing können, ist eine 5700 [XT] obsolet und deren Halbwertszeit schon am Ende.

Und jetzt kommt Nvidia mit Ampere und dem neuen Chip und der Erfahrung einer kompletten Grafikkartengeneration mit Raytracing, da wäre für mich schon erstaunlich, wenn man mit einer Big Navi in die Nähe oder gleichauf mit einer RTX 3080 Ampere wäre. Denn nach einer doch recht langen Zeit, in der man Nvidia komplett den Enthusiasten Bereich überlassen hat, bedarf es schon einer enormen Anstrengung, dem Platzhirsch genau dort Paroli zu bieten und anzugreifen.

Aber vielleicht gelingt ja AMD auch in der GPU Sparte eine Überraschung, wie es bei der CPU Sparte mit Zen 2 und den Ryzen CPUs gelungen ist. Man sollte zumindest AMD nie unterschätzen, diese Erfahrung musste auch Intel machen!
 
Man muss dazu sagen, dass Intel jahrelang im CPU Segment geschlafen hat und obendrauf jahrelang Fertigungsprobleme hatte (und immer noch hat).

Nvidia hingegen hat stetig weiterhin Leistung gebracht, nur eben zu immer teureren Preisen. Auch in Sachen Effizienz sind sie, im Gegensatz zu Intel, relativ weit vorne. Das auch noch verglichen mit ner aktuellen Architektur von AMD mit Fertigungsvorzeilen - Ryzen war ja nur ein kleines Wunder weil Bulldozer Ewigkeiten so schlecht war, teilweise Fertigungsnachteile hatte und auch nur auf Sparflamme kleine Verbesserungen für die Nachfolger kamen.
 
  • Gefällt mir
Reaktionen: xexex, Affe007 und Tobi86
PS828 schrieb:
Zu Preisen sag ich erstmal garnichts, ich denke nicht dass es generell teurer wird. Aber das wird man abwarten müssen. Die hersteller wissen sehr wohl in welchem Geldbereich die meisten Karten verkauft werden und wo der meiste Absatz generiert wird. Das werden die sich nicht durch überzogene Preise kaputt machen.
Ergänzung ()


Ich denke nicht, selbst wenn du 150W+350W rechnest und die lastwechsel für das NT nicht zu krass sind klappt das schon. Aber knapp ist es allemal.

Bei einer Kompletten Modernisierung (es sei denn ein 1700x würde nicht limitieren, was in 4K möglich ist) erwäge ich schon den Kauf eines darauf abgestimmten NTs. Dieses hat dann noch über ein Jahr garantie von Bequiet (Verkaufsförderlich) und ich riskiere nicht, dass es durch den Betrieb am Limit dann in 2-3 Jahren vorzeitig verschleißt.

PCTOM schrieb:
Schlecht ist relativ. Die Karten die AMD im Angebot hat sind ja durchaus gut, klammern wir die 5600XT mal aus wegen dem Preis. Es gibt halt keine High End Karten von AMD, that the Problem.

Stimmt, die RDNA-Architektur ist gut. Wenn sich RDNA-2 noch leicht verbessert und des Weiteren mehr Shader verbaut werden, dann haben wir im bestenfall ein Kopf-an-Kopf-Rennen wie im CPU-Markt.
 
Zotac2012 schrieb:
Bisher ist es nicht mal möglich eine RTX 2070 Super zu schlagen und eine RTX 3080 Ampere wird sicherlich noch mal einiges mehr an Leistung haben, als eine jetzige RTX 2080. Und was Raytracing bei AMD betrifft, wissen wir noch gar nichts bezüglich der Leistung nur das AMD das Feature bei den Konsolen und auch bei Big Navi haben wird.

Von daher ist AMD und Big Navi eine deutlich größere Wundertüte, als eine Ampere von Nvidia, bei der man überhaupt nicht weiß, was diese leisten kann. Ich würde die Erwartungen nicht zu hoch setzen, denn das AMD mal eben um die Ecke kommt und sofort Nvidias neue Generation im Enthusiasten Bereich angreift, nachdem man in den letzten Jahren nichts zu bieten hatte, ist schwer vorstellbar, wenn auch nicht unmöglich.

Der "winzling" Chip Navi 250mm² legt sich mit der RTX2070 an. Keine ahnung wieso du und deine upvoter glauben das der doppelt so große BiG Navi Chip nicht wenigstens mit der RTX3080 mithalten können soll ? Beim Navi Test auf Computerbase hat doch Wolfgang auch mit einer Testreihe gezeigt das Shader und Takbereinigt RDNA und Turing auf dem selben Niveau liegen. RDNA mit Navi war schon ein großer wurf, wurde aber leider nie so anerkannt weil man nicht im High End mitgespielt hat, lächerlich so einige Sichtweisen hier im Forum......

AMD's Raytracing umsetzung läuft über die Textureinheiten wenn ich das richtig im Kopf habe, das kostet AMD also so gut wie garkein zusätzlichen Platz wie bei Nvidia. Denn AMDs Lösung ist son Hybrid Ding aus Hardware und Software Raytracing. Mehr IPC soll RDNA 2 auch bekommen, vielleicht auch mehr Takt. Ich sehe nur den Weg nach vorne bei RDNA2 und nicht nach hinten.

Mein Tipp RTX 3080 Niveau minimum. In sachen Raytracing sehe ich aber Nvidia ganz klar vorne und würde eher drauf Tippen das Big Navi da auf RTX3060 Niveau liegen wird. So das ist meine Prognose zur Performance einmal ohne und einmal mit Raytracing.
Ergänzung ()

Cpt.Willard schrieb:
...von daher hab ich da eine gewisse vernünftige Hemmschwelle meine dreifache Miete für ne Grafikkarte rauszuballern:D -

Interssante denkweise, 🤔. Wenn ich danach gehen würde, 3 fache Kalt-Miete für die Graka, wäre so ziemlich was fettes drin. In der Letzten Gen wäre das dann wohl ne RTX2080Ti gewesen.
 
Zuletzt bearbeitet:
Wird hier ernsthaft die Die Größe einer non RT Karte in ner kleineren Fertigung mit ner RT Karte und größerer Fertigung verglichen um daraus den Schluss zu ziehen, dass beide mit RT und gleicher Fertigung auch gleichauf liegen werden?

Weshalb der Vergleich Schwachsinn ist sieht man ja schon wenn man RTX 2070 zu GTX 1080 vergleicht - RT Cores brauchen eben viel Fläche. Wenn man dann die 1080 der 5700 XT entgegenstellt ist die 5700 auf einmal nicht mehr so klein dafür, dass wir von 7nm vs 12nm reden.

Wenn schon, dann sollte man die Anzahl und nicht Größe Vergleichen, denn dann liegen wir nahezu gleichauf (10,8 vs 10,3 milliarden) für nahezu gleiche Leistung, nur einer hat noch RT.

Obendrauf wird nur von RDNA2 Verbesserungen geredet, aber Ampere Verbesserungen nicht mal erwähnt.

Man kann sich die Welt auch machen wie sie einem gefällt oder das ganze sachlich betrachten und sehen, dass Nvidia ein größeres Verbesserungspotenzial mit einer neueren Fertigung sowie verbesserter Architektur hat, als AMD nur mit einer verbesserten Architektur.
Denn ob Nvidia nun einen Fehlschlag hat oder AMD ein Wunder vollbringt kann sowieso keiner sagen.

Und wenn AMD die RT Leistung vernachlässigt um allgemein ne höhere Performance zu haben, dann soll es halt so sein und AMD könnte hiermit in non-RT Anwendungen aufholen - aber auch das ist nicht in Stein gemeißelt. (Und letztendlich ist es auch nicht so toll RT zu vernachlässigen wenn der RT Zug gerade zu rollen beginnt)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pietcux
@The Darkness

Die 10,8 Milliaden Transistoren gelten für die RTX2060, Die RTX2070 sollte hier also ne ganze ecke mehr aktive Transistoren haben.

Aber Vergleiche doch mal Vega(12,5 Milliarden) mit RDNA (10.3 Milliarden), dann sieht das ganze auch wieder anders aus. Vega ist soviel schlechter als RDNA. Auch Takt bzw Shader bereinigt.
 
Zuletzt bearbeitet:
Benutz doch bitte einmal selbst Google bevor du ne Vermutung anstellst und dies als Fakt verkaufst. Zumal dies dann auch die Die Size des vorherigen Posts falsch wäre.
Die RTX 2070 hat 10,8 milliarden Transistoren, Punkt. Da gibt es auch Nichts zu diskuttieren. Wobei CB sagt 10,6 milliarden, aber ist wohl ein Tippfehler.
https://www.google.com/amp/s/www.computerbase.de/2018-09/nvidia-turing-tu102-tu104-tu106-vergleich/?amp=1

Die RTX 2060 hat exakt genau so viele Transistoren, da es der gleiche Chip ist, davon sind aber einige deaktiviert.
Genau wie es bei der 5600 XT zur 5700 XT ist.

Und wieso werden schon wieder Äpfel und Birnen verglichen? Könnt ihr das mal lassen und euch darauf beziehen was zumindest im entferntesten mit der Diskussion zu tun hat? Vega zu RDNA hat absolut nichts mit irgendwas von dem hier gepostetem zu tun und unterstutzt auch keinerlei Aussage von dir.
 
Macht euch mal locker Leute. Ich glaube letztendlich ist wieder mal für jeden was dabei in diesem Herbst.
 
  • Gefällt mir
Reaktionen: angband1
HighPerf. Gamer schrieb:
Beim Navi Test auf Computerbase hat doch Wolfgang auch mit einer Testreihe gezeigt das Shader und Takbereinigt RDNA und Turing auf dem selben Niveau liegen.
Ja mit dem alten Turing Chip und der alten Fertigung. Ob das gegen den 7nm Ampere auch so ist, das wird sich zeigen.
HighPerf. Gamer schrieb:
RDNA mit Navi war schon ein großer wurf, wurde aber leider nie so anerkannt weil man nicht im High End mitgespielt hat, lächerlich so einige Sichtweisen hier im Forum......
Den großen Wurf habe ich nicht gesehen, man ist mit einem neuen Chip in 7nm und einer neuen Architektur mit RDNA auf Augenhöhe mit einer RTX 2070 ohne Super, dazu fehlt die komplette Unterstützung von Raytracing. Somit ist eine 5700 [XT] ohne jegliche Zukunftsaussicht, von daher würde ich nicht von lächerlich reden, wenn hier viele User nicht so begeistert sind wie Du. Das die neue Architektur ein Fortschritt ist für AMD, das bestreitet keiner, aber man hatte einfach mehr erwartet, vor allem auch etwas im Enthusiasten Bereich.

HighPerf. Gamer schrieb:
AMD's Raytracing umsetzung läuft über die Textureinheiten wenn ich das richtig im Kopf habe, das kostet AMD also so gut wie garkein zusätzlichen Platz wie bei Nvidia.
Das ist richtig, aber dafür hat Nvidia extra Recheneinheiten für Raytracing, was AMD nicht hat. Und wie gut Raytracing auf einer AMD Grafikkarte funktioniert und was dies dann an Leistung kostet, in Form von weniger FPS, das weiß heute noch keiner. Denn außer auf dem Papier, hat man AMDs Raytracing ja noch nicht in Aktion gesehen. Wer letztlich den besseren Lösungsansatz hat, was Raytracing betrifft, wird man ja in der Zukunft sehen.

HighPerf. Gamer schrieb:
Denn AMDs Lösung ist son Hybrid Ding aus Hardware und Software Raytracing. Mehr IPC soll RDNA 2 auch bekommen, vielleicht auch mehr Takt. Ich sehe nur den Weg nach vorne bei RDNA2 und nicht nach hinten.
Und eine Nvidia Ampere nicht?

HighPerf. Gamer schrieb:
Mein Tipp RTX 3080 Niveau minimum.
Abwarten, Nvidia kommt jetzt auch mit einem 7nm Chip, von dem auch bisher noch keiner weiß, was dieser an Performance Plus gegenüber Turing bringt. Und AMD hat, wenn ich mich recht erinnere, auch nach dem großen Wurf mit RDNA wie Du es nennst, bisher nichts im Enthusiasten Bereich entgegenzusetzen. Was man bisher von AMD gehört hat, waren Marketing Sprüche, das Big Navi die doppelte Leistung einer 5700XT haben soll, ob das nachher auch so in der Realität ist, wird sich zeigen.
 
  • Gefällt mir
Reaktionen: Asghan und TheDarkness
TheDarkness schrieb:
RT Cores brauchen eben viel Fläche.
RT und Tensor Cores zusammen benötigen nur ca. 10% Fläche bei Turing. Meine Vermutung ist, dass die doppelte Ausführung durch paralleles abarbeiten von FP32 und INT den Chip so groß gemacht hat.
Zotac2012 schrieb:
Das ist richtig, aber dafür hat Nvidia extra Recheneinheiten für Raytracing, was AMD nicht hat.
AMD wird RT nicht ganz ohne eigene Recheneinheiten realisieren. Das ist zurzeit alles noch Spekulation. Aber sagst du ja selbst
 
HBM done right. :schluck:

jhawrkr3k6451.jpg
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
Die paar Watt dürften den meisten von den Kosten ziemlich egal sein, wenn sie sich High End Hardware kaufen. Den Ferrarifahrer juckt es auch nicht, wenn das Benzin mal 20 cent mehr kostet. Wenn die paar Euro pro Jahr eine Hürde sind, sollte man sich über seine Finanzen Gedanken machen und andere Prioritäten als eine möglichst schnelle Grafikkarte haben.

Hallo,

auch wenn man das hier leider nicht versteht. Je weniger Strom verbraucht wird desto besser auch für die Umwelt. Klar die paar Euro merkt man nicht. Auch wenn ich keine Kinder habe ist mir schon wichtig was aus dem Planeten wird. Daher versuche ich alles so niedrig wie möglich zu halten. Auch mit dem Auto bin ich von den PS weg.
Bei all den Nachrichten kann ich die Leute nicht verstehen die immer noch auf das Zugpferd PS und Wattzahl setzen. Tut mir leid aber da sag ich das diese Leute Primaten sind.

LG
 
  • Gefällt mir
Reaktionen: Cpt.Willard und pietcux
CptBabossa schrieb:
Hallo,

auch wenn man das hier leider nicht versteht. Je weniger Strom verbraucht wird desto besser auch für die Umwelt. Klar die paar Euro merkt man nicht. Auch wenn ich keine Kinder habe ist mir schon wichtig was aus dem Planeten wird.

LG

Sehe ich anders. Zocken ist mein Hobby, da mache ich keine Abstriche. Wenn die GPU 300 Watt oder mehr zieht ist mir das ziemlich egal.
 
  • Gefällt mir
Reaktionen: usmave
Tja muss man nicht großartig kommentieren. Ist auch eins meiner Hobbys. Trotzdem muss ich nicht jeden scheiss kaufen den die mir anbieten. 🤓

Dauert denke ich nicht mehr lange bis wir auch in Deutschland die Zustände haben wie in AFRIKA mit Hunger und Wassernot. Aber Hauptsache Du gehst weiterhin wie der Rest sein Hobby nach. Na ich hoffe Du hast Spaß wenn Du nix mehr zu essen und zu trinken hast. :D
 
Zuletzt bearbeitet von einem Moderator:
CptBabossa schrieb:
Tja muss man nicht großartig kommentieren. Ist auch eins meiner Hobbys. Trotzdem muss ich nicht jeden scheiss kaufen den die mir anbieten. 🤓

Ach und wir reden nochmal wenn wir die Zustände haben wie in Afrika, wo es kaum Nahrung und Wasser noch gibt. Wenn es Dir Spaß macht zu hungern und Co dann macht Du und der Rest so weiter.

Ich hoffe das ich das nicht mehr miterlebe. Zum Glück schon etwas älteren Baujahres.

Entweder ganz oder gar nicht. Kauf dir keinen PC/Auto mehr, ganz einfach. Machst du das nicht, erzähle hier bitte nicht so einen Stuss. Immer dieses Halb/Halb. Ganz oder gar nicht.

Edit: Ich hoffe du fährst wenigstens ein E-Auto...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: UltraJunge25
Wir können auch einfach gar keinen Strom mehr verbrauchen und nur noch mit nem Fahrrad unterwegs sein. Irgendwo gibts auch nen Schlusstrich. Ausserdem spielt das alles sowieso kaum ne Rolle solange Politiker lieber Kohlekraftwerke und Benziner subventionieren während die Förderungen für alternative Energien gekürzt werden und sich am ÖPNV nichts tut.

Zumal ein einziger KM mit nem Auto umweltschädlicher ist als ne Stunde mit nem vollausgelastetem High-End Rechner. Und wenn wir nur über die Differenz von ner Mid-Range zu ner High-End GPU reden, also grob 100 Watt, können manche für ne Stunde mit nem Auto über nen Monat spielen.

Und bevor wieder die Umweltfanatiker kommen, ich besitze nicht mal ein Auto und mache auch nur selten Urlaubsreisen - damit schon mal mehr getan als die Meisten.
 
  • Gefällt mir
Reaktionen: UltraJunge25
HighPerf. Gamer schrieb:
Interssante denkweise, 🤔. Wenn ich danach gehen würde, 3 fache Kalt-Miete für die Graka, wäre so ziemlich was fettes drin. In der Letzten Gen wäre das dann wohl ne RTX2080Ti gewesen.
Ich gehe dann schon von meiner aktuellen Warmmiete - die wirklich für Hannover-Verhältnisse günstig ist - aus und das wäre auch locker eine Premium 2080Ti gewesen - ich bin aber nur gut verdienender (in Relation zum Schnitt in unserem Haus) Krankenpfleger und muss auch Prioritäten setzen.

Zum "ökologischen Fußabdruck" - sehe ich das ähnlich, dass ich nicht 1kW-Grakas haben will, achte aber eigentlich dafür auf die kplt "Infrastruktur" in der Wohnung - sprich:
  • überall LED-Lampen
  • soviel Licht nur wie nötig
  • heizen brauch ich nicht, außer ich habe mal eine Frau da, die ständig friert, da überzeuge ich allerdings auch mit ... schau es sind 22°^^:freak:
  • fahre nur Öffis oder Rad, weil ich mir das Gehupe und die Nebenkosten von ner Kutsche nicht mehr leisten muss/will
...

und von daher denke ich, würde ich mit einer wirklich guten Grafikkarte die vllt. doch mal 350w+ verballern würde ... klar kommen, zumal ich vllt. nur noch 8h pro Woche spiele.
Einzig die Abwärme nervt mich in der Bude und das merkt man erstaunlich stark abends, ob der Rechner nebenbei an ist, oder aus!
Aber ich gehe nicht davon aus, dass die Welt untergeht, wenn ich eine 350w-Karte hole - zumal meine 580+SE auch gut frisst und das ist in Relation zur Leistung auch so... naja^^- wenn man ehrlich ist.

Sry, für OT, was allerdings im Bezug auf die Kühlerdiskussion und die Notwendigkeit dessen, vllt. gar nicht so OT ist. ;)

Wenn ich mich an die erstaunten Blicke auf die Temps bei Release und Tests der Navis zurück erinnere, denke ich auch über eine Aussage meinerseits nach - ich finde es nicht mehr, doch ich habe damals ungefähr geschrieben, dass Nvidia auch darüber stolpern wird, dass 7nm brutalst Wärmepeaks verursachen wird, vor allem, wenn man über die GHz toppen will, was bei Pascal und Turing in ihren Prozessen gut abzuführen war.

... Die Bilder und die Vermutungen bzgl. des Kühlerpreises, sind quasi eine Bestätigung meiner Vermutung, dass genau das eingetreten ist und daher nehme ich an, dass AMD evtl. Vorteile mit dem Umgang bei 7nm mit Navi2 haben wird und Nvidia bei der Optimierung von Raytracing, aufgrund ihrer Turingserie.

Ich bin jedenfalls sehr heiß auf den Herbst und wäre auch mal gewillt mehr zu investieren, ...jedoch keine 3 Warmmieten! aka ca.1400€
 
Zurück
Oben