News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

Wenns so kommt das die 3070 nur 8Gig VRAM hat bin ich enttäuscht. Hatte mich drauf gefreut und wollte meine 1070er ablösen... so muss ich wohl weiter warten... :(
 
Jo, hoffentlich kommen die Varianten mit Doppelspeicher zeitnah. 8GB auf 1070/1080 ist schön balanciert. Bei Turing fand ich das schon wenig. Da hätte ich so 10GB auf der 2080(S) schön gefunden.
 
Der Merowinger schrieb:
niemand interessiert sich für den stromverbrauch wenn man sich so eine karte holt. und sind wir mal ehrlich, die paar cent die man im jahr dann mehr für strom bezahlt juckt keine sau.
Seltsam. Das wurde doch AMD die letzten Jahre vorgeworfen. Aber wenn Nvidia das macht ist es ok. LOL
 
  • Gefällt mir
Reaktionen: DC Skinner, DarkerThanBlack und schkai
16gb
katamaran3060 schrieb:
Seltsam. Das wurde doch AMD die letzten Jahre vorgeworfen. Aber wenn Nvidia das macht ist es ok. LOL
solange das auch zur Leistung passt ist das ok
 
  • Gefällt mir
Reaktionen: Der Merowinger
katamaran3060 schrieb:
Seltsam. Das wurde doch AMD die letzten Jahre vorgeworfen. Aber wenn Nvidia das macht ist es ok. LOL

Das ist doch hier nichts neues mehr. Sobald die Karte grün ist, ist halt alles wieder ok. Es sind hier leider einige Trolle unterwegs die die Grünen Karten schönreden und bei AMD die Nadel im Heuhaufen suchen. Man kann hier leider jede menge Leute nicht ernst nehmen. Mir egal ob die Karte von Nvidia kommt oder von AMD, Hauptsache ich bin zufrieden.
Ergänzung ()

Mani89HW schrieb:
solange das auch zur Leistung passt ist das ok

Zu welcher Leistung ? Das ist falsches denken. Selbst Turing läuft vollkommen außerhalb des Sweetspot und verbraucht unnötig Strom. Wo es noch wirklich gut gepasst hat war Pascal. Die 1080 war ein Traum was Leistung und Stromverbrauch angeht. Jetzt bei Ampere total überzogen. Kein wunder das die Dinger Ampere heißen, hat man sich bei der Heizung schon was gedacht.
 
  • Gefällt mir
Reaktionen: katamaran3060
katamaran3060 schrieb:
Seltsam. Das wurde doch AMD die letzten Jahre vorgeworfen. Aber wenn Nvidia das macht ist es ok. LOL

Oder ist es eher so, dass AMDs Verbrauch höher war, aber trotzdem nicht ansatzweise mit der Leistung von NVIDIA mithalten konnte? Haben die Leute ganz vielleicht das bemängelt? Hm. Andere versuchen in eine Fanboy-Schublade zu stecken und dabei so mega offensichtlich selbst in einer sitzen. 👍🏿
 
  • Gefällt mir
Reaktionen: JohnnyTexas, Hayda Ministral, Pisaro und 5 andere
schkai schrieb:
Wo es noch wirklich gut gepasst hat war Pascal.
Der Sweetspot bei Pascal liegt bei etwa 0,9V, eine durchschnittliche Pascal schafft damit >1900MHz. Gute Chips kommen damit auf knapp 2000MHz.
 
@MiaSanMiaaa
Klar haben sie das bemängelt, indem immer wieder zu lesen war, wieviel an Stromkosten man im Jahr spart. Hardware kompkexer wird (bei den CPUs war es sogar oft SpaWa) oder fettes Kühlerdesign.
Performance war dann ein weiterer Punkt, bei weiten aber nicht der einzige. Denn es wurde beteits bei 50-100 Watt mehr angefangen das horende Mehrkosten auszurollen.
Das entspricht also aktuell 2000 RTX ubd 3000 RTX Karten. Man muss es nicht mal mit der Konkurrenz vergleichen. Am Ende wird es dann NV halt auch bringen müssen, wenn man 1400 Euro will, 12 Layer verbaut, 12Pin Stecker integriert und 150 US Dollar Kühler verbaut. Kann ein 8800 GTX oder 480 GTX werden. Je nachdem, wie gut oder schei... die Fertigung mit Takt läuft und man über Transistor laufen muss.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon und katamaran3060
MiaSanMiaaa schrieb:
Oder ist es eher so, dass AMDs Verbrauch höher war, aber trotzdem nicht ansatzweise mit der Leistung von NVIDIA mithalten konnte? Haben die Leute ganz vielleicht das bemängelt? Hm. Andere versuchen in eine Fanboy-Schublade zu stecken und dabei so mega offensichtlich selbst in einer sitzen. 👍🏿
Die R9 390 war so schnell wie vergleichbare Nvidia Karten! Erst Fidji und Vega waren langsamer und stromhungriger als Nvidias Topmodelle und wurden von Nvidia Fanboys wie dir kritisiert. Aber bei Termi und Ampere war und ist der Verbrauch ja egal und darf nicht kritisiert werden. Wer sitzt nun in der nvidia- Fanboy-Schublade?
Ergänzung ()

Mani89HW schrieb:
16gb
solange das auch zur Leistung passt ist das ok
gilt aber nur für Nvidia-Fanboys,oder?
 
  • Gefällt mir
Reaktionen: dohderbert
Meine 2080S läuft mit 1995-2010MHz mit 0,987-1V und meine frühere 1080 lief auch auf den Wert. Die 2080 ohne "S", die ich letztes Jahr hatte und kaputt ging, lief auch so. Bei der jetzigen Karte spart es rund 10% TDP und 2°C.

pipip schrieb:
... 12Pin Adapter ...

Wenn die einen 12-Pin-Anschluss bekommt, muss defenitiv ein Adapter auf 2x8-Pin beigelegt werden. Ok, mein Netzteil ist von 2015, aber wenn sich Leute vor paar Monaten ein Netzteil gekauft haben, ist es doch eine Frechheit, dass die dann wieder ein neues Netzteil kaufen müssen.
 
@Banger
Ich meinte 12Pin Anschluss. Die FE soll das haben, aver auch Adapter beiliegen!
 
  • Gefällt mir
Reaktionen: Banger
schkai schrieb:
Das ist doch hier nichts neues mehr. Sobald die Karte grün ist, ist halt alles wieder ok. Es sind hier leider einige Trolle unterwegs die die Grünen Karten schönreden und bei AMD die Nadel im Heuhaufen suchen. Man kann hier leider jede menge Leute nicht ernst nehmen. Mir egal ob die Karte von Nvidia kommt oder von AMD, Hauptsache ich bin zufrieden.
Ergänzung ()



Zu welcher Leistung ? Das ist falsches denken. Selbst Turing läuft vollkommen außerhalb des Sweetspot und verbraucht unnötig Strom. Wo es noch wirklich gut gepasst hat war Pascal. Die 1080 war ein Traum was Leistung und Stromverbrauch angeht. Jetzt bei Ampere total überzogen. Kein wunder das die Dinger Ampere heißen, hat man sich bei der Heizung schon was gedacht.
nein ich rede von Effizienz. Wenn die Karte 50% schneller ist und 30% mehr Strom braucht ist das ok
 
pipip schrieb:

Sehr gut. Am besten so ein abgeknicktes Stück, sodass man die Kabel direkt nach unten/oben führen kann, damit nicht zum Seitenteil soviel Platz verbraucht wird, bzw. bei schmalen Gehäusen nicht knapp wird.
 
Eigentlich braucht sie nur 25% mehr. Das ist so weil man sie mit der Titan vergleichen muss, die 280W TDP hat. Und die 30W mehr braucht sie wegen ihren 24GB Vram.
 
Der Merowinger schrieb:
Die 3080 wird etwa 4 mal so schnell sein wie die 1080, von dem her gehen die 320Watt voll in ordnung.

Das sehen die Leute neuerdings irgendwie nicht. Siehst ja selbst wie wir wieder einmal einen 30+ Seiten Güllethread haben. Alle sind viel zu emotional um sich irgendwie mit Argumenten auseinander zu setzen.

Ich wette bei Release stellt sich die ganze "Sachlage" sowieso wieder auf den Kopf.

Skjöll schrieb:
Damit wäre doch der Betrieb unter Vollast gemeint, oder? 300 Watt, also ein kleiner Ofen, als Dauerleistung wäre für mich nichts.

Kennst du nicht die abnormalen Verbräuche von Vega? Tja, wenn du noch etwas älter bist, kannst du dich vielleicht noch an die Zeit der Geforce 8800er und Crysis erinnern. Damals hatten wir Härtlinge die Dinger im SLI. Wehe jemand hatte Geld, da war dann Triple-SLI mit er 8800 Ultra und 15ooW Netzteilen angesagt. Barbarische Techniksteinzeit, jedoch trotzdem irgendwie geil!

Oh, und die ganzen Dual-GPU-Karten über die Jahre waren auch nicht ohne. War alles mit ein bißchen Aufwand kühlbar. Notfalls unter Wasser! Wer das nicht will, soll halt in den unteren Preis- und Leistungsklassen zuschlagen.

Taxxor schrieb:
Eine GPU betreibt man idR entweder im idle oder unter Volllast

Seltsam, kenne dazwischen noch unzählige Stufen. Desweiteren ist nicht jedes Spiel im Vollastmodus. Liegt mitunter am CPU-Limit, in dem sich die Grafikkarten langweilen. Volle Last gibt es auch nur wenn entweder das Spiel schlecht optimiert ist oder die Karte zu unterdimensioniert für die gewählten Einstellungen ist.
 
Hardware_Hoshi schrieb:
Volle Last gibt es auch nur wenn entweder das Spiel schlecht optimiert ist oder die Karte zu unterdimensioniert für die gewählten Einstellungen ist.
Volle Last bedeutet die GPU wird optimal ausgenutzt und das sollte das Ziel sein, ansonsten ist die Karte überdimensioniert.

CPU Limits gilt es zu vermeiden, GPU Limits sind erwünscht.

Die einzige Ausnahme bilden hier FPS Limits, die man sich selbst setzt, aber auch hier gilt, sind diese Limits so niedrig gesetzt, dass die Karte nicht ansatzweise ausgelastet ist, dann hätte es auch eine schwächere Karte getan.

Ohne FPS Limiter liegen bei meiner 5700XT in so gut wie jedem Spiel die 180W Chip-Power an, und da du "gewählte Einstellungen" angesprochen hast, durch Reduzieren der Settings bleibt es bei 180W nur steigen die FPS, solange die Karte weiterhin optimal ausgenutzt wird, d.h. kein CPU Limit vorliegt.

Arbeitet die GPU in einem Spiel weit unterhalb ihres Power Limits, bedeutet das schlicht, dass Leistung brachliegt, die nicht genutzt wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LipsiaV, ColonelP4nic und DrCox1911
Was ist denn über die Tflops bekannt?
Können die anhand der vorliegenden Daten berechnet werden?
 
Taxxor schrieb:
Ohne FPS Limiter liegen bei meiner 5700XT in so gut wie jedem Spiel die 180W Chip-Power an ...

Ich habe bei meiner sogar für GTA5 den adaptiven Modus abgestellt, damit die bei GTA5 mit meinen auf hohe FPS angepassten Einstellung niemals auf 16xx-18xx runtertaktet. Das würde manchmal passieren und auch Lagspikes begünstigen. Umgekehrt werden diese weniger, wenn die Karte nicht ständig den Takt verstellt, sondern bei 1995/2010MHz bleibt. Müll-Engine halt. Ich bin eh überwiegend im CPU-Limit mit einem 8700K. Wäre ein Traum, wenn das Spiel mehr als 4 Kerne auslasten könnte, dann würde es die FPS stabilisieren und diese mehr in meinem FPS-Limit von 155 halten und die Karte besser auslasten.
 
Zuletzt bearbeitet:
pipip schrieb:
@MiaSanMiaaa
Klar haben sie das bemängelt, indem immer wieder zu lesen war, wieviel an Stromkosten man im Jahr spart. Hardware kompkexer wird (bei den CPUs war es sogar oft SpaWa) oder fettes Kühlerdesign.
Performance war dann ein weiterer Punkt, bei weiten aber nicht der einzige. Denn es wurde beteits bei 50-100 Watt mehr angefangen das horende Mehrkosten auszurollen.
Das entspricht also aktuell 2000 RTX ubd 3000 RTX Karten. Man muss es nicht mal mit der Konkurrenz vergleichen. Am Ende wird es dann NV halt auch bringen müssen, wenn man 1400 Euro will, 12 Layer verbaut, 12Pin Adapter integriert und 150 US Dollar Kühler verbaut. Kann ein 8800 GTX oder 480 GTX werden. Jenachdem, wie gut oder schei... die Fertigung mit Takt läuft und man über Transistor laufen muss.

Wenn die Leistung bei den neuen Karten im Vergleich zum Verbrauch stimmt, ist doch alles paletti. Bei AMD war es halt nicht so dass die Leistung angemessen war zum Verbrauch. Langsamer und mehr Verbrauch im Vergleich zur Konkurrenz. Da muss man sich nicht wundern, dass die Leute das bemängeln. Das hat einfach mal nichts mit Fanboy oder grünem Lager zu tun.
 
Zurück
Oben