News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

Der Merowinger schrieb:
Die 3080 wird etwa 4 mal so schnell sein wie die 1080, von dem her gehen die 320Watt voll in ordnung.
Na da nehme ich lieber doppelte Leistung bei gleichem Verbrauch.
 
  • Gefällt mir
Reaktionen: jemandanders, Zubz3ro und cookie_dent
Skjöll schrieb:
Damit wäre doch der Betrieb unter Vollast gemeint, oder? 300 Watt, also ein kleiner Ofen, als Dauerleistung wäre für mich nichts.
Eine GPU betreibt man idR entweder im idle oder unter Volllast
 
  • Gefällt mir
Reaktionen: adius und Cyberbernd
Der Merowinger schrieb:
Die 3080 wird etwa 4 mal so schnell sein wie die 1080
Natürlich nicht, die 2080Ti ist noch nicht einmal doppelt so schnell wie eine 1080.
 
  • Gefällt mir
Reaktionen: dohderbert, Wichelmanni, Ralle321 und eine weitere Person
Taxxor schrieb:
Eine GPU betreibt man idR entweder im idle oder unter Volllast
Ich achte immer auf Energieersparnis (nein, im dunklen Haus sitze ich nicht und ich koche auch - so weit geht es nicht), ich mache aber z.B. die Lautsprecher aus wenn ich sie nicht brauche. Mit einer moderaten Vollast in Spielesituationen habe ich auch kein Problem. Nur im idle, wie Du schon sagst....
 
Da kann ich ja meine 2080Ti OC behalten.
 
Warum regen sich alle über die gestiegenen Energieanforderungen auf. Ist doch nicht das erste Mal in der Geschichte der PC-HW, dass sowas passiert.
Bei Turing haben alle geschimpft (ich auch), dass das Plus an Leistung nicht dem (Mehr-)Preis entgegen steht.
Nun bringt Nvidia kolportierte 30-60% Mehrleistung. Da auf der Karte Arbeit verrichtet wird, muss man also auch mehr Energie reinstecken, wenn man mehr Rechenleistung haben will. Man muss doch nicht erwarten, dass der möglichst hohe Leistungszuwachs immer durch Architekturoptimierungen und kleineren Fertigungsverfahren "finanziert" wird.
Wer mit dem Energiezuwachs nicht einverstanden ist und nicht so viel Mehrleistung einer 3090 oder 3080 haben will, kann ja zu etwas weniger Mehrleistung in Form einer 3070 oder 3060 greifen. Dann liegt man auch wieder im bekannten Leistungsniveau, wo man sich wohl fühlt.
 
  • Gefällt mir
Reaktionen: JohnnyTexas und Apocalypse
Knatschsack schrieb:
Vollzitat entfernt

also wenn man so denkt und die 8800gtx als optimum dastellt müssten heutige gpus 10000w brauchen^^
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Hardwarious und Zubz3ro
Iguana Gaming schrieb:
Nutze Freesync seit Release, ca. Anfang 2016 mit meinem alten Monitor zuvor und kann nur positives berichten und will es auch nicht mehr missen. Genauso habe ich auch bisher kaum negatives über Gsync Compatible gelesen, bis auf das es halt nicht alle adaptive Sync Monitore unterstützen. Dafür gibt's aber mittlerweile genügend Listen, wie auch zum Beispiel bei Geizhals in der Produktinfo.
Beg1 schrieb:
Du meinst Adaptive Overdrive? Gibt FreeSync/G-Sync compatible Monitore die tatsächlich den gesamten FPS-Bereich mit einer Einstellung ohne Geisterbilder abdecken.
Lediglich die Freesync-Range ist meistens mit 40-120/144 Hz geringer als bei G-Sync (ca. 30 Hz-120Hz).
Ist schon etwas her wo ich vereinzelt Berichte von Zockern gelesen hab. Da war zum Beispiel dass bei bestimmten Spielen oder einem Spiel es zu Flackern kommt, bei anderen Spielen ist trotzdem Tearing vorhanden, generell Sync-Probleme z.B. Totalausfall.

Sowas kommt bei Tests eher weniger in Erwägung bzw. kommt nicht vor. Da zeigen dann Erfahrung der Spielerschaft was anderes.

Nja, kann sich mittlerweile geändert haben, hoffentlich waren diese Dinge durch Hard- oder Software (Graka Treiber) Änderungen behebbar.
 
firejohn schrieb:
Ist schon etwas her wo ich vereinzelt Berichte von Zockern gelesen hab. Da war zum Beispiel dass bei bestimmten Spielen oder einem Spiel es zu Flackern kommt, bei anderen Spielen ist trotzdem Tearing vorhanden, generell Sync-Probleme z.B. Totalausfall.

Sowas kommt bei Tests eher weniger in Erwägung bzw. kommt nicht vor. Da zeigen dann Erfahrung der Spielerschaft was anderes.

Nja, kann sich mittlerweile geändert haben, hoffentlich waren diese Dinge durch Hard- oder Software (Graka Treiber) Änderungen behebbar.

99% der monitore haben probleme. habe selber mal sehr oft wechseln müssen und freesync hat immer probleme gemacht
 
Mani89HW schrieb:
99% der monitore haben probleme. habe selber mal sehr oft wechseln müssen und freesync hat immer probleme gemacht
Und ich bin von einem G-Sync Modul auf G-Sync verifiziert/compatible umgestiegen und kann keinen nennenswerten Unterschied ausmachen, minmal vielleicht wenn ich darauf achte, kann aber ebenso Einbildung sein.
Wenn mal wieder ein neuer Monitor anstehen sollte, braucht es auf keinen Fall mehr was mit Modul sein.

So unterschiedlich können Erfahrungen sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus und McTheRipper
firejohn schrieb:
Ist schon etwas her wo ich vereinzelt Berichte von Zockern gelesen hab. Da war zum Beispiel dass bei bestimmten Spielen oder einem Spiel es zu Flackern kommt, bei anderen Spielen ist trotzdem Tearing vorhanden, generell Sync-Probleme z.B. Totalausfall.

Sowas kommt bei Tests eher weniger in Erwägung bzw. kommt nicht vor. Da zeigen dann Erfahrung der Spielerschaft was anderes.

Nja, kann sich mittlerweile geändert haben, hoffentlich waren diese Dinge durch Hard- oder Software (Graka Treiber) Änderungen behebbar.

Nunja, gibt viele Freesync-Monitore die nicht wirklich gut mit G-Sync laufen (haben dann meist auch kein "compatible"), sind aber auch meist ältere Modelle und man muss die teilweise kleine "VRR"-Range beachten.
Eine sichere Sache ist eigentlich die Liste der Geräte welche nvidia mit "G-Sync compatible" getestet hat:
https://www.nvidia.com/en-us/geforce/products/g-sync-monitors/specs/

Hab selbst nen OLED und ich bemerke kaum einen Unterschied zu meinem 34GK950G (mit G-Sync Modul).
 
  • Gefällt mir
Reaktionen: Apocalypse, firejohn und McTheRipper
Gr33nHulk schrieb:
Und ich bin von einem G-Sync Modul auf G-Sync verifiziert/compatible umgestiegen und kann keinen nennenswerten Unterschied ausmachen, minmal vielleicht wenn ich darauf achte, kann aber ebenso Einbildung sein.
Wenn mal wieder ein neuer Monitor anstehen sollte, braucht es auf keinen Fall mehr was mit Modul sein.

So unterschiedlich können Erfahrungen sein.
Was war der minimale Unterschied, kannst du das beschreiben.
Beg1 schrieb:
Nunja, gibt viele Freesync-Monitore die nicht wirklich gut mit G-Sync laufen (haben dann meist auch kein "compatible"), sind aber auch meist ältere Modelle und man muss die teilweise kleine "VRR"-Range beachten.
Eine sichere Sache ist eigentlich die Liste der Geräte welche nvidia mit "G-Sync compatible" getestet hat:
https://www.nvidia.com/en-us/geforce/products/g-sync-monitors/specs/

Hab selbst nen OLED und ich bemerke kaum einen Unterschied zu meinem 34GK950G (mit G-Sync Modul).
Ja stimmt, dachte auch grad an die Liste. Vllt. waren die Probleme der Spielerberichte bei Monitoren die noch nicht speziell auf G-Sync compatible geprüft oder darauf getrimmt worden sind. Die Zeit wo Nvidia die Unterstützung für andere adaptive Sync Monitore treiberseitig geöffnet hat.
 
Gr33nHulk schrieb:
Und ich bin von einem G-Sync Modul auf G-Sync verifiziert/compatible umgestiegen und kann keinen nennenswerten Unterschied ausmachen,

Der Punkt dabei ist aber, dass nur ein Bruchteil der als "Freesync" deklarierten Monitore sich das Zertifikat G-Sync Compatible verdient hat. Vom Prinzip konnte jeder Hersteller einfach eine etwas flexiblere Bildwiederholfrequenz implementieren und Freesync drauf kleben, wie die Funktion umgesetzt wurde, hat AMD nie geprüft.

Erst mit Freesync Premium und Freesync Premium Pro, hat die Angabe auch irgendeine Bedeutung, das gibt erst aber erst seit Anfang 2020.
1598720840659.png

https://www.tomshardware.com/reviews/amd-freesync-monitor-glossary-definition-explained,6009.html
 
  • Gefällt mir
Reaktionen: GERmaximus
Es könnte passieren, dass Undervolting erstmals in der. Reitsport bei nVidia GPUs populär oder notwendig werden wird, denn was tut man nicht alles für den Verbrauch, RX Vega lässt grüßen :lol: .

Andererseits scheint der hässliche Founders Edition Klotz von nVidia mehr auf Overclocking ausgerichtet zu sein als das durchaus schicke Ampere RTX Phoenix "Golden Sample" Modell von Gainward bspw.. und vielleicht werden nicht wenige übertaktend (abseits der OC-Cracks) da an der 400W Grenze mit einer RTX 3090 kratzen oder diese gar reißen.

The design is not similar to the reference Founders Edition PCB that we saw earlier but comes in a standard form factor. The GeForce RTX 3090 and GeForce RTX 3080 graphics cards will require dual 8-pin connectors to boot. From the looks of it, the RTX 3090 will feature next-generation NVLINK connectors while the GeForce RTX 3080 won't feature any such interface. This goes off to show that even with 350W TBP, the GeForce RTX 3090 will still have several custom variants that won't require the outrageous triple 8-pin connector configuration to boot. The triple 8 pin cards will, however, offer higher overclockability and faster clock speeds compared to the stock variants.

1598722261786.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adius
Mit meiner RTX2080S aus einem Gewinnspiel kann ich ja noch bisschen länger warten, bis die RTX3080 mit 20GB nachgereicht wird. Die 3090, die dann die "3080TI" oder "Ampere-Titan" wäre, wäre eh Overkill. Oder die machen eine 3080TI als Karte zwischen 3090 und 3080.
 
Dann warte ich auf die 3070 Ti mit 16 GiB zum Black Friday 2021. Alles andere sind erstmal Speicherkrüppel und/oder unbezahlbar.
 
  • Gefällt mir
Reaktionen: Wintermute, steve127 und Chismon
Mani89HW schrieb:
also wenn man so denkt und die 8800gtx als optimum dastellt müssten heutige gpus 10000w brauchen^^

Ich verstehe Dein Argument nicht. Wenn Du Dir die Rechenleistungsteigerung seit den 90ern anschaust und die Energieverbrauchssteigerung anschaust, wirst Du sehen, dass der Energieverbrauch seit dem deutlich gestiegen ist. Jedoch ist die Rechenleistung seit dem aber um einen noch viel größeren Faktor gestiegen ist.
Mein erster Rechner Mitte der 90er hatte einen kleinen 92mm Lüfter um die Leistung des gesamten PCs abzuführen und definitiv kein 800W Netzteil.
Es ist also kein Problem von Nvidia seit Turing, dass der Energieverbrauch ansteigt. Ich kann nicht nachvollziehen, was das jetzt mit der 8800GTX oder 10kW Leistung zu tun hat.
 
  • Gefällt mir
Reaktionen: Apocalypse
JackTheRippchen schrieb:
Dann warte ich auf die 3070 Ti mit 16 GiB zum Black Friday 2021. Alles andere sind erstmal Speicherkrüppel und/oder unbezahlbar.

Wer weiss, bis dahin koennte sogar RDNA2/RDNA3 oder eine Xe HPG GPU als interessante Alternative winken, 2020 wird aller Voraussicht nach wohl teuer werden (egal welche Hardware, wenn man diese denn ergattern kann/will) und eben nicht in allen (Speicher-)Varianten.

Laut WccfTech koennte die RTX 3060(Ti?) koennte uebrigens auch - wie von mir zuvor ebenso spekuliert - als 12 GB Version kommen, wenn die Preise wirklich so unverschaemt ausfallen sollte wie von einigen angenommen, was dann evt. gerade noch so reichen koennte, wenn einem RTX 2080 ("Super" ?) Leistung reichen sollte.


NVIDIA GeForce RTX 30 Series 'Ampere' Graphics Card Lineup:
Graphics Card NameNVIDIA GeForce RTX 3060NVIDIA GeForce RTX 3070NVIDIA GeForce RTX 3080NVIDIA GeForce RTX RTX 3090
GPU NameAmpere GA106-300?Ampere GA104-300Ampere GA102-200Ampere GA102-300
Process Node7nm7nm7nm7nm
SMs / CUDA CoresTBD2944 (46)?4352 (68)5248 (82)
Boost ClockTBDTBD1710 MHz1695 MHz
Memory Capacity6/12 GB GDDR6X8/16 GB GDDR610/20 GB GDDR6X24 GB GDDR6X
Memory Bus192-bit256-bit320-bit384-bit
Bandwidth384 Gbps (16 Gbps)512 Gbps (16 Gbps)760 Gbps (19 Gbps)936 Gbps (19.5 Gbps)
TDPTBD220W320W350W
Launch TimeframeNovember 2020October 2020September 2020September 2020
 
Chismon schrieb:

Interessante Tabelle in dem Link.

Graphics Card NameNVIDIA GeForce RTX 3060NVIDIA GeForce RTX 3070NVIDIA GeForce RTX 3080NVIDIA GeForce RTX RTX 3090
GPU NameAmpere GA106-300?Ampere GA104-300Ampere GA102-200Ampere GA102-300
Process Node7nm7nm7nm7nm
SMs / CUDA CoresTBD2944 (46)?4352 (68)5248 (82)
Boost ClockTBDTBD1710 MHz1695 MHz
Memory Capacity6/12 GB GDDR6X8/16 GB GDDR610/20 GB GDDR6X24 GB GDDR6X
Memory Bus192-bit256-bit320-bit384-bit
Bandwidth384 Gbps (16 Gbps)512 Gbps (16 Gbps)760 Gbps (19 Gbps)936 Gbps (19.5 Gbps)
TDPTBD220W320W350W
Launch TimeframeNovember 2020October 2020September 2020September 2020

Die RTX3070 wäre ja dann ein Kastrat vom GA104-300, könnte der doch 3072 Shadereinheiten haben. Dann haut Nvidia wieder den Super-Refresh raus. Aber diese 3070 muss, wenn die angenommen auf ~1900MHz Boost läuft (Custom-Design, Referenz ~1800MHz) läuft, schon schon mehr IPC aufweisen, damit die mindestens zwischen 2080S und 2080TI ist.

Bei der 3080 könnten die dann auch wieder einen Super-Refresh raushauen, der dann 4480 Shadereinheiten hat und 70 was auch immer. Tensor-/Raytracing-Einheiten?

Und bei der 3090 mit 5248 Shadereinheiten, ist das der Vollausbau oder geht es bis ca. 5504 Einheiten und 86 was auch immer, damit eine 3090TI/3090 Super/Ampere-Titan geht?

Und die angegebenen TDP werden hoffentlich nicht erreicht, bzw. sind Reserve, damit die Karten sich niemals mit Powertarget ihren Takt verstümmeln. In solches geht meine 2080S schon gerne mal, obwohl die 250W Powertarget hat. Dabei hat Asus den Wert von der Referenzkarte übernommen, der aber schon von Nvidia gegenüber der Referenz-2080 erhöht wurde.

.... davon ausgehend, dass die Tabelle keine Fake-News ist.

Edit:

+LOL+
Während ich schrieb, hat ein anderer auch die Tabelle kopiert.
 
  • Gefällt mir
Reaktionen: Chismon
Knatschsack schrieb:
Vollzitat entfernt
du sagst ja genau das was ich sage. Natürlich ist der Stromverbrauch höher aber die Leistung um ein 1000faches
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Knatschsack
Zurück
Oben