Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Euphoria schrieb:
Bei dem Verbrauch frage ich mich wo das hingehen soll.
Damit dürfte mein be quiet! Dark Power Pro 11 550W nicht mehr ausreichen...
Ohne extremes OC sollte das kein Problem sein. Lass dein System ohne GPU mal 150W verbrauchen, dann hast du immer noch 400W für GPU und 50W Spitzenlast (Kurzzeitig darf das Netzteil bis 600W belastet werden) über.
Und das wirst du wohl selbst mit Benchmarks nicht erreichen, geschweige denn im Normalbetrieb.

//edit: Wenn ich mir das Video von Igor anschaue sieht es eher nach 100W System und 450W GPU aus :)
Aber trotzdem hat man noch 50W Reserve (laut beQuiet für 30 Sekunden + die minispikes werden vermutlich schon von den Kondensatoren abgefangen).

//edit2: Jetzt kommt es auch endlich bei ihm im Video. Mag den eignetlich nicht so besodners, aber scheinbar macht er ordentliche Berichte und nicht nur "hurr durr viel mehr Strom als angegeben".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McFritte
Gamers Nexus Test, falls es wen interessiert.
Besonders 3:00 - 4:50 sollten sich die VRAM-Jünger mal gönnen.

 
  • Gefällt mir
Reaktionen: KenshiHH
Danke für den Test !!!!!! :daumen:
Freue mich schon auf die Test´s der RTX3090 , da ich erst nach Weinachten kaufe sammel ich erstmal infos :smokin:
 
Die Entscheidung ein AMD Only System zu verwenden verstehe ich.
Dennoch kann man u.a. hier dran sehen, dass sich noch ein anderes Bild durch Intel CPUs bilden kann. IMG_20200916_165544.jpg (
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/15.html)
IMG_20200916_165544.jpg
 
  • Gefällt mir
Reaktionen: Bert, Tschitta, tomasvittek und 6 andere
Allein der Stromverbrauch ist schon ein NO_GO ... leider

Ich hab auch keine Lust per Luft das wegkühlen zu müssen.

ich hab eine 1080 Ti und die schon extra undervolted und auf 75 fps gelockt (Monitor kann nur 75Hz)
Der originale Kühler konnte die Wärme kaum leise abführen. Nur durch ein Lüfter-Mod ist das ganze jetzt OK.

1600268192863.png



nochmal etwa 70W on top - eigentlich schon direkt raus.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
@issenia was genau für "Werbeversprechen"?
 
OC-bereinig also nur 18-20% schneller als eine RTX2080ti und dabei ca. 40 Watt mehr TDP...
So ich steige jetzt auf NVIDIA um. Hab mir nun eine RTX2080ti mit Wasserkühlung günstig bei E*** geschossen.
Mit der überspringe ich diese Generation und habe sogar 1 GB mehr Speicher.

Viel verliert man bei den niedrigen Preisen ja nicht mehr. 😊
Sorry, aber die 3000er sind einfach nicht rund genug.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hunky, Conqi, dohderbert und eine weitere Person
m2020 schrieb:
Ja ein Monster in Sachen Verbrauch.

Stimmt ich hatte mich bei meinem Autohändler auch letztes Jahr beschwert, was das den für eine Sauerei ist das mein Auto mit 421 PS bei Sportlicher Fahrweise um die 20L Super Plus verbraucht...:rolleyes:

Finde den Fehler...glaubst du wirklich das sich jemand mit einer 3090 bzw damals Titan Gedanken macht was die aus der Steckdose nuckelt ?

Von daher sind solche aussagen einfach Quatsch...wenn mann das "Schnellste" haben will zahlt man meistens auch viel mehr und das nicht nur immer bei Kaufpreis sondern in dem Fall auch beim Strom;)
 
  • Gefällt mir
Reaktionen: Sophisto, tomasvittek, Mike_MTL und eine weitere Person
Ein schöner Test.

Mir verbraucht die Karte zu viel Strom.

Ein ausführlicher Test zu der Karte bei limitierter Stromaufnahme wäre (für mich) sehr interessant.
 
  • Gefällt mir
Reaktionen: JJJT, DarkerThanBlack, dohderbert und 2 andere
Adzz schrieb:
Was hat die 3080 mit der 2080 ti zu tun? Die 3090 ist doch der preisliche Gegenspieler oder eine 3080ti doch noch kommen kann.
Kann man nicht vergleichen, weil die 2080 gerade mal einstellige Prozentsteigerungen zur 1080Ti die 2 jahre zuvor gleich teuer war hatte, was absolut lächerlich war und ist. Teilweise war die 2080 sogar langsamer, dank den 8GB vs 11GB VRAM.
 
Interessant finde ich noch folgende Punkte aus dem Forum von Igor: Auf die Frage, ob man sich die FE gönnen oder auf Customs warten sollte, kam ein klares
Igor schrieb:
Ist @Wolfgang da gleicher Meinung?

Und er beanstandet auch die Geschichte mit den nur 4% Verlust bei 50 Watt weniger Verbrauch:
Igor schrieb:
CB ist noch mehr im CPU Bottleneck. Und misst irgendwie komisch. Das kann nicht stimmen. Ich sehe, wie hier eine Boardpartnerkarte mit 20-30 watt mehr noch skaliert. Secher, man bekommt die FPS auch mit etwas weniger hin, aber die Varianzen werden schrecklich. ist halt Boost.
Ich bin gespannt, ob es da noch irgendwelche Überraschungen geben wird.

Euphoria schrieb:
Damit dürfte mein be quiet! Dark Power Pro 11 550W nicht mehr ausreichen...
[...]
Die Karte verbraucht 200 f*cking Watt mehr als meine 1080.
Wir sind im selben Boot Kollege, und das mit ganz vielen anderen.

T670i schrieb:
Ich zum Beispiel. :D
Schau mal, jetzt sind wir schon vier. :D
 
  • Gefällt mir
Reaktionen: zhompster, T670i, Black Orphan und 2 andere
@Wolfgang
ist da ein kleiner Fehler unterlaufen ?

Leistungsaufnahme in Spielen

Auch die Grafikkarten der Ampere-Generation halten sich strikt an die im BIOS hinterlegte maximale Leistungsaufnahme. Die GeForce RTX 3080 Ti benötigt beim Spielen gemessen 322 Watt und damit innerhalb der Messtoleranz so viel, wie Nvidia mit 320 Watt vorschreibt.

Danke für den auführlichen Test. Alles super dargestellt :-)

Zur Karte muss man sagen, der Hammer !! :daumen:
 
  • Gefällt mir
Reaktionen: xexex
Benji21 schrieb:
Quasi alle HEDT Systeme?

Welches HEDT System betreibt man mit einem 500W Netzteil? Ich wiederhole es gerne nochmal, kleinere Netzteile kauft man sich nicht nur wegen des Preises, sondern weil die Effizienz der großen bei einem normalen System ziemlich schlecht ist.

Wer sich eine HEDT Kiste baut, kauft sich auch ein entsprechendes Netzteil, es macht aber wenig Sinn eine Kiste die meist 50-90% im Idle bei 20-50W gurkt, mit einem 1000W Netzteil auszurüsten.
 
T670i schrieb:
Jup ich werde vermutlich die 270W config fahren. Das E11 550W habe ich erst letztes Jahr gekauft.
Ärgerlich.... Aber gut für die einstelligen Prozente kaufe ich kein neues Netzteil.
Das wäre dann wahrscheinlich vergleichbar mit einer übertakteten 3070, nur das diese 200 Euro weniger kostet.
 
  • Gefällt mir
Reaktionen: Tzk
Die 3080@320w ist vollkommen für den Eimer...
Hätten sie lieber bei 270w lassen sollen und so mit Performance+Verbrauch punkten!

Ansonsten alles wie erwartet.. eine 2080ti oc (richtig oc mit vram oc und unter Wasser jenseits der 2Ghz; nicht das cb "oc") liegt auf Niveau der 3080. Gut für neue Käufer, für jemanden, der die Leistung seit Jahren hat, eher langweilig.
Aber als ich es vorher gesagt habe wurde ich ja für verrückt gehalten.

Die 3090 wird noch ein interessantes Release, wobei auch da eher noch mal mit rund 20%~ zu rechnen ist.
Ehrlich gesagt bin ich eher gespannt drauf, wenn @Esenel oder @PhoenixMDA sich eine 3090 evtl. holen werden und die dann unter Wasser setzen.

Jetzt mal schauen was AMD so bringt, aber voraussichtlich wird für mich diese Generation ausgesetzt.
 
  • Gefällt mir
Reaktionen: Esenel, bad_sign, DarkerThanBlack und eine weitere Person
SPECIALIZED- schrieb:
Stimmt ich hatte mich bei meinem Autohändler auch letztes Jahr beschwert, was das den für eine Sauerei ist das mein Auto mit 421 PS bei Sportlicher Fahrweise um die 20L Super Plus verbraucht...:rolleyes:

Finde den Fehler...

Was für ein extrem, wirklich extrem dummer Vergleich. Das heißt also das eine GPU-Generation immer mehr ziehen darf wenn sie schneller wird? Sehr gut, dann viel Spaß mit GPUs die irgendwann über 1K Strom ziehen.

CrustiCroc schrieb:
Ihr müsst echt nen mega Hate gegenüber Nvidia haben, oder seid einfach nur neidisch auf die geile Leistung

Oder diese Leute sehen die Sachen nunmal objektiv ;)

Flitschbirne schrieb:
Denkt ihr ein Core i7-6700K ist ein Bottleneck für die RTX 3080?

Aufjedenfall wenn selbst der schnellste AMD Prozessor hier und da limitiert.
 
  • Gefällt mir
Reaktionen: psychotoxic, Otsy, Tzk und eine weitere Person
Klingt vielleicht blöd, aber gibt's irgendwo Vergleichswerte zu einer 1060? Ich könnte die rund eruieren aus den Werten einer 1080, bin aber gerade faul ;)

Der Sprung von meiner wird sicher groß - aber die große Frage ist doch, wie groß! :P
 
Taxxor schrieb:
Natürlich, die 2080Ti verbraucht 270W bei 100% Leistung und die 2080Ti OC mit 334W liegt bei 114%

2080Ti OC vs 3080 ist also 334W zu 322W bei 100% zu 115%

Und 2080Ti OC vs 3080 OC ist 334W zu 370W bei 100% zu 120%.

2080Ti OC vs 3080 FE 100% zu 119% Performance Per Watt. Das ist immer noch eine Effizienzsteigerung von knapp 20%. Es sind halt nur 8nm+. Die TDP ist spürbar höher als bei TMSCs 7nm Verfahren. Mich würde es nicht wundern wenn Nvidia an einer "Super" Generation in 7nm+ arbeitet. Dennoch wissen wir nicht welchen Preis Samsung gemacht hat um ihre Fabriken auszulasten. Ich denke es wird diesmal schwer für AMD mit dem Preis zu Konkurieren nicht mit der Leistung.
 
Super, also kann man bei einer 3080 mal locker mit einem teuren 650W oder min. einem billigeren 750W Netzteil rechnen um nicht "im dunklen" zu stehen...

Saubere Leistung XDDD

ich seh jetzt schon reihenweise die lichter ausgehen bei den early adoptern :hammer_alt:
 
  • Gefällt mir
Reaktionen: bad_sign
Zurück
Oben