News Nvidia Gaming Ampere: Angeblicher Kühler der GeForce RTX 3080 fotografiert

Abwarten, jetzt ist ja die Leistung noch gar nicht bekannt.
Bei entsprechender Leistung ist der Verbrauch auch wieder akzeptabel.

Oberflächlich betrachtet sieht es nach sehr leistungsstarken GPUs aus, die ordentlich Energie brauchen, und auch entsprechend teuer werden.
 
immortuos schrieb:
Nein. Bestes Beispiel: 2060 vs 2060S: identische Taktraten, einmal 6 GB VRAM, einmal 8 GB VRAM, 13% mehr ALUs, 13% mehr Leistung im CB Rating.
Es gibt aber nur eine Maxwell die 6 GB hat, der Rest darf drastisch Details reduzieren.
 
Das Zauberwort heißt "Performance pro Watt" eine Vega 64 schafft bei 350 Watt - 30 Frames, die neue Nvidia 100 Frames!
 
ich bleibe dabei...egal wie man das interpretiert: 350w bzw. 320w wären einfach eine krasse nummer und tatsächlich so ein level, auf dem die sonst eher nebensächliche leistungsaufnahme dann doch relevant wird.
normalerweise weiß man dass so ein beschleuniger in der oberklasse 200-300w ziehen kann, aber erhöhungen werden auch hier nicht einfach grenzenlos akzeptiert...
wie gesagt: abwärme muss auch nach dem kühler aus dem case, und irgendwann wird das nicht mehr so ohne..
 
  • Gefällt mir
Reaktionen: Mcr-King
Wer über 800€ allein für eine GPU ausgibt, wird mit Sicherheit auch genug Geld für ein gutes Netzteil haben. Und Netzteile mit 600-700 Watt sind auch nicht mehr so teuer wie früher, und heute viel effizienter.
 
Zuletzt bearbeitet von einem Moderator:
immortuos schrieb:
Dann rechne nochmal nach ;)
Nehmen wir deine Werte:
980 Ti OC vs FE 1450/1075 ~34,9%
1080 OC vs FE 2100/1700 ~23,5%
1080 Ti OC vs FE 2000/1650 ~21,2%
Das wiederum umgerechnet auf die absoluten Werte aus dem Performance Rating des 1080 Ti Test auf 1440p:
980 Ti: 1,349 * 60,3 ~ 81,34
1080: 1,235 * 77,8 ~ 96,08
1080 Ti: 1,212 * 99,8 ~ 120,96
Das zueinander ins Verhältnis gesetzt:
1080 Ti vs 1080: 120,96 / 96,08 ~ 1,259 --> 25,9% schneller
1080 Ti vs 980 Ti: 120,96 / 81,34 ~ 1,487 --> 48,7% schneller
1080 vs 980 Ti: 96,08 / 81,34 ~ 1,181 --> 18,1% schneller

Natürlich ist das alles nur ungefähre Rechnerei, ohne genaue Tests, weiß kein Mensch, wie stark sich die erhöhten Taktraten wirklich auswirken. Beim 1080 Launchtest hat CB aber zumindest den Direktvergleich zwischen 980 Ti und 1080 mit OC gemacht: Da war die 980 Ti der 1080 schon sehr nahe, 14% Abstand bei OC vs OC.
So groß, wie hier immer gerne behauptet wird, war der Abstand von Pascal zu Maxwell auch nicht, bei Turing zu Pascal waren es ~31%.
aus dem 2080 Ti Test, Performance Rating 1440p:
1080 Ti: 75,6
2080 Ti: 100
OC Takt der 2080 Ti laut Listen hier im Forum liegt auch bei etwa 2100 MHz, der durchschnittliche Takt im CB Test bei 1720-1750 MHz, nehmen wir 1750 MHz: 2100/1750 ~ 1,2
Auch wieder auf die absoluten Werte umgerechnet:
1080 Ti: 1,212 * 75,6 ~ 91,63
2080 Ti: 1,2 * 100 = 120
2080 Ti OC vs 1080 Ti OC: 120 / 91,63 ~ 31%


Kann man machen aber das ist für mich schöngerechnet. Und 3 Punkte lässt du völlig außer acht.

1. Du vergleichst FE Turing mit FE Pascal. Jetzt weiß aber jeder dass FE Turing eigentlich eine OC Version ist und der Kühler nicht limitiert ganz im Gegensatz zur FE Pascal. Ist ein schöner Marketingtrick von Nvidia der offenbar immer noch zieht.
2. Hat sich von der 980ti zur 1080ti der Speicherausbau mal fast verdoppelt. Bei Pascal zu Turing ist der gleich geblieben.
3. Die Preise sind mit Turing mal eben in die Höhe geschossen von Ti zu Ti. Kann man machen aber dann muss man schon verhältnismäßig schon wesentlich mehr Performance bieten zur Vorgängergeneration. Das tut es meiner Meinung nach nicht.

Und da bin ich mir sicher, dass viele 1080ti Besitzer meiner Meinung sind und auf die 2080ti verzichtet haben weil ihnen das schlicht nicht wert war. Sogar Leute die normalerweise immer bei der neueren Generation zurgreifen haben sich diesmal zurückgehalten.
 
  • Gefällt mir
Reaktionen: ChrisM und Bright0001
acc schrieb:
dafür hätte nvidia schon vor etlichen monaten wissen müssen, das big navi bringen soll. also eher unwahrscheinlich.
Die Andeutungen vom "Nvidia Killer" geistern ja schon seit über einem (1.5?) Jahr(e) durchs Netz.
Da hab ich mich auch erst scheckig gelacht. Nvidia könnten also seit locker 1 - 1/2 Jahr mehr wissen. Sie haben ja auch das nötige Kleingeld um Informationen zu bezahlen.
Nachdem zuletzt aber bei AMD die Effizienz und Leistung bei weniger Energieverbrauch selbst bei dem Vega Krüppel in der APU deutlich sichtbar gestiegen ist und die X-Box APU 2080er Leistung bringt / bringen soll, ist mir das Lachen so langsam auch vergangen.
Wer rechnen kann, kommt da schon auf eine recht hohe Erwartungshaltung. Und rechnen können Sie bei Nvidia sicherlich besser als wir alle zusammen.

Wenn Igor wirklich recht hat, dann haben sie den nächstkleineren Chip welcher für die 3080 gedacht war gecancelt. Das macht man ja auch nicht auf blauen Dunst hinaus.
"Poor AMD" scheint dieses Jahr also wirklich mal was im Ärmel zu haben.

P.S.
Ich glaube aber trotzdem erst daran, wenn ich die ersten Tests gelesen habe.
Dafür bin ich seit Vega viel zu geerdet.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Stunrise schrieb:
Ich kann gar nicht glauben, dass Nvidia hier mit 320 Watt um die Ecke kommt. Warum sollten sie das machen? Es gibt doch überhaupt keine Notwendigkeit die Chips so hart zu prügeln, lieber hätte man auf 10% Leistung verzichtet
Aus dem gleichen Grund, wieso Intel mit Comet Lake die TDP aufgebohrt hat: Priorität hat ganz klar die Leistungskrone. Wenn diese 10 % den Unterschied machen, ob man schneller als das Konkurrenzprodukt ist, dann ist der höhere Verbrauch wohl ein notwendiges Übel.

Musst dir ja nur die 2070 S angucken - da hat man zur 2070 ja auch Effizenz eingebüßt, um sich merklich von der 5700 XT abzusetzen.

Wenn sich das bewahrheitet ist das für mich schon ein Zeichen dafür, dass AMD konkurrenzfähige Produkte in der Hinterhand hat und andererseits auch Nvidia wohl keine 7nm-Effizienzwunder zaubert.
 
  • Gefällt mir
Reaktionen: deady1000
Revan1710 schrieb:
Aus dem gleichen Grund, wieso Intel mit Comet Lake die TDP aufgebohrt hat: Priorität hat ganz klar die Leistungskrone. Wenn diese 10 % den Unterschied machen, ob man schneller als das Konkurrenzprodukt ist, dann ist der höhere Verbrauch wohl ein notwendiges Übel.

Musst dir ja nur die 2070 S angucken - da hat man zur 2070 ja auch Effizenz eingebüßt, um sich merklich von der 5700 XT abzusetzen.

Wenn sich das bewahrheitet ist das für mich schon ein Zeichen dafür, dass AMD konkurrenzfähige Produkte in der Hinterhand hat und andererseits auch Nvidia wohl keine 7nm-Effizienzwunder zaubert.
Das sehe ich auch so.
Angenommen es käme wirklich zu so krassen Wattsaugern von Nvidia, dann wird RDNA2 wahnsinnig schnell.
Nvidia würde niemals freiwillig, bzw einfach so, solche Stromfresser auf den Markt werfen.
Da gehts definitiv um die Leistungskrone, damit einfach gestrickte Leute sehen wer oben steht.
 
Dai6oro schrieb:
1. Du vergleichst FE Turing mit FE Pascal. Jetzt weiß aber jeder dass FE Turing eigentlich eine OC Version ist und der Kühler nicht limitiert ganz im Gegensatz zur FE Pascal. Ist ein schöner Marketingtrick von Nvidia der offenbar immer noch zieht.
Was hat der Kühler mit der Rechnung zu tun? Von der FE war da gar keine Rede, es ging um die GPU selbst, bzw deren OC Potential. Und das ist seit Pascal eben ein gutes Stück schlechter als früher.
Ergänzung ()

Dai6oro schrieb:
Und da bin ich mir sicher, dass viele 1080ti Besitzer meiner Meinung sind und auf die 2080ti verzichtet haben weil ihnen das schlicht nicht wert war.
Die 1080 Ti war auch schon überteuert, die Leute kaufen trotzdem.
Ergänzung ()

bad_sign schrieb:
Es gibt aber nur eine Maxwell die 6 GB hat, der Rest darf drastisch Details reduzieren.
Ging doch um die Topmodelle. Ich habe selbst noch 2 980 Ti im Betrieb, die können noch gut mit aktuellen Mittelklassekarten mithalten. Bis heute gibt es dafür kein sinnvolles Upgrade zu vernünftigen Preisen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: II n II d II und cyberpirate
immortuos schrieb:
Ging doch um die Topmodelle. Ich habe selbst noch 2 980 Ti im Betrieb, die können noch gut mit aktuellen Mittelklassekarten mithalten. Bis heute gibt es dafür kein sinnvolles Upgrade zu vernünftigen Preisen.

Ja eben genau das Problem habe ich auch bis Ampere kommt und diesen Umstand hoffentlich behebt. Zumindest was die Performance angeht.
 
  • Gefällt mir
Reaktionen: immortuos
meine zwei pfennig:

NVIDIA-GeForce-RTX-3080-heatsink.jpg
 
  • Gefällt mir
Reaktionen: Tzk, EyRaptor, Che-Tah und eine weitere Person
Ich würde die so gerne ohne Kühler kaufen
Jedes mal das Teil abmontieren und für nichts zu gebrauchen...
 
  • Gefällt mir
Reaktionen: Haldi, ChrisM, FaYaJaH und eine weitere Person
reichsverweser schrieb:
Ich würde die so gerne ohne Kühler kaufen
Jedes mal das Teil abmontieren und für nichts zu gebrauchen...
Ist echt so. Lieber 100€ weniger, damit man das Geld bei EKWB investieren kann. ^^
 
  • Gefällt mir
Reaktionen: ChrisM und FaYaJaH
Wenn man überlegt, das der Kühler angeblich 100-150 € ($) kostet und 320 Watt TDP oder Stromaufnahme ( 3080Ti ) .
Was ist dann der Preis 2000€ ???
Leider nicht mein Preis/ Lohn bereich, die nächste wird zu 100%ig eine AMD.
 
  • Gefällt mir
Reaktionen: Mcr-King
immortuos schrieb:
Die Zeiten von form follows function sind doch schon lange vorbei, überrascht dich das echt noch? :daumen:

ja hier ehrlich gesagt schon, weil ich anhand der ersten bilder und den >300w TBP davon ausgegangen bin, dass das ein sinnvoll designter push-pull kühler ist.

der zweite gedanke war, dass dann wenigstens der kühlbereich über dem core und der mittlere kühlbereich sinnvoll miteinander verbunden sind, wenn der hintere überhängende bereich separat nur über heatpipes angebunden ist.

letztendlich ist der komplette kühler auf den ersten blick an jedem eck sehr suboptimal ausgeführt. die hauptsächliche kühlleistung kommt durch den überhängenden bereich, der frei durchströmt werden kann und eine anständige finnenhöhe hat. aber auch hier verschenkt man durch das design 10-20% der oberfläche.

der bereich über dem core ist prinzipbedingt schon nicht wirklich effizient und der mittlere bereich ist meiner meinung nach ein absoluter totalausfall. wenn man da wenigstens noch einen lüfter platziert hätte.

unterm strich frage ich mich, wie das ding mit >300w TBP klarkommen soll.

das hier wäre ein anständiges design (sapphire r9 fury tri-x):

3-1080.3823380623.jpg
 
  • Gefällt mir
Reaktionen: Mcr-King
milliardo schrieb:
Ist das ein Sprichwort? So nach der Art "Von nichts kommt nichts?"

Linguistisch/semantisch ist das jedenfalls mit an Sicherheit grenzender Wahrscheinlichkeit falsch.

Verbrauch: Da darf jeder seine Schmerzgrenze selbst ziehen. Aber wenn das so weitergeht, haben wir in der nächsten oder übernächsten Generation dann (mit Luft) nicht mehr sinnvoll kühlbare 500W-Kleinheizkraftwerke Irgendwo muss hier imho mal Schluss sein.

Wenn die Leistung pro eingesetzte W wie in den letzten 30 Jahren auch dazu passend um viele Faktoren steigt, wär mir der Verbrauch eigentlich recht egal.
So ein Rechner läuft bei mir die Woche 2-3h in Spielelast und sonst so 20h vielleicht Idle.
Mein Strom kommt komplett aus Wasserkraft, an beiden Standorten.

Wenn ich da 1-2 mal sauge und den Backofen einmal starte, hab ich mehr Energie verbraucht.


Wir haben in der Gen schon Prozessoren auf dem Mainstreamsockel, die neuerdings bis 250W ziehen, wenn man sie laufen lässt ohne sie einzudrosseln.
Da kann eine moderne Fertigung zwar viel ausgleichen, aber am Ende braucht mehr Leistung irgendwann auch einfach mehr Energie.
https://www.igorslab.de/intel-core-...echen-des-letzten-14-nm-boliden-seiner-art/8/
 
Zuletzt bearbeitet:
deady1000 schrieb:
Wieso hängt ihr euch alle auf den 350W auf? Keiner sagt, dass die Karte das nachher wirklich zieht.
Stimmt, schaut man sich die 2080Ti an, die 250W hat und bei CB im test 275W gezogen hat, könnten es auch mehr als 350W sein^^
 
  • Gefällt mir
Reaktionen: Mcr-King, Bccc1, Cpt.Willard und eine weitere Person
Zurück
Oben