News Nvidia-Grafikkarte: Auch „GeForce RTX 2050“ in Benchmarks entdeckt

Die Stromspardiskussion ist meiner Meinung nach Blödsinn. Letztens Bioshock 2 gespielt, da verbraucht meine Vega dann fast nichts mehr. Dann Witcher 3, dann braucht se wieder mehr. Mit FRTC so um die 250W maximal, meistens weniger. Dann das letzte Deponia, dann verbraucht man nur 10W. Alles hängt davon ab was man spielt, wie lange etc.

Ich habe meine Vega64 zum Spass auf Effiziens einer 1070 eingestellt (150W Realverbrauch). Es geht, ist aber wohl von der Qualität des chips abhängig.

Wirklich interessant finde ich die Frage nur wenn man htpc oder silent fahren will oder ein billigeres Netzteil hat..ä Dann muss man sich mit Lüftung und Wärmeentwicklung auseinandersetzen, da ist Nvidia dann meistens besser.

Aber Öko und Stromverbrauch? Da ist die beste Karte, die die man nicht kaufen muss.

Ich sage das alles nur weil ich AMD kaufe. Hätte ich Nvidia würde ich das Gegenteil behaupten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: simosh, Mcr-King und pietcux
Chismon schrieb:
Und Gigabyte plant angeblich sage und schreibe 40 verschiedene RTX 2060 Modelle (aufgeteilt auf 6 Basiskonfigurationen), wenn man VCZ Glauben schenken mag.

Erstaunlicherweise (?) auch mit 3 und 4 GB bestückt, nicht nur mit den vorab gemunkelten 6 GB (schade mit 8 GB wäre so eine RTX 2060 fast interessant).

Die Leistung müsste schon weit von einer RX 590 entfernt sein, um überhaupt interessant zu werden.

Gigabyte wird so langsam zum Haus und Hof Sklave von nVidia. Von wegen GPP existiert nicht mehr.


Willi-Fi schrieb:
Nvidia ist meistens eine Idee sparsamer. Irgendwo findest du bestimmt eine Watt pro FPS Liste.

mkdr schrieb:
Wieso sollte das Ironie sein? AMD ist halt seit Jahren nur ne dampfende Zimmerheizung.

Out of the Box mag das stimmen. Aber wir sind doch alle Enthusiasten und tunen und basteln gern am PC. Wieso sollte ich dann nicht ein wenig meine GPU perfektionieren?
Das ist nur mit der Fine-Wine Technologie von AMD möglich.

Wer´s einfach will kauft sich ein iPhone und nVidia.
Wer gern bastelt, kauft sich eben ein Android Gerät mit Root und eine AMD GPU zum austoben.
 
  • Gefällt mir
Reaktionen: Mcr-King
Inxession schrieb:
Wer gern bastelt, kauft sich eben ein Android Gerät mit Root und eine AMD GPU zum austoben.
Erm nein? Wer auch gerne bastelt kauft sich eine Nvidia, weil dort weit mehr geht zum "Basteln", aka MSI AB, Rivatuner, besseres Undervolt, zich coole zusatz Features zB Nvidia ANSEL, Nvidia CUDA Kerne zum alles mögliche mit machen, usw. ES gibt kein einzigen Grund AMD GPU zu kaufen. "AMD GPU zum Austoben"... peinlicher kann man sich wohl etwas Schlechtes nicht schön reden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: franzerich
Tut mir Leid @mkdr : Das ist doch sehr subjektiv. Warum gehst du so weit anderer Leute Hardware schlecht zu reden? Ich hatte selten so viel Spass am Tüfteln als mit der Vega. Hängt wahrscheinlich davon ab was man darunter versteht.

Es gibt viele Gründe AMD zu kaufen. Wollen wir das jetzt wirklich zum unendlichsten Mal durchexerzieren nur weil du mit ner schwarz/weiss Meinung daherkommst?
 
  • Gefällt mir
Reaktionen: Mcr-King, qappVI und Inxession
Sun-Berg schrieb:
du mit ner schwarz/weiss Meinung daherkommst?
Du meins deine schwarz/weiss Meinung? Ich hab mindestens 5 zu 1 Gründe genannt, wieso Nvidia AUCH (sein Argument) für "Bastler" besser ist. Oh verzeihung, zu 0, es gibt nämlich kein einziges Pro für AMD gegen Nvidia.
 
Du meinst also CUDA wäre ein guter Grund für die normale Zielgruppe, sich eine NV Karte zu kaufen? :D
 
  • Gefällt mir
Reaktionen: Otsy, qappVI und Inxession
mkdr schrieb:
Du meins deine schwarz/weiss Meinung? Ich hab mindestens 5 zu 1 Gründe genannt, wieso Nvidia AUCH (sein Argument) für "Bastler" besser ist. Oh verzeihung, zu 0, es gibt nämlich kein einziges Pro für AMD gegen Nvidia.

Oh mei. Na dann. Viel Spass noch.
 
  • Gefällt mir
Reaktionen: Otsy, Mcr-King, qappVI und 2 andere
Die ganze Diskussion ist trotzdem hinfällig sonst müsste man mehr Switch kaufen als Ps4. 😉 Keine Elektronik wo der Akku fest verbaut ist und nicht jedes Jahr eine neue CPU/GPU.

Also ich bin mal gespannt wie schnell DRX auf RTX2050/60 läuft in 640p. 😉
 
foxio schrieb:
Du meinst also CUDA wäre ein guter Grund für die normale Zielgruppe, sich eine NV Karte zu kaufen? :D
Er hat als Argument BASTLER genannt.. als Grund FÜR AMD. Als Bastler beziehe ich Leute natürlich auch mit ein, die sich mit Anwedungen beschäftigen wollen die einen (großen) Vorteil aus CUDA ziehen, deep learning ect pp.
 
S.Kara schrieb:
Besser als auf AMDs Karten. :evillol:
wie? das gibt's auf AMD-Karten? Ach nein, AMD benutzt die Rechenleistung nicht für so unausgereifte „Features“ :evillol:
Ergänzung ()

mkdr schrieb:
Als Bastler beziehe ich Leute natürlich auch mit ein, die sich mit Anwedungen beschäftigen wollen die einen (großen) Vorteil aus CUDA ziehen, deep learning ect pp.
sind das nicht eher Prosumer. Für die gibt es doch eh andere Karten..
 
  • Gefällt mir
Reaktionen: Buchstabe_A, Otsy, Sun-Berg und eine weitere Person
mkdr schrieb:
Erm nein? Wer auch gerne bastelt kauft sich eine Nvidia, weil dort weit mehr geht zum "Basteln", aka MSI AB, Rivatuner, besseres Undervolt, Zich coole Zusatz Features zB Nvidia ANSEL, Nvidia CUDA Kerne zum alles mögliche mit machen, usw. ES gibt kein einzigen Grund AMD GPU zu kaufen. "AMD GPU zum Austoben"... peinlicher kann man sich wohl etwas Schlechtes nicht schön reden.

Du wärst besser beraten dir erstmal eine AMD Karte zum basteln zu kaufen, anstatt hier den Leuten "Peinlichkeit" vorzuwerfen.
Du hast dich selbst als Peinlich markiert mit deiner Antwort...

MSI AB ist durch das geniale Wattmann Tool so gut wie unnötig. Aber auch auf AMD Karten problemlos nutzbar, wo ist da der nVidia Vorteil?
Ansel muss meines Wissens nach vom Spiel unterstützt werden, das is also keine globale "Möglichkeit"
CUDA wurde bereits angesprochen. Hat sicherlich seine Vorteile und ist für viele ein nettes Bastel Gimmick. Damit hast du Recht.

Peinlich ist es allerdings, als User der sich in einem Forum informiert, nicht zu wissen welche Bastel Vorteile zB eine Vega Karte bietet.

Du kannst im Leben niemals mit einer nV Karte so viel rausholen wie mit einer AMD.

Das mag sicherlich ein Nachteil für Luxus Käufer sein, .. für Bastler fängt der Spaß da aber erst an.

Siehst du ja auch an den anderen Antworten auf deinen Beitrag.

Ich empfehle dir das TechPowerUp Forum, um sich in die Angelegenheit mal einzulesen bevor man aufgrund des Beissreflexes evtl Nichtigkeiten verbreitet.
 
  • Gefällt mir
Reaktionen: Buchstabe_A, Sun-Berg und Mcr-King
Und Cuda ist auf alles was unter RTX2060 ist sowieso viel zu abgespeckt.
Auch geht RTX nicht auf einer GTX1080 mh.

Wo ist der SW Mode den NV beworben hat, nicht da damit du Neukaufen musst.
Ergänzung ()

Ausserdem kann man eine NV nicht wirklich gut OC oder BIOS Flashen all das verhindert NV zum wohle der Kunden.
 
Ich habe vom FX 8320 auf R7 1700 gewechselt, weil mir ein Radeon Treiber Update den W10 USB Treiber komplett zerschossen hatte. Musste sowieso Windows neu installieren, weil mein Board nur einen PS2 Port hatte. Da ist die Rettung dann unmöglich gewesen. Ich also zum Arlt und R7 CH6 plus Speicher gekauft. Habe damals 6 Monate lang mit der Neuen Hardware gekämpft mit Cold Boot no Boot Speicher wird gar nicht akzeptiert und so weiter....... irgendwann gab es endlich ein halbwegs gutes BIOS und die Bootprobleme wurden weniger. Besonders schön wenn deine Frau den Rechner auch nutzt und du im Büro sitzt wenn die Kiste streikt.... guter Wein, ha.... erst R2700X hat alles besser gemacht. Man gut, sonst wäre es jetzt ein i7 8700 geworden. Die RX480/580 wurden erst von einer GTX 1060 verdrängt, weil sie mir einfach zu laut waren diese später von einer Palit Gamerock GTX1080, die bei 35 Grad im Raum noch immer keinen Laut von sich geben mochte. Hier zahlt sich die bessere Effizienz eben aus. Ich bastel ja gerne, aber irgendwann ist auch mal gut. Kein AMD Prozessor vom 1400 bis zum FX 8320 war so ein Mist wie der R7 1700 am Anfang, und Die AMD Grakas sind auch schon einige Jahre aus der Spur. Meine letzte gute AMD Graka nach der HD4870 und HD5870 war die HD7870. Die RX plus Vega finde ich off. Aber wer es mag.... der bastle sich nen Wolf.
 
@pietcux ... auch dir sei nahe gelegt .. wenn man sich vorher informiert, welcher Speicher, welches Board und welche CPU gut zusammen spielt, dann hättest du keinerlei Probleme mit dem 1700er Ryzen gehabt.

Auch der Launch der Intel Plattformen mit neuem Speichercontroller geht nicht reibungslos von statten. Das spielt sich nun mal erst ein. Schon klar das du dann mit einem 8700er keinerlei Probleme gehabt hättest. Das is auch ungefähr der 8. Abklatsch einer Architektur. Spricht eigentlich für AMD, wenn du bereits mit der 2.Gen keinerlei Probleme mehr hattest.

Das sind aber hausgemachte Probleme, wenn man sich nicht informiert.
Oder, bei unwissenden Kunden, der Händler nicht informiert ist.

User hier im Forum, meine ich, haben aber doch eine gewisse Neigung zur IT.
 
  • Gefällt mir
Reaktionen: Buchstabe_A, Sun-Berg, Mcr-King und eine weitere Person
Ja also ich hatte auch Probleme mit BIOS zwar Ständig Standby ohne Grund im Game.

Also einfach deaktivieren und gut ist, auch vor dem OC BIOS nur zum kämpfen gehabt.
Ergänzung ()

So aber zurück zum Thema, RTX unter halb der RTX2070 ist Blödsinn und Verblendung von Käufern finde ich.
 
  • Gefällt mir
Reaktionen: Heschel
mkdr schrieb:
Er hat als Argument BASTLER genannt.. als Grund FÜR AMD. Als Bastler beziehe ich Leute natürlich auch mit ein, die sich mit Anwedungen beschäftigen wollen die einen (großen) Vorteil aus CUDA ziehen, deep learning ect pp.

Also sind Menschen, die sich mit Software beschäftigen, automatisch Bastler? Jemand, der gerne "bastelt" hat in der Regel irgendeine Affinität zum Handwerk. Jemand, der sich mit Deep-Learning beschäftigt ist eher Forscher oder Wissenschaftler. Gerade der Medizin-Bereich profitiert vom Deep-Learning, lassen sich damit doch z.B. dreidimensionale Gehirnschnitte erstellen. Das sind aber keine Bastler - zum Glück - oder man hat Spaß daran, wenn jemand auf einmal am eigenen Körper bastelt.
Ergänzung ()

mkdr schrieb:
, aka MSI AB, Rivatuner, besseres Undervolt, zich coole zusatz Features zB Nvidia ANSEL, Nvidia CUDA Kerne zum alles mögliche mit machen, usw.

Und den MSI Afterburner kann man jetzt nicht mit AMD GPUs verwenden, weil? Und warum funktioniert der Rivatuner nicht mit AMD GPUs? Warum sollte man eine AMD GPU nicht undervolten können?

Mit Zusatzfeatures meinst du so Spyware wie GeForce Experience, richtig oder die schönen Telemtrie-Dienste seitens Nvidia, die dir dein System zumüllen, richtig? Nicht zu vergessen, dass Nvidia-Treiber natürlich fehlerlos sind und stets perfekt funktionieren.
 
  • Gefällt mir
Reaktionen: Buchstabe_A, Hägar Horrible, Otsy und 3 andere
Ja wie GSync und HDR oder Hdmi Fehler und und...
Nein NV spät doch gar nicht dein System aus, naja ich habe auf jeden Fall mal die EU angeschrieben ob die sich an die EU Datenschutz Verordnung halten.

Auch mit AMD kann man Deep Leering machen manche tuen ja so als hätte NV alles erfunden.

Desweiteren wenn alle NV so mögen warum sagt dann keiner der NV Fanboys dass die Switch die beste Konsole ist. 😉
 
  • Gefällt mir
Reaktionen: Buchstabe_A
happylol schrieb:
...Ja out of the box sind Nvidia gerade sparsamer, macht man aber gerne fein-tuning, so ist eine vega 56 doch effezinter als eine undervoltete pascal, mag man nicht glauben ist aber so.

Meine vega 56 verbraucht 150watt, der PC insgesamt 290w, hab ein strommessgerät, vorher waren es 430watt (140watt ersparnis) , gleichzeitig wurde der takt 10% höher und der hbm Speicher wurde auch um 20% erhöht.

Bei der gtx 1080 von meinem Bruder geht nicht viel.
Ich habe keine Minute den umstieg von der 1080 ti auf die vega 56 bereut :)

Das kann ich aus erster Hand aber auch gleich wiederlegen.
Auch bei einer GTX 1080 geht noch etwas aber diese ist von Haus aus sehr effizient. Man kriegt diese ohne Einbußen auf 140-150W tatsächlichen Verbrauch.(@1800-1900 MHz)
Bei meiner Vega 56 war es extrem aufwendig diese halbwegs genügsam zu bekommen. Bei ca. 175W war es OK.
Diese hat jederzeit(!) mehr eingeheizt als meine aktuelle GTX 1080.
Wenn die Watt-Zahl aus GPU-Z abgelesen wird ist es nie der tatsächliche Verbrauch.
Bitte noch einmal 30-50W drauf rechnen.:rolleyes:

Vega 64 sind noch ein wenig effizienter als die 56er.
 
Außerdem ist NV kein Freund von Standards sage nur HDR und 4K und GSync. Bin ja gespannt ob dort auch 6 Modelle kommen vielleicht ja eins mit 3,5 GB.
 
Zurück
Oben