News Radeon RX Vega: Einordnung der Spekulationen zur Leistungsaufnahme

Mustis schrieb:
...

Und ob ich ne Karte im Rechner will, die Standard ne TDP von über 300 Watt hat? Da kommen die TIs ja schon nur schwer hin im OC Mode und sind dabei mit Luft auch nur noch grade so zähmbar wenn Lautstärke nicht egal ist.

Siehe Fury X, da sind mir die 300 Watt auch egal, weil standardmäßig mit Wasser gekühlt wird.
DAS darf mit Vega auch gern so weitergehen, eventuell aber gleich mit einem 240er Radiator.

Jeglicher Lüftkühler würde eh instant entfernt werden und auf Wasser umgerüstet.
Und bei Nvidia würde ich nur zur FE greifen, ebenfalls weil man da mehr Auswahl hat bezüglich Wakü.
 
Black&White schrieb:
Oh nein, Futter für unsere öko Nazis.
Dazu noch Gerüchte von der Quelle Videocardz....

Ist doch egal was die Karte frisst wenn sie Leistung satt bietet. Ob 200/300 oder 500 Watt, ist ja nicht so das Strom Mangelware oder sehr teuer ist.
Kühlen muss man das dann aber noch, leise wird das dann nicht.
 
Theoretisch wäre mir der Stromverbrauch auch egal - wie oft läuft die denn bitte am Anschlag. Mein Problem ist eher das betreiben in einem ITX Case sowie das ich dann auch ein neues Netzteil bräuchte. Das lässt sich mit einem ITX Case nur schlecht bis garnicht vereinbaren. Allein die Größe des Netzteils wäre wohl ein No-Go.

Hoffe das es einen Konkurrenten zur 1060 mit VEGA gibt und einen ähnlichen Stromverbrauch hat.
 
D708 schrieb:
...

Und wer weiß schon, wie wir in 2030 Energie produzieren? Der Iter soll 2022 ans Netz und in China/Japan werden erste Thorium Flüssigreaktoren gebaut.
Enegiepreise erhöhen sich... oh Wunder, nennt man Inflation.

Bezüglich ITER muss ich dir widersprechen, der geht nie ans Netz, nur, und das hoffentlich bald, in Betrieb.
ITER ist als Versuchsreaktor im Großformat geplant worden, um die Techniken und Materialien für spätere industrielle Reaktoren zu entwickeln und zu testen.
 
Der Mitarbeiter von MSI hat eine Anspielung auf die "RX Vega Lightning Edition" mit vorinstallierter Wasserkühlung ( Fury X ) gemacht ;D
 
Wo ist denn das Problem?

Im Vergleich zur von Nvidia mit 180 Watt Verbrauch angegebenen GeForce GTX 1080 Founders Edition (Test) zeigen Partnerkarten der GeForce GTX 1080 im Test allerdings bis zu knapp 20 Prozent mehr Leistung, verbrauchen unter Last dann aber auch 130 Watt mehr.

Macht 310W für die schnellsten Partnerkarten :D :D
 
Fragger911 schrieb:
Bezüglich ITER muss ich dir widersprechen, der geht nie ans Netz, nur, und das hoffentlich bald, in Betrieb.
ITER ist als Versuchsreaktor im Großformat geplant worden, um die Techniken und Materialien für spätere industrielle Reaktoren zu entwickeln und zu testen.

Wobei ich persönlich ja den Stellerator dem Tokamak vorziehen würde.
 
Inflation oder was auch immer, das die Preise steigen werden bestreite ich ja in keinster Art und Weise.
Doch bin ich der Meinung dass Schade ja sogar traurig ist, das derartige Mengen an Energie benötigt um einigermaßen gute Grafik bieten zu können ( egal von welchem Hersteller ).
Dabei ist es so offensichtlich, über Jahre hinweg reissen sich die Hersteller den ... auf um Leistung zu bieten doch gerechtfertigt wird das meiner Ansicht nach bei nicht einem Game aus optischer Sicht.
Was absolut vernachlässigt wird ist eine vernünftige Programmierung...
Doch solang alle immer nur diesen irrwitzigen Vergleich anstreben, ich kann mir das Flaggschiff Leisten, und mir ist's doch egal was es frisst vertreten wird, wird sich nie etwas ändern...
Wenn ich nur darüber nachdenke wie wenig sich bzgl. der Optik oder KI getan hat seit, sagen wir mal 2010 ist es nur als erbärmlich einzustufen ,das man das als Kunde weiterhin so akzeptiert.
Was mit einer vernünftigen Programmierung möglich ist sieht man ja schon auf Tablet s und Smartphones!
Ja die Spiele sind vielleicht nicht so umfangreich, aber sie laufen gut und das teilweise in UHD.
Wo also ist das Problem ? Man sollte sich einmal fragen wie es wäre ,welche Grafikperlen man hätte wenn man das verglichen zur Leistung wenigstens 1/4 umsetzen könnte.

Und noch ein Hinweis die Strompreise werden steigen und das nicht zu knapp, und bei uns in Deutschland wird wieder niemand etwas sagen .
Denn der Deutsche ( ich also auch ) ist entweder zu Stolz, zu faul oder einfach nur zu Feige etwas zu unternehmen.
Es ist wahrscheinlich einfach nur die anerzogene Eitelkeit eines jeden von uns die nicht zulässt das er offen und ehrlich sagt mir reicht es, es ist genug!
Nein wie so oft hier im Forum wird damit gekonntert ,( ich ) kann es mir leisten dein Problem hättest was vernünftiges gelernt oder oder...

Nur zur allgemeinen Info, ich kann es mir auch leisten ( aber ich will es einfach nicht mehr, da zu lächerlich für das gebotene)

Für alle die nun von mir genervt sind , bitte entschuldigt doch dieser sture und fanatische Egoismus geht mir richtig auf den Zeiger...

LG. Und viel Spaß mit euren Heitz Kraftwerken egal von welchem Hersteller!
 
Viele vergessen wohl das auch die GTX 1080Ti eine Leistungsaufnahme von 250 bis 300 Watt haben.

Schlussendlich muss man Tests abwarten und die meisten die wegen dem Stromverbrauch sich Gedanken machen müssen kaufen eh keine Grakas in der Preis Region.
 
Fragger911 schrieb:
Bezüglich ITER muss ich dir widersprechen, der geht nie ans Netz, nur, und das hoffentlich bald, in Betrieb.
ITER ist als Versuchsreaktor im Großformat geplant worden, um die Techniken und Materialien für spätere industrielle Reaktoren zu entwickeln und zu testen.
OffTopic
Doch doch, der soll ans Netz(edit: nicht Iter sondern DEMO) Soll ja der erste Reaktor sein, der mehr Energie ins Netz speist als entnimmt.
Aber klar ist auch, dass ist immernoch ein Forschungsreaktor ist. Mit ihm möchte man "Langzeittest" durchführen.
wenn er so funktioniert, wie geplant, wird er die Blaupause für sämtliche andere Reaktoren.


Falls du was antwortest dadrauf, werde ich nicht mehr reagieren. Nicht böse gemeint, aber sonst kommt wieder die Modkelle.
 
Zuletzt bearbeitet:
einzig die Wahl von nur 8 GB HBM2-Speicher

Habt ihr selbst nicht geschrieben beim ersten HBM Test das der Speicher deutlich effizienter und schneller in der Verwaltung ist als DDR? Wie kann dann von "nur" die Rede sein?
 
Weil es in dem Satz um einen Vergleich zur FE geht, die 16GB hat.
Also hat die RX Vega "nur" 8GB.
Es geht nicht um DDR vs HBM.
 
Mysterion schrieb:
Mir ist der Leistungsbedarf auch völlig egal, wir brauchen dringend wieder eine Konkurrenzsituation im High-End CPU Segment, schon alleine damit nVidia wieder auf den Teppich kommt und pro Jahr endlich wieder mehr liefert als nur 25 % Mehrleistung.

Die "nur 25% Mehrleistung" dürfte für AMD ein größeres Problem darstellen, als die Mehrleistung, die Intel immer lieferte...
Ich hoffe dass Vega schnell und relativ leise wird, dann habe ich nächstes Jahr wieder Mal einen AMD-only-Rechner
 
Das ist nicht korrekt, ich zB. denke an den Stromverbrauch solcher Grafikkarten.
Dennoch war meine letzte Karte eine Fury x.
Aber es ist einfach nicht mehr zeitgemäß, als Oberste Grenze des Verbrauchs sollten heutzutage 250 Watt als gesamte Leistungsaufnahme gelten und daraus die Beste Leistung generiert werden das wäre eine Entwicklung...
Was zur Zeit passiert ist ...
 
immortuos schrieb:
Ich behaupte jetzt einfach mal, wer 700€ für eine GPU rauswerfen kann wird sich über die paar € für den Strom nicht die geringsten Gedanken machen. Durch die deutlich potenteren Kühler ist auch die Hitze nicht mehr das große Problem.

Ein wenig kurzsichtig, meinst du nicht auch? Willst du etwa mit viel Geld alle Fakten relativieren? Wenn man ordentlich Geld hat, darf man also alle anderen Aspekte einfach ignorieren? Es geht hier nicht nur um den Strom, sondern auch der Umwelt. Mit dieser These kann man genauso sagen, dass die Arbeiter weiterhin unter schlechten Bedingungen die Teile zusammenbauen sollen. Ich hab viel Geld, kann mir alles leisten, was mich nicht betrifft, ist mir auch egal. Ich halte genau so eine Einstellung für bedenklich, das Resultat wird sich in den nächsten Jahren deutlicher zeigen.
Aber auch diejenigen, welche sich solch eine Karte zulegen, werden später bei den Strompreisen ebenfalls aufschreien.

Der Physik sind auch Grenzen gesetzt, vielleicht kannst du noch die Karten kühlen, aber dann nicht mehr leise. Es kommen aber auch noch andere Faktoren bei einem hohen Stromverbrauch hinzu.
 
Zuletzt bearbeitet:
Alter Schwede, hier im Thread steht ja wieder eine Menge Bullshit - passt ja auch zum Thema der Spekulation über eine Spekulation, aber manchmal fällt dann doch etwas heraus, was noch alles übertrifft:
Es ist wahrscheinlich einfach nur die anerzogene Eitelkeit eines jeden von uns die nicht zulässt das er offen und ehrlich sagt mir reicht es, es ist genug!
...die anerzogene Eitelkeit....?.....Ernsthaft? Wo und in welchem Universum wird hier in D Eitelkeit anerzogen und wie kann man Eitelkeit in diesem Zusammenhang überhaupt verwenden.

Meine Güte, es ist zwar Freitag, aber so etwas......:freak:
 
Ich bin kein Niederländisch-Experte, aber die Aussage
Von „verdammt viel“ ist in dem Posting aber keine Rede, eher von „verbraucht so viel wie nötig“
halte ich zumindest für fragwürdig. Der O-Ton war "Tering wat power is nodig". "Tering" ist ein Kraftausdruck, en:wiktionary übersetzt ihn als "shit" oder "damn". "wat power is nodig" liest sich für mich wie "welche Power nötig ist". Die naheliegende Bedeutung ist IMHO daher: "Verdammt, was die für Power braucht" - deutlich näher an der Übersetzung von Videocardz als an der von CB.
 
Im Vergleich zur von Nvidia mit 180 Watt Verbrauch angegebenen GeForce GTX 1080 Founders Edition (Test) zeigen Partnerkarten der GeForce GTX 1080 im Test allerdings bis zu knapp 20 Prozent mehr Leistung, verbrauchen unter Last dann aber auch 130 Watt mehr.
Es gibt 1080 customs die 310w verbrauchen?
 
Wer hier wirklich keinen höheren Stromverbrauch der Umwelt (o_0) will, sollte einfach seinen kompletten PC verkaufen, Fernseher am besten auch. Kann dieses Argument nicht mehr hören, weg mit euren Elektrogeräten!
 
Zurück
Oben