News Radeon VII: AMD publiziert Benchmark­-Ergebnisse von 26 Spielen

@Luxmanl525 Weil Du möglicherweise nicht wusstest, wie auf AMD-Karten gemessen wird und warum die per Sensor ausgelesenen Verbräuche deshalb nicht richtig sein können sondern immer niedriger sein müssen? Ist für ne Argumentation (auch in Zukunft) vielleicht nützlich. Besonders informativ sind in solchen Fragen die Videos von Buildzoid (Actually Hardware Overclocking).

Ich hoffe, das wird mit Radeon VII endlich geregelt, denn ohne großen Mehraufwand wäre es möglich das ordentlich zu messen und sich negative Presse wegen der PCIe-Spec zu ersparen.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
@Taxxor @Rage

Danke für die Info, wusste nicht das bei Nvidia beides reingemessen wird. Dann ist der unterschied im Worst Case bei 85 Watt - Real am Ende vielleicht bei 40 - 60 Watt. Warm werden beide, das hat auch Nvidia mit den RTX zu Kämpfen. Das war bei der 1080 Reihe besser.
 
  • Gefällt mir
Reaktionen: Sennox und Cpt.Willard
Hallo zusammen,

@ Rage

Rage schrieb:
Weil Du möglicherweise nicht wusstest, wie auf AMD-Karten gemessen wird und warum die per Sensor ausgelesenen Verbräuche deshalb nicht richtig sein können sondern immer niedriger sein müssen?

Das ist okay. Danke für deinen Hinweis. Gleichwohl ging es mir zuvorderst um die Ominöse Rechnung des Kollegen. Die sonstigen Einläße waren eher Kosmetischer Natur um Aufzuzeigen, daß das Verhältnis gleichwohl gegeben ist.

So long...
 
schkai schrieb:
Dann ist der unterschied im Worst Case bei 85 Watt - Real am Ende vielleicht bei 40 - 60 Watt.
Grafikkarten laufen, sofern man nicht die fps limitiert und damit die Auslastung senkt, immer am Power Target, ansonsten würde man ja Leistung verschenken. Daher ist der Unterschied nicht nur im Worst Case, sondern konstant 85W
schkai schrieb:
Warm werden beide, das hat auch Nvidia mit den RTX zu Kämpfen.
Jedoch bläst dir die 2070 85W weniger an Wärmeleistung ins Zimmer. Vielleicht holt man sich ne 2070 als Sommerkarte und ne Vega64 als Winterkarte^^
 
  • Gefällt mir
Reaktionen: Lübke82
Acedia23 schrieb:
Die Aussage ist also Unsinn.

Zu sagen "Sorry, hab ich Unsinn gelabert" würde von Größe zeugen, aber irgendwie scheint es ja heutzutage üblich zu sein es noch so drehen zu wollen, dass man am Ende doch Recht gehabt hat.

Nö, das gibt es schon noch (Beispiele aus anderen Themen):
Mihawk90 schrieb:
Hatte ich wohl falsch in Erinnerung

oder (selbst Schulterklopf ;-P)

SIR_Thomas_TMC schrieb:
Da würd ich mal dagegen halten. Welches Unternehmen freut sich über Konkurrenz, nur weil sie sonst ins Blickfeld einer Behörde käme? Eine Regulierung ist mit Sicherheit profitabler als vom Wettbewerber Marktanteile abgenommen zu bekommen oder man befüchten muss, von diesem überholt zu werden.
Grestorn schrieb:
Apple wurde seinerzeit von MS mit einer Finanzspritze gerettet, weil MS vor dem Kartellamt Respekt hatte.
Und es gibt viele ähnliche Fälle.
SIR_Thomas_TMC schrieb:
Entweder an mir vorbeigegangen oder wieder vergessen.

https://www.heise.de/mac-and-i/meldung/Vor-20-Jahren-Microsoft-rettet-Apple-3793789.html

@Unnu Das belegt auch deine Einschätzung. Hätte ich wirklich nicht gedacht.
 
  • Gefällt mir
Reaktionen: Acedia23
@schkai Naja, sind halt echte Big Chips :heilig: Das gibts auch nicht gratis. Ich sehe das auch so, wirklich dramatisch ist es im Alltag vielleicht eher nicht, kommt natürlich aufs Nutzungsprofil an.

Den Ruf von AMD-Karten könnte man jedenfalls mit richtiger Verbrauchsmessung und sinnvollen BIOSen (im Besonderen bei Custom Karten) leicht aufbessern.

Edit: @Luxmanl525 Wenn man weiß, wie da gemessen wird, ist das ja beides schon völlig klar. Ich wollte Dich ja auch nur unterstützen in Deiner Position, immer locker bleiben. :heilig:
 
@Luxmanl525

Du bist einfach nur Peinlich. Was interessieren mich irgendwelche Tests mit alten Bios oder alten Treibern ? JETZT ist aktuell und JETZT ist Fakt das eine Vega64 im Balanced Mod (Adrenalin Treiber Standart) bei 225 bzw 300 Watt abriegelt. Ich könnte die RTX auch locker auf 320 Watt bringen wenn es der PT zulassen würde.
Ich Rate dir mal gewissen Dinge zu hinterfragen. Die meisten Tests sind schlampig und schluderig und beinhalten viele Fehler.
 
@SIR_Thomas_TMC faith in humanity restored ;)
Hast du dir jetzt echt die Mühe gemacht das alles rauszusuchen?
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC
@Rage
Ich muss auch ehrlich sagen das ich etwas erschrocken war als ich die 215 Watt gelesen habe. Konnte das nicht so richtig glauben da ich von ausgegangen bin das die 75 Watt vom PCIe mit reingerechnet werden müssen - jetzt passt es ja.
 
Ist also am Ende die Frage, wenn man sich als "Early (lately)Adopter" eine 500-1000€ Karte (vega64/1080ti)kauft, + das nötige andere an Hardware, das damit harmoniert, ob einem eine 80w Glühbürne in 2 Jahren interessiert.
Ich wage mal die Behauptung, dass das angesichts der Verhältnisse (CPU/Board/RAM/Graka) ... ein Witz ist.

PS: Ich finde alle Grafikkarten geil, ob nun NV oder AMD, bin aber Underdogfan und weiß, dass AMD sich ebenso verhalten würde, wenn es andersrum wäre (Spieleherstellerbeeinflussung, Preisgestaltung, Marktbeeinflussung, etc . - so ist das immer...)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Benji21
Also ich habe immer mal Nvidia oder AMD gehabt. Ich kauf immer das was Preis/Leistung am besten ist. Die RTX habe ich nur weil meine 1080 in RMA muss und der Prozess dauert leider ca 4 Wochen. Wollte eigentlich ne 2080 aber der Aufpreis von 300 Euro schreckt mich dann ab.
 
Hallo zusammen,

@ schkai

schkai schrieb:
Ich könnte die RTX auch locker auf 320 Watt bringen wenn es der PT zulassen würde.

Ich mußte das mehrmals Lesen. Denn ich konnte es kaum Glauben. Aber er ist da, der nächste Kalauer von dir. Du kannst eine RTX 2070 definitiv nicht auf 320 Watt Bringen. Okay? Eine RTX 2080, zumindest auf um die ca. 300 Watt. Aber eine RTX 2070 definitiv nicht. Warum du das überhaupt anführst, keine Ahnung. Muß ich mir aber auch keine Gedanken weiter darum machen.

So long...
 
Luxmanl525 schrieb:
Ich mußte das mehrmals Lesen. Denn ich konnte es kaum Glauben. Aber er ist da, der nächste Kalauer von dir. Du kannst eine RTX 2070 definitiv nicht auf 320 Watt Bringen. Okay? Eine RTX 2080, zuminest auf um die ca. 300 Watt. Aber eine RTX 2070 definitiv nicht. Zum Thema Peinlichkeit Sage ich jetzt wirklich nichts mehr.
Nana, 320Watt sollte die schon haben, zumindest kurzzeitig beim Verbrennen. :D
 
  • Gefällt mir
Reaktionen: Novasun, Sennox und Luxmanl525
Hallo zusammen,

@ SIR_Thomas_TMC

SIR_Thomas_TMC schrieb:
Nana, 320Watt sollte die schon haben, zumindest kurzzeitig beim Verbrennen.

Auch wieder wahr, es soll ja auch richtig "Dampfen" :freak:.

So long...
 
Facy schrieb:
Thema verfehlt, 6, setzen.
Mir ging es nicht um die globale Erwärmung sondern viel mehr um die generelle Abwärme die die Dinger produzieren
Und Hitzköpfe gibt es nicht erst seit Vega, ich sag nur 290X usw...
Ich nutze AMD Produkte seit Jahrzehnten und bin froh wenn David gegen Goliath gewinnt aber ich bin auch realistisch und sehe den Tatsachen bzw Fakten in den Augen anstatt mir meine rosa Welt aufzubauen, sorry

Ich will dir ja nicht zu nahe treten, aberich finde das ein bisschen witzig wenn ich mir da mal die Ecktaten von deinen System so durch lesen. Den ohne OC braucht das ganze auch weniger Strom und gibt auch weniger Wärme ab. Da hättest auch was einsparen können.
Noch für alle die zwei Monitore nutzen, einer braucht auch weniger als zwei.

Ich denke aber das es mehr bringt wenn man sich mal überlegt wie viele Lampen zu Hause zur gleichen Zeit brennen und ob die alle an sein müssen. Wie viele Geräte man hat.
 
@Vega Verbrauchsdiskussion. Ich habe bei unterschiedlichen PT Einstellungen die Werte in HWinfo mit meinen Werten @ Wall verglichen und komme immer auf ungefähr den Faktor 1,36, also ungefähr 36% mehr als man in GPUz oder HWInfo angezeigt bekommt. Das deckt sich auch mit den Verbrauchswerten auf CB. Übrigens kann man durch Feintuning auf 300W @ Wall (Standardeinstellung/Balanced) > 10% mehr Leistung rausholen und bei 20% weniger Leistungsaufnahme immer noch 3% mehr Leistung. (Immer im Vergleich mit den Benchmark Werten auf Guru3D, meine Vega ist @ Stock schon wegen dem Morpheus schneller, weil das Temp Limit wegfällt)

Ausserdem hat man mit FRTC und Chill meistens eh einen viel niedrigen Verbrauch. Das hängt natürlich vom Spiel ab.

Ich hätte echt Bock mir die VII zu kaufen, nur um zu sehen, wie viel man sie tunen kann.
 
  • Gefällt mir
Reaktionen: Iscaran und SVΞN
Da hier aktuell so viel über die Leistungsaufnahme gestritten wird (ich nehme mal an hier sind keine Elektroniker beteiligt) und dabei schnöde Software-Messungen irgendwelcher Tools oder selbst auch die CB Messungen herangezogen werden, möchte ich auf einen Artikel von Igor's Lab (Toms Hardware.de) hinweisen.

In diesem Artikel ging primär um die Abschaltung von Seasonic Netzteilen, (Angeblich) ausgelöst durch zu hohe Stromaufnahme (Peaks/Spitzen) seitens AMD Vega Karten.

Diese Peaks (kleiner 20ms) führen dazu, dass eine Software-Messung falsche Ergebnisse ausspuckt, weil die Leistungsaufnahme nicht im ms-Bereicht ausgewertet wird, sonder in viel längeren Abständen. Dabei werden immer die Höchstwerte festgehalten.

Wird also -z.B.- bei einer Software-Messung pro Messintervall nur einmal 300W gemessen, sei es auch nur 20ms von einer ganzen Sekunde (1000ms) gibt die Software 300W aus, selbst wenn die restlichen 980ms lediglich 100W anliegen würden.
So krass ist es natürlich nicht, aber Igor kommt selbst im Stresstest aus eine durchschnittliche Leistungsaufnahme von 250W, also ein Verbrauch von 250Wh (0,25kWh) wenn der Stresstest eine Stunde laufen würde.

Da AMD höhere Peaks zulässt als nVidia, fallen dann auch die Leistungsaufnahmewerte teil sehr hoch aus. So dramatisch ist es aber dann doch nicht.
So benötigt eine Vega 64 etwa genausoviel Strom wie eine 1080Ti, das ist klar weniger effizient, aber eben nicht so dramatisch wie es immer kolportiert wird ;)

Vergleicht mal Seite 2 und 3
https://www.tomshw.de/2018/12/01/de...hme-und-lastspitzen-entmystifiziert-igorslab/
 
  • Gefällt mir
Reaktionen: .Snoopy., stevefrogs, Balikon und 20 andere
Hopsekäse schrieb:
Das macht dann grob eine 1080Ti von AMD. Release: März 2017

Hopsekäse schrieb:
Um wie im ersten Post des Threads stehend auf ein halbes Jahr Rückstand zu kommen, muss man mMn schon echt einiges ausblenden. Für mich sind das knapp 2 Jahre Rückstand.

Wenn AMD nun also eine moderne 7nm VEGA 20 bringt, die sich [vermeintlich] sowohl vom Preis, als auch von der Leistung her auf dem Niveau der RTX 2080 bewegt, muss man schon eine extrem grüne Fanboy Brille tragen, um von 2 Jahren Rückstand zu sprechen.

Abgesehen davon gehe ich davon aus, dass AMD die Radeon VII auf oder sogar leicht unter dem Preis der RTX 2080 platzieren wird.
 
  • Gefällt mir
Reaktionen: Iscaran und Sennox
Zurück
Oben