News AMD-Grafikkarten: 8-GB-Gerüchte zum Hawaii-Rebrand und erster Fiji-Teaser

HardStyler3 schrieb:
das referenzmodell der r9 290 hat nähmlich mehr strom verbraucht.

und was meinst du mit sweetspotbereich?

GTX 970 fullload 180-190W

R9 290 fullload 210-220W

Dieses ewige Geblubber, dass die Referenz 290 so massiv mehr verbraucht hätte als die Partnerkarten... Zeig mir doch endlich mal einen einen Test, wo man das sieht. Alle Tests, die ich kenne, sagen genau das Gegenteil, nämlich dass die Partner-Karten, gerade die mit OC, gleich viel oder mehr verbrauchen.

Der 970er Chip hat einen Bereich, in dem er sehr effizient arbeitet. Das ist der Sweetspot, den auch Nvidia so für den Chip angedacht hatte. Die Boardpartner feilen daran aber über die Standard-Einstellung und die erlaubten Werte für das Power-Target. Die Streuung ist über viele Custom-Modelle der 970 deutlich größer als die 10W, die deine Zahlen suggerieren.

HardStyler3 schrieb:

Die sind auch unverschämt praxisfern. Wenn sich das System nur bei der Grafikkarte unterscheidet, dann wird am Ende gemessen. Da ist es mir auch vollkommen egal, ob dann ein noch höherer Verbrauch entsteht, weil schlechte Treiber die CPU mehr belasten oder ob da schwarze Magie oder sonst etwas am Werk ist. Was am Ende rauskommt, wenn man nur die Grafikkarte wechselt, ist entscheidend.
 
Zuletzt bearbeitet:
Ja schau doch mal die links die ich gerade gepostet habe an

Ja du hast wirklich recht die referenz ist soinetwa auf dem gleichen niveau wie die customs sorry^^

Ja die GTX 970 boostet sich halt hoch und wenn man im Sweetspot bleiben würde dann würde die Karte ja weniger Leistung abliefern^^
 
HardStyler3 schrieb:
Ja schau doch mal die links die ich gerade gepostet habe an

Ja du hast wirklich recht die referenz ist soinetwa auf dem gleichen niveau wie die customs sorry^^

Ja die GTX 970 boostet sich halt hoch und wenn man im Sweetspot bleiben würde dann würde die Karte ja weniger Leistung abliefern^^

Und das ist sie in JEDEM mir bekannten Test. Und die OC-Varianten liegen dann meistens auch noch ein gutes Stück drüber. Gerade die beliebten Vapor-X OC und Sapphire Tri-X OC. Trotzdem kommt ständig irgendwer an und will jede AMD-Verbrauchsmessung, vollkommen egal wie die entstanden ist, noch mit dem ewigen Custom-Argument nach unten drücken. Und manche behaupten gar noch, dass der Unterschied gegen 0 geht, weil sie wild hier etwas drauf packen und da etwas abziehen und am Ende eine Traumwelt raus kommt.

Und NEIN. "Die GTX 970" liegt mit Referenz und Boost-Takt in dem Sweetspot. Das ist das Referenz-Power-Target. Das hat erstmal nichts mit dem Boost-Takt zu tun. Damit werden auch die Leistungswerte in den meisten 970-Tests erreicht. Alles was mehr verbraucht und mehr Leistung bringt, ist ein Custom-OC-Modell mit angehobenem Power-Target. Da muss man in den Tests schon gucken mit welchen Settings die 970 getestet wurde.
 
nik_ schrieb:
@Lumi, warum ist die gtx970 bitte nen speicherkrüppel. im endeffekt besitzt sie 4gb vram (aber nur 3,5gb sind mit max. bandbreite angeschlossen).
dann definier mal krüppel. ein krüppel hat z.b. auch 2 beine, muss aber trotzdem humpeln...

und die 3,5 gb bzw 4 gb sind schnell erreicht. mach ich locker und lässig in jedem neueren game.


@ATI/AMD/Topic: nicht labern - liefern !
 
Immer dieses schlechtgerede von AMD und deren Treibern... In den letzten Jahren hat sich AMD da enorm ins Zeug gelegt und implimentiert auch wirklich mal neue Funktionen. man kümmert sich auch sehr stark um die Leistungsoptimierung. Wenn man mal schaut, was sich da so über die Zeit entwickelt ist es echt erstaunlich. Von der Stabilität her nimmt sich da auch nichts zu den Nvidia Treibern. Und es ist ja nicht gerade so, dass Nvidia nicht Scheiße baut. Ich erinnere gerne mal an den WHQL Treiber 196.75, der reihenweise Grafikkarten den Hitzetod sterben lassen hat oder andere Treiber die im Zusammenhang mit manchen Spiele für Instand Systemcrashes sorgten.


Und nein, ich bin kein AMD Fanboy und habe zur Zeit selbst eine GTX780ti Matrix (weil ich gerne übertakte)... AMD hat in meinen Augen schon Vorteile. Man bekommt nicht bis zur Unkenntlichkeit verstümmelte Chips, die man durch einsparen von Features, kleinen Speicherinterfaces und wenig Speicher zu Tode "optimiert". Ne 980 mit dem selben Interface und den selben Funktionen / Leistung wäre auch nicht sparsammer als eine 290x. Man bekommt ehrliche Karten mit einer brachialen Rohleistung. Man kann sich zudem langfristig auf weitere Optimierungen freuen und bekommt eine Zukunftsorientirte Karte, die nicht ein Jahr nach Release an zu wenig Speicher krankt und auch mehr berechnen kann, als nur Spiele. Durch Freie Bibliotheken wie Freesync, TressFX und co. sind sie zudem ziemlich symphatisch. Dazu bemüht man sich die vorhandene Hardware optimal zu nutzen. Das gesmte Paket bekommt man dann auch noch zu einem super Preis.

Bei Nvidia bekommt man aktuell entweder zu tode beschnittene Karten, die alles andere als Zukunftsorientiert designt sind und nur durch einschränkungen Effizient arbeiten (ein wenig OC und der verbrauch explodiert). Diese Karten werden dann auch gerne mal mit Lügen beworben (was in meinen Augen ein massiver Vertrauensbruch ist!) Oder man bekommt teure Exoten wie die Titan X, die auch nur durch das reine aufpumpen der Recheneinheiten so stark ist und dann verlangt man dafür Mondpreise. Einfache Faire Karten haben sie kaum im Angebot. Das war auch mal anders.... GTX460, 8800GT und co. lassen grüßen. Dazu arrogante Geschäftsstrategien und Außendarstellung.

Nvidia wird für mich leider immer unattraktiver. Die Karten sagen mir nicht sonderlich zu und deren marketing auch nicht. Und das, obwohl ich die letzten jahre immer Nvidia Kunde war. Mich reizt da AMD wirklich mehr. man bekommt für sein geld ein solides, durchdachtes Produkt und kein typisches Produkt unserer Wegwerfgesellschaft.
 
Chris_S04 schrieb:
Und auch oft das Argument "Wenn dann mal..." das kommt einfach zu oft und schon zu lange. Bei Bulldozer heißt es immer "Wenn die Programme mal vernünftig auf Multi-Threading ausgelegt sind", sind manche und trotzdem arbeitet Intel schneller und effizienter. "Wenn GPGPU zum Einsatz kommt

Dazu muss man aber sagen, AMD hat bisher vieles getan damit Compute Shader endlich in den Fokus kommt. DX11 unterstützt bereits Compute Shader, wurde aber so gut wie nie eingesetzt.
Bei Konsolen wird man aber auf Compute-Shader setzten müssen um bessere Grafik rauszukitzeln. Bei Konsolen gibt es ein Optimierungsbedarf und diese Erfahrungen werden sich dann in PC Spielen wieder zeigen. Desweiteren haben wir jetzt low Level API die Compute Shader und mehrere Threads, ACE ect unterstützten.
Somit sind wir diesen Phrasen nähergekommen. DX12 dürfte interessant werden und interessant dürfte es auch sein, wie sich dann ein FX 8350 vs einem IB i5 verhält. Weitere Bulldozer FX wurden ja bekanntlich zu Gunsten von Zen gestrichen.
Ergänzung ()

max_1234 schrieb:
Glaskugel für die 390X Meckerei:
- Kann man nicht an eine vorhandene WaKü anschließen
- Viel zu kurz
- Plastikbauteile
- Kein Platz für den Radiator
- Verbraucht zuviel wenn Rechner ausgeschaltet

Den letzten Punkt verstehe ich nicht ganz. Aber das ist auch so etwas, was in Benchmarks so gut wie nie erwähnt wird, nämlich Zero-Core.
Sobald die Monitore sich abschalten und der PC ins idle geht, verbraucht eine AMD Grafka sogut wie nichts (gegen 0).

Shoryuken94
Wieso AMD bei Treiber zulegen konnte ist einfach zu begründen. VLIW benötigt weit aus mehr Treiber Optimierungen als GCN. VLIW war meist Schuld, wieso die Treiber bei NV bei manchen Spielen besser waren. Trotzdem konnte ich bei meiner 3870, 5770, 6870 nicht über Treiber Probleme meckern.
 
Zuletzt bearbeitet:
fanatiXalpha

Das ist mir schon klar, er schrieb ja auch : "Glaskugel für die 390X Meckerei:". Aber genau bei dem Punkt liegt AMD vorne. Gäbe es Zero-Core auch bei NV, dann wäre es in jedem Thread erwähnt.
Ich gehöre zwar nicht zu den Leuten, die im Hintergrund Programme laufen lassen und drehe meist den PC ab, aber es gibt genug Leute, die den PC im Idle laufen lassen. Und wenn der PC dann mal 12 Std im Idle lauft, oder länger, macht das auch schon was aus. Aber das interessiert keinem, wieso auch, weil es genauso lächerlich ist, wie die paar Std, die man die GPU im Gamen überhaupt auslastet.
 
um gottes willen!!! angesichts dieser news und forumsbeiträge frage ich mich wie man je mit 1GB oder weniger speicher in fullhd spielen konnte?!

das ist ja quasi ein weltuntergang mit ansage wenn die graka heute weniger als 8gb vram hat....

und nein, es ist nicht egal welchen verbrauch und tdp/wärementwicklung eine graka hinlegt...das ist bullsh** der nur von technisch rücksichtslosen idioten verbreitet wird...(das ist bewusst so hart formuliert!)
einen gewissen grad an effizienz kann man bei einem so hoch entwickeltem stück hardware schon erwarten, denn wenn ich vorne ein kleines kohlekraftwerk reinstecken muss um hinten bei UHD 30fps+ zu haben, so ist das nicht akzeptabel... (das mag jetzt überspitzt sein, aber es soll ja ein bild zeichnen...)


ps: wer spuren von ironie/sarkasmus findet, kann sie behalten...
 
Zuletzt bearbeitet:
Hm, hab ich nicht neulich wo gelesen, daß ein höherer Speichertakt so gut wie nix bringt bei der 290 (x), im Zusammenhang mit HBM?

Vielleicht verwechesle ich da auch was...
 
nein, das ist eigentlich korrekt
Hawaii profitiert nicht sooo sehr von höherem Speichertakt
absolut gesehen zumindest

manche Spiele können dennoch recht gut darauf ansprechen
man kann das halt nicht schwarz weiß sehen
zudem musst dann Performancegewinn in Relation zu Taktsteigerung und Verbrauchssteigerung setzen
und dann sieht man erst wirklich bzw. kann sich entscheiden ob es sich lohnt

ich würde pauschal mal sagen: mehr als 1400MHz brauch man nicht

HBM hat aber noch andere Vorteile, die ich jetzt hier nicht betrachtet habe
 
Zuletzt bearbeitet:
@Garbel

wenn man der GPU mehr TDP geben kann durch hbm steigt da die Leistung und dadurch kann es sein, dass die 290 mehr Speicherbandbreite nutzen kann. Oder der verbrauch sinkt bei gleicher leistung um 20-30 W was durch aus ok wäre für ein rebrand. Zusammen mit dem Spannungsversorgungsverbesserungen von Carrizo könnte amd wohl etwas noch mehr einsparen, auch wenn es bei der 380 sonnst bei hawaii bleiben würde.
 
Krautmaster schrieb:
Wer hat denn Tests zur VRam Leistungsaufnahme? Man liest hier 80W, 110W... Und die GTX 970 soll der Chip dann 60W brauchen oder was?!

GTX 680MX mit 4GB hat max Aufnahme von 120W. Dann muss ja der Chip mit 20W ziemlich effizient sein.
 
garbel schrieb:
Hm, hab ich nicht neulich wo gelesen, daß ein höherer Speichertakt so gut wie nix bringt bei der 290 (x), im Zusammenhang mit HBM?

Vielleicht verwechesle ich da auch was...

Das war dieser nonsens Test von CB und siehe da schon wird aus so was Fakten gemacht :D Da Sage noch einer CB wäre nicht NV Optimiert :p

Der Test sagte nur aus dass ein Höherer Tackt des GDDR5 RAMs "wenig" bringt 7% ca. aber erstens hat HBM glaube in v1 600Gb/s nicht 4XXGB/s wie der Test und auch die Latenz usw. ist bei HBM viel besser. Zudem ist HBM ganz anders mit dem GPU Verbunden uvm. dieser "Test" ist ergo Quatsch. War in meinen Augen Flamen von CB gegen AMD und sonst nichts!

mfg
 
Was hier schon wieder einige für Probleme haben:TDP am besten unter 200 W, nur umgelabelt,blablabla.
Mehr Leistung bei gleicher TDP ist doch Effizienzsteigerung und warum sollten sie die 290(X) nicht umlabeln,ist doch nach wie vor ne taugliche Karte,wandert nur halt in den Midrangesektor.Haltet doch mal die Füße still bis was konkretes da ist!
 
Vermutlich werden die wenigstens die 8Gb Speicher der R380 / 380x brauchen, aber wenn AMD mehr Speicher abnimmt bekommen sie evtl mehr Rabatt und der Preis der KArten wird nur wenig höher oder sogar gleich der derzeitigen sehr gering angebotenen 8Gb Versionen sein.
Und mit 8Gb hat man ein super Marketinginstument für den Casual Gamer in der Hand wenn man mit der 970 und 980 vergleicht.
Das sie höher Takten mag nicht nötig sein da man die derzeitigen Karten auch so hoch Takten kann , aber viele vergessen hier immer das so ein umlabeln trotz allem meist dann auf einem leicht optimierten Chip passiert und somit man den erhöhten Takt bekommt und er dann den neuen Sweet Spot beschreibt, also mehr Takt bei selben oder sogar weniger Verbauch.
Könnte auch sein das man hier dann beim Übertakten noch mehr Spielraum hat um 50 MHZ oder der Verbauch erst weiter oben extrem ansteigt.

Somit ist umlabeln für mich ok solange der Preis und Leistung stimmt .
Ünd wenn AMD bei der 280 und 280x wirklich sofort mit 8GB einsteigt besteht die Hoffnung das sie damit in der Mittel/Einstiegsklasse bei Tonga (Vermutung) 270 / 270x 4GB Vram als standard etablieren.

Das Problem das ich derzeit sehe mit dem umlabeln bei Amd als auch der letzten Maxwell ist das mit Windows 10 eben DX12 vor der Türe steht und man hier quasi nicht volle Unterstütztung bei einem Kauf bekommt.
Und wie man den Kunden Marketingtechnisch die 390er verkaufen will sollten diese wirklich nur 4GB haben bin ich auch gespannt.Somit legt das fast nahe das trotz Problemen die 390 auch fast nur mit 8Gb vom Start weg kommen MUSS !
 
Zuletzt bearbeitet:
C4rp3di3m schrieb:
Das war dieser nonsens Test von CB und siehe da schon wird aus so was Fakten gemacht :D Da Sage noch einer CB wäre nicht NV Optimiert :p

Der Test sagte nur aus dass ein Höherer Tackt des GDDR5 RAMs "wenig" bringt 7% ca. aber erstens hat HBM glaube in v1 600Gb/s nicht 4XXGB/s wie der Test und auch die Latenz usw. ist bei HBM viel besser. Zudem ist HBM ganz anders mit dem GPU Verbunden uvm. dieser "Test" ist ergo Quatsch. War in meinen Augen Flamen von CB gegen AMD und sonst nichts!

mfg

Nein, ich meine das in Bezug auf die 380(x), da dürfte doch der um 500 Mhz angehobene Speichertakt nicht viel was bringen, oder?
 
Tom_1 schrieb:
Bringt einem genau nichts ohne einen anständigen Treiber. (siehe project cars)
Das schreckt mich als Neukunden eigentlich nur ab!

Ja, das macht bei AMD derzeit keinen richtigen Spaß. Ich hätte gerne kürzere Release-Zyklen und endlich auch die Features drin, die sie schon lange versprochen hatten (Downsampling 2.0, Freesync & Crossfire).

pipip schrieb:
Die Verbrauchswerte sind aktuell einfach nur ein Argument, den viele treffen, weil man eben einen Grund benötigt.
Wird sich ändern, sobald Games mehr und mehr Compute Shader also GPGPU nützten, weil dann verschlechtert sich die Effizienz der Maxwell erkennbar.

Da bin ich auch sehr gespannt, vor allem wie sich die 970/980er Karten schlagen, die nur mit 2x6pin Stromversorgung ausgestattet sind. Die könnten recht schnell durch ihr PowerTarget gebremst werden.
 
Zurück
Oben