News Erste Lebenszeichen von AMDs Fiji-Grafikkarte

nur ein Mensch schrieb:
Leider.
Somit ist die Karte für mich persönlich genauso überflüssig, wie die Nvidia GTX9xx Reihe. Solange meine Radeon 7950 lebt, reizen mich die neuen Karten nicht, aufgrund meiner derzeitigen Spieleauswahl.
Sehe ich ähnlich, das Marketing von Nvidia ist genial das muss man denen lassen. Habe auch eine 7950 Boost im Rechner und spiele aktuell Supraball , ein Standalone Mod auf UT2k4 Basis ( http://supraball.net/de/ ).

Das Teil könnte ich mit dem Onboardchip meines Notebooks daddeln...dafür bräuchte ich meinen Hauptrechner nicht mal hochfahren. ( Geschweige denn so eine Karte ) ;)
 
JiJiB! schrieb:
Wenn man ehrlich ist, muss man zugeben dass AMD ihre Karten weniger beschneidet in der GPGPU Abteilung, sie verwenden ein größeres Speicherinterface und manchmal auch mehr Speicher (16 Chips bei der AMD 290X, 8 bei der GTX 980). Zudem packen sie die Transistoren dichter, was auch nicht förderlich ist.

Nvidia kocht auch nur mit Wasser...

Um da zu umgehen, schaut man sich einfach das an, was wirklich interessant ist. Die Leistung, die man für die reingesteckte Energie am Ende rausbekommt. Wenn man nun gaaaaanz gro Rechnet, die Reine Compute Performance in Flops und der Aufgewendeten Energie Anhand des TDPs nimmt (was im Durchschnitt mehr oder weniger sogar hinkommt, da es kaum etwas Energieuneffizienteres als einen Computerchip gibt), dann sieht kann, dass eine R9 290x ca 22GFlops pro 1 Watt leistet und eine 980 bereits über 30.

Natürlich kann man jetzt verschiedene Anwendungen betrachten, aber das lasse ich mal außen vor. Fast überall kann Nvidia bei gleichem Energieaufwand mehr leistung generieren. Und fairerweise muss man auch sagen, dass Nvidia dafür andere Energiefresser hat, zum Beispiel eine deutlich höhere Transistorenzahl. 7,1 vs 6,2Mrd (780ti / Titan Black vs 290x), was alles andere als dem Energieverbrauch zugute kommt. Sie verwenden zwar zum teil weniger Chips, dafür sind diese höher getaktet. Auf beiden Seiten werden Kopromisse gemacht, um die Karten möglichst effizient und günstig herzustellen und trotzdem das angestrebte ziel zu erreichen.

AMD kann ja mit der 390x beweisen, dass sie auch technologisch auf augenhöhe mit Nvidia sind, wenn der Chip sich dann gegen den Maxwell Vollausbau behaupten kann. Das die 390x die kleine 980 hinter sich lässt wird sich zeigen, Aber ob man sich dass mit einem extremen Stomverbrauch erkauft oder durch eine ausgeklügelte Architektur, wird sich zeigen
 
Hoffentlich gibts diesmal nen gescheiten Referenzkühler.
Vielleicht setzt AMD sich ja mal mit Arctic Cooling zusammen und entwickelt was vernünftiges.
Nen angeapssten schmaleren Accelero Xtreme z.b. mit dem die Grafikkarte nur 2 Slots breit ist als Referenzkühler fände ich mal was feines.

Aber vermutlich wirds wie in der Vergangenheit nur diese bescheuerten lauten Radiallüfter geben.

Und hoffentlich gibts diesmal vom Start weg direkt R9 390(X) Partnerkarten und nicht erst Monatelang nur das blöde Referenzdesign.
 
Oh man, wieviele hier mal das Märchenbuch zuklappen sollten. Ist schon ne wucht hier was einige für ne Vorstellung haben. Wartet ab bis es vernünftige Infos gibt und nicht: Bla Bla Bla GTX 980 ist erledigt, und Bla Bla Bla Ubisoftspiele zählen nicht, und Bla Bla Bla AMD ist ja so toll Bla Bla Bla.

Wartet ab bis es was Handfestes gibt. Alles andere sind Hirngespinnste.

Fakt ist: bringen AMD ihre Karten wieder als Vollschrott ohne Customdesigns auf den Markt, werden sie wieder in der Luft zerrissen wie die 290X bei ihrem Erscheinen.
 
Zuletzt bearbeitet von einem Moderator:
Apple hat die Produktion mit kleineren Strukturen schon komplett ausgelastet.

Darum ist ja schon seit Monaten bekannt, dass "neue" Karten im nächsten Jahr nur optimierte Karten sein werden.
Was ja auch ganz gut ist, wenn effizienter mit vorhandener Technik umgegangen wird. nvidia hats beim Stromverbrauch ja schon eindrucksvoll gezeigt.
 
TheWalle82 schrieb:
1. Ist das mit dem weniger an benötigter Leistung nicht wegen Öko oder Geldbbeutel interessant sondern wegen weniger Wärme = weniger Lärmbelästigung
Ich befürchte, es wollen viele einfach nicht verstehen, dass es dort einen Zusammenhang gibt. Dann werden Vergleiche mit Starkstromgeräten oder Autos herangezogen, aber beides bevorzuge ich nicht in meinem Wohnzimmer aufzubewahren.

Man darf gespannt sein, welchen Stellenwert die Karten zu Beginn des Jahres 2015 haben werden, denn höchstwahrscheinlich & hoffentlich geht eher ab 2016 mal wieder die Post ab auf dem Grafikkartenmarkt.
 
Rodman schrieb:
Angekündigt für Ende 2013 und wirklich zu kaufen war sie gegen Ende Jan?

Die Karte war eigentlich gleich nach Release zu kaufen. Ich hab meine erste anfang November gekauft.

dante`afk schrieb:
ch seh jetzt schon dass der kuehler genauso laut sein wird wie all seine vorgaenger.

RIP amd.

Sagt jemand der sich ne GTX 970 gekauft hat und offenbar nicht will, dass die 970 zu einer schlechteren Karte degradiert wird.
Wartet doch erstmal ab was kommt und danach könnt ihr eure AMD Todesgesänge abfeiern.

Und wenn es AMD schafft ihre neue Karte über der GTX 980 zu platzieren ist doch alles in Ordnung.
 
Zuletzt bearbeitet:
ampre schrieb:
Was mich auch mal interessieren würde ob diejenigen die sich über den Mehrverbrauch zwecks Umweltschutz beschweren auch bei einem Öko-Stromanbieter sind.

Wozu? Der Strom der ins Haus fließt ist dann der selbe wie vorher. Nur der Preis ist höher. Es wird beim Wechsel niemand vorbeikommen und mich ans nächste Windrad anschließen. Der Strommarkt ist ein virtueller Markt.

ampre schrieb:
Eine Leise Kühlung hängt doch nicht vom Verbrauch sondern hauptsächlich vom Design ab. Würde man die neuen Lüfter und Heatpipes der GTX980 auf die 290x drauf setzen wäre diese auch nicht viel Lauter.

Würde man das tun, könnte alles passieren. Es könnte besser oder schlechter werden oder der Chip könnte durchbrennen. Denn wie du schon richtig sagst kommt es aufs Design an, und vor allem darauf dass man die Kühler auf die Karte abstimmt. Es ist aber in jedem Fall so dass man wenig Abwärme besser wegkühlen kann als viel Abwärme.

Zwirbelkatz schrieb:
Dann werden Vergleiche mit Starkstromgeräten oder Autos herangezogen, aber beides bevorzuge ich nicht in meinem Wohnzimmer aufzubewahren.

Man könnte das ja mit Staubsaugern vergleichen. Die laufen auch nur ein paar Minuten pro Tag auf Volllast und ballern ordentlich Strom durch. Da hat die EU auch schon über Reglementierungen nachgedacht, obwohl 15 Minuten staubsaugen sicherlich auch nicht viel schlimmer sind als 3 Stunden zocken :D. So ganz egal ist der Stromverbrauch wohl doch nicht wenn man mal größere Maßstäbe ansetzt.
 
Zuletzt bearbeitet:
SaarL schrieb:
@ Waro245

Ich behaupte es genau andersrum:
(fast) NIEMAND interessiert, dass es dadurch 1 Sone leiser von statten gehen könnte (wobei ja unterschiedliche Kühlsysteme und daher keine "richtige" Aussage darüber machbar ob 70W nun zu 1 Sone oder 3Sone Unteschied führen würden).
Übertakten tun sowieso nur die "Cracks", von daher: der Laie hört "die verbraucht weniger" und denkt "geil, dadurch werd ich Milliardär" ...

Schau doch allein hier im Forum.
10W weniger -> BOah, in 4,53s hab ich den Aufpreis von 232234€ wieder drinne...

Die meisten checken einfach nicht, das der Anschaffungspreis sich erst nach teils Jahrzehnten amortisiert.
Viele Leute denken einfach nicht wirklich nach.

Wer sehr großzügige 20 Stunden pro Woche spielt bei 60 Watt Mehrverbrauch, kommt auf lediglich 10 bis 15 Euro Mehrkosten für Strom im Jahr. Das amortisiert sich nie, wenn die genügsamere Hardware 40 oder 50 Euro teurer ist.
 
Kann mir eigentlich einer erklären, was der Vorteil ist, wenn eine GPU mit 20nm gefertigt wird und was diese 20nm überhaupt angeben? Ich habe das jetzt schon so oft in Foren gehört und frage mich immer wieder, was das ist.
 
DocWindows schrieb:
Wozu? Der Strom der ins Haus fließt ist dann der selbe wie vorher. Nur der Preis ist höher. Es wird beim Wechsel niemand vorbeikommen und mich ans nächste Windrad anschließen. Der Strommarkt ist ein virtueller Markt.


Der Strom ist technisch der gleiche. Es kommt aber darauf an, woher dein Stromanbieter den Strom bezieht. Es wird dich auch niemand an ein Windrad anschließen. Du kannst höchstens den generellen Anteil an Strom aus Windkraft erhöhen, in dem du ihn nachfragst. Es ist also nicht entscheidend, welcher Strom bei dir zuhause ankommt, sondern welcher Strom grundsätzlich generiert wird. Das wiederum steuerst du mit deiner Nachfrage und jeder Strom hat seinen Preis.
Wenn bspw. keine Nachfrage mehr nach Fossilen Energien besteht, wird auch kein fossiler Strom generiert.
Es ist also schon sinnvoll auf Ökostrom umzusteigen, wenn man hinter dieser Idee steht und einen Anbieter wählt, welcher tatsächlich nur Erneuerbare Energien bezieht.
 
Zuletzt bearbeitet:
Manuelezio schrieb:
Kann mir eigentlich einer erklären, was der Vorteil ist, wenn eine GPU mit 20nm gefertigt wird und was diese 20nm überhaupt angeben? Ich habe das jetzt schon so oft in Foren gehört und frage mich immer wieder, was das ist.

Die 20nm (Nanometer) bzw. 28nm ist die Angabe über die Größe der in der GPU verbauten Transistoren.

Wenn in 20 nm gefertigt wird, kann man auf derselben Fläche mehr Transistoren unterbringen als mit z.b. 28nm
Oder man kann die selber Menge Transistoren auf weniger Fläche unterbringen.
Gleichzeitig sinkt bei kleinerer Fertigungsgröße auch der Stromverbrauch und somit die Abwärme, d.h. die Kühlung wird einfacher.

Man könnte z.b. dieselbe Die-Größe wie bei einer R9 290X haben aber da ~ 30% mehr Transistoren draufmachen und so bei selber Abwärme ~30% mehr Leistung haben.
( Die 30% ist nur ein Beispielwert. Wieviel das wirklich sein wird, weiss man erst bei Release).

Oder man könnte dieselbe Leistung wie eine R9 290X mit einem kleineren Chip erreichen, der weniger verbraucht und weniger Abwärme erzeugt.
 
Zuletzt bearbeitet:
zeedy schrieb:
zum Thema: ich finde es interessant, dass AMD verschiedene Kühllösungen testet, ich dachte ja dass die 390er Karten definitiv mit dem Hybridkühler ausgestattet werden.

Es wird sicher der Grund sein, den ich schon damals genannt hatte. Man sieht es ja aktuell bei der 970 und 980 GTX. Da werden auf den meisten Seiten die Referenz-Karten der AMD R9 290X Variante genommen die wie Löwen brüllen. Damit will AMD mit Sicherheit in erster Linie den Ruf verbessern. Außerdem kann man so anfangs leichter/besser Karten verkaufen bis Dritte ihre eigenen PCB und Kühllösungen auf den Markt bringen.

@20nm
Fall es wirklich 20nm sein wird, dann wird es wohl bei GF und nicht TSMC gefertigt werden, besonders weil man bei FAB8 das passende Werkzeug für HBM hätte, was seit letzten Jahr April 2014 bereits für den Prozess bereitsteht. Das würde eventuell auch erklären, wieso erst 2015.
Falls 20nm & HBM, wird NV nicht viel Kontern können, wenn sie erst 2016 16nm und HBM mit Pascal bei TSMC fertigen könnten.
Vllt ist es aber auch nur 28nm HBM, oder nur 28nm. Aber offizielle Angaben habe ich bis jetzt noch nicht gelesen, würde mich also interessieren wieso manche schon wissen dass es 28nm ist.

http://www.globalfoundries.com/news...to-enable-3d-chip-stacking-at-20nm-and-beyond
Okay, dann habe ich mich geirrt, der Prozess funktioniert bei GF scheinbar bereits ab 32/28nm.
 
Zuletzt bearbeitet:
Also ich kann dir keine wissenschaftlich fundierte Aussage dazu machen, aber ich hab das bis jetzt immer so verstanden.

Die Angaben wie 65/45/28/22 nm usw. geben an in welcher Größe die verwendeten Schaltkreise auf den Chips vorhanden sind. Umso kleiner, umso mehr kriegt man auf die selbe Fläche. Auch steigt der mögliche Takt bei keiner weiteren Änderung. Die Spannung für den Chip sinkt weiter ---> höhere Effizienz und weniger Verbrauch. Und die Herstellungskosten sinken für die Chips.

Braucht aber sehr viel Forschung um die nächst kleinere Stufe zu erreichen. Zudem sind das keine reelen Größen. Intels neuer Broadwell M(glaube 14 nm warens) Hatte in Elektronenrastermikroskop ne tatsächliche Strukturbreite von ~54nm. Also sind das Marketingwerte ^^


Bei Irrtum korrigiert mich gerne.


Grundsätzlich find ich AMD`s Karten für den Massenmarkt besser geeignet. Meist waren sie wesentlich erschwinglicher als die Nvidia Karten bei gleicher/besserer Leistung. Dafür waren sie halt lauter/Stromhungriger. Custom Designs machen das ganze gut wieder weg, worauf hin Nvidia`s Vorteil dann in Patenten wie GSync, PhysiX, Cuda, usw... liegt. Zudem skaliert AMD bei höheren Auflösungen besser als Nvidia, besonders als nutzer eines Trippe Monitor Setups, ein wichtiger Kaufgrund. Durch den harten Marktkampf zurzeit, ist das aktuell nciht mehr so der Fall, da liegen die gleich auf, und wechseln sich von Generation zu Generation immer wieder ab. Aber das Nvidia grundsätzlich AMD voraus wäre, stimme ich nicht zu.
 
Zuletzt bearbeitet:
Seppuku schrieb:
Bin mal gespannt, ob es wenigstens 2015 mal ein Hersteller schafft, den idle Verbrauch auch bei der Verwendung von 3 Monitoren niedrig zu halten. Es kann ja nicht sein, dass es im Jahr 2014 zwischen einem und drei Monitore im idle (!) Unterschiede von bis zu 50 Watt gibt. Das verbrauchen andere Karten unter Volllast...

Ich hoffe du hast auch alle 3 Monitore via Displayport verbunden?
Ansonsten muss der Taktgeber der DVI/HDMI ports zu viel arbeiten und die Graka kann nicht in den Idle modus!
 
jomaster
Die nm geben den Gate-Abstand an und man nimmt zum Vergleich meist einen Bulk Prozess (der wurde ja bis 32nm bei Intel immer verwendet. AMD hat mit IBM SoI gefördert). So hat NV zum Beispiel einen 22nm FinFet Prozess, der zwar einen Gate-Abstand von 22nm hat, aber die Transistor selbst sind im Endeffekt von der Größe vergleichbar mit einem 26nm Bulk Prozess. GF fertigt aktuell einen 28nm Bulk Prozess, den auch AMD für Kaveri und Beema nützt.
Es wird noch wesentlich komplizierter mit der Bezeichnung.

Die Spannung für den Chip sinkt weiter ---> höhere Effizienz und weniger Verbrauch. Und die Herstellungskosten sinken für die Chips.
Dafür hat man mehr Leckströme die vor 10 Jahren nicht einmal berücksichtigen musste.
Der Herstellungskosten werden nicht geringer. Man braucht mehr Prozess, teuere Geräte (Belichtung) ect.
Dafür kann man aber auf einem Wafer mehrere Chips fertigen lassen. Das Problem aktuell, dass die Wafer noch 300mm groß sind. Damit die Chips wieder deutlich günstiger werden, möchte man seit Jahren bereits 450 mm Wafer einführen, was aber ebenso sehr kostspielig ist.


R9 290X 8GB

Es ist irwie total unklar, was Fijii eigentlich ist. Ich frage mich gerade, ob es ein Hawaii Nachfolger oder ein Tahiti Nachfolger ist. Falls es ein Hawaii Nachfolger ist, wird die karte sich wie Hawaii eher gegen den größeren NV Chip stellen und nicht gegen die 970 und 980 GTX. Dann wäre es nachvollziehbar, wieso jetzt 8 GB R9 290 Karten auf den Markt kommen, weil der Performance Chip bei AMD momentan fehlen würde.

Tonga XT könnte bei passenden Takt und 4gb sicherlich bei der R9 290 landen. aber es würde dann immer noch eine GPU dazwischen fehlen.
 
Zuletzt bearbeitet:
Zurück
Oben