News R9 Nano: AMD bringt Fiji-Vollausbau auf 15 cm mit 175 Watt

naja das gleiche nicht gerade. Imho ist das eine mit logischem Verstand erklärbar, kaum einer wird aber 40+ dir den Unterschied zwischen einem baugleichen HDMI 1.4 und 2.0 sagen können ;)

Klar, das HDMI 2.0 Thema is überbewertet aber wenn sonst kaum Unterschiede da sind, wie z.B. bei der Fury X vs 980 TI, dann fällt und steht der Kauf eben an diesen Kleinigkeiten. Anstelle sich zu fragen "Was kann die grüne Karte was ich eh nicht brauche" sollte man öfters mal überlegen welche Vorteile die rote Karte hat. Bisher war und ist das oftmals P/L bei L = Gaming Leistung. Das trifft bei den Fury aber bisher nicht zu, im Gegenteil.

Die Nano ist da aufgrund der Größe noch am interessantesten (für einige), wenn gleich deutlich zu teuer und mit vermutlich dennoch schlechterer Marge. Die Nano bedient wenigstens einen kleinen Markt der noch nahezu konkurrenzlos ist was Leistung / Kartenlänge angeht. Das ist ihr Trumpf. Das wars dann aber auch
 
Zuletzt bearbeitet:
Krautmaster schrieb:
naja das gleiche nicht gerade. Imho ist das eine mit logischem Verstand erklärbar, kaum einer wird aber 40+ dir den Unterschied zwischen einem baugleichen HDMI 1.4 und 2.0 sagen können ;)

Ach und Du glaubst wirklich das User unter das 40 besser erklären können und verstehen, weil sie jünger sind, halte ich aber für ein Gerücht. Das hat doch nichts mit dem Alter zu tun, vielmehr wie sehr man interessiert ist, bestimmte Dinge und Abläufe zu verstehen. :rolleyes:
 
es ging mir einfach darum dass der Vergleich von Wadenbeisser schon etwas hinkt, kein normal denkender Mensch auf die Idee kommen würde Katze -> Mikrowelle. Der Unterschied HDMI 1.4 zu 2.0 is schon "etwas" undurchsichtiger für den Großteil der Bevölkerung. Lass das 40+ weg und nimm die Gruppe der Bevölkerung die sich nicht auf CB rumtreibt, fertig.

Klar dar sein Vergleich überspitzt und klar wird kaum jemand wegen den HDMI 1.4 in die Röhe schauen, aber man kann nicht erwarten dass sich da jeder Käufer schlau drüber macht. Die meisten werden HDMI Lesen und damit muss am 4K TV auch das ankommen was der TV mit HDMI eben kann ;)
 
Ich will nur hoffen, dass AMD eine Nano/Fury X 2016 mit 8GB HBM2 auf gleichem Preisniveau bringen wird, dann wird ein Exemplar mir gehören.

Oder NVIDIA adaptiert AdaptiveSync und ermöglicht die Nutzung des offenen Standards mit Pascal, dann sind sie auch eine Option.
 
SKu schrieb:
Ich will nur hoffen, dass AMD eine Nano/Fury X 2016 mit 8GB HBM2 auf gleichem Preisniveau bringen wird, dann wird ein Exemplar mir gehören.

Oder NVIDIA adaptiert AdaptiveSync und ermöglicht die Nutzung des offenen Standards mit Pascal, dann sind sie auch eine Option.

Also 2016 sind mir die Preise wirklich völlig Rille :D
Wird so oder so gekauft.
AMD wird ja, soweit ich weiß in 14nm und Nvidia in 16nm fertigen lassen.
Das wird dann denke ich interessant werden.
Bin auf die Testberichte gespannt.
Möge der bessere gewinnen.
Wenn AMD mit Nvidia 2016 die selben Leistungen abliefert, wird es bei mir eine AMD, weil ich mit AMD Karten bisher
immer sehr zufrieden war und AMD das Geld gut gebrauchen kann.
Vor allem juckt mich dann aber HBM2 und 8GB fänd ich optimal.
Wenn die schnellste AMD Single GPU 2016 dann 700€ kostet, kaufe ich die trotzdem.
Das gönne ich mir dann, weil man dann eh wieder die nächsten Jahre ruhe hat, denn der nächste Shrink nach 14nm dürfte wohl wieder einige Jahre auf sich warten lassen :D
Hab nur keine Lust auf Wasserkühlung, weil ich schon eine H80 hab.
Ich will also auf jeden Fall eine Luftkühlung sehen.

Also meine Erwartungen für 2016 liegen auf jeden Fall bei mindestens 50% Mehrleistung, dann ist der Kauf sicher.
Mal sehen, was uns bei AMD und Nvidia erwartet.
 
Gibt es bei den CPU's mal eben 50% Mehrleistung nur weil die in 14nm gefertigt werden?
Selbst wenn bei der GPU 50% Mehrleistung drin wären heißt es doch nicht, das die 50% direkt bei uns ankommen. Die würden doch nicht gleich Ihr ganzes Pulver verschießen.
Ich wäre schon über 20% Mehrleistung bei etwas besseren Verbrauch beeindruckt, but time will tell.
 
Ich glaube nicht, dass weder AMD noch NVIDIA direkt zum Start das gesamte Potential abschöpfen. Viel eher gehe ich, so wie Intel es bei den CPUs betreibt, von einem Fokus auf gesteigerte Energieeffizienz aus. Lieber eine Fury X mit 8GB HBM2 und 20% mehr Leistung und einer geringeren TDP als umgekehrt. Zumal die neue Technik wahrscheinlich eh nur im High-End Segment (ab 980ti/Fury) greifen wird und die restlichen Klassen weiterhin mit GDDR5 bedient werden, wenn die Ausbeute gering ausfällt. Zumal dort HBM, außer der geringeren Stromaufnahme, keinen weiteren Vorteil bringen wird, weil die Bandbreite nicht der limitierende Faktor ist. Wenn dort HBM kommt, dann HBM1 und auch nur dann, wenn die Ausbeute entsprechend hoch ausfällt und die Produktionskosten sinken. Immerhin benötigen die Hersteller für den Refresh auch noch genügend Potential, um ein neues besseres Produkt bewerben zu können. Manche gehen auch von 100% Leistungszuwachs aus, aber das ist Wunschdenken. Selbst wenn 100% drin wären, teilt man das eher auf und hat damit noch Spielraum für später. Ein gutes Pferd springt nur so hoch wie es muss, nicht mehr oder wie man in der Technik auch sagt: Nur so gut wie nötig und nicht wie möglich. Mit Fury X + 20% und 175W TDP wäre ich für die erste Runde absolut zufrieden. Dazu 8GB HBM2 und Schicht im Schacht. :)
 
Amd und NV werden beide in 16 nm bei TSMC fertigen lassen. 14nm wird lediglich ZEN von GF sein.
 
issenia schrieb:
Amd und NV werden beide in 16 nm bei TSMC fertigen lassen. 14nm wird lediglich ZEN von GF sein.

Na ja, NVIDIA wird definitiv auch Samsungs 14nm Prozess in Anspruch nehmen. Da ist nur die Frage: dicke GPUs oder Lowpower Chips wie Tegra.

TSMC ist ja auch Hersteller für Apple, MediaTek, Qualcomm, etc. Wobei Qualcomm dieses Mal angeblich komplett zu Samsung gewechselt ist. Ich bin gespannt, auch in Anbetracht dessen, dass Hersteller wir TSMC ihren Großkunden in der Regel eine höhere Priorität zuweisen - wie Apple z.B. -, die wesentlich mehr Chips abnehmen dürften als AMD und Nvidia zusammen.
 
Zuletzt bearbeitet:
oldmanhunting schrieb:
Ich wäre schon über 20% Mehrleistung bei etwas besseren Verbrauch beeindruckt, but time will tell.
Wenns weiter läuft wie bisher, gibts diese 20% bei gleichzeitigem 30% Preissteigerungen.
 
SKu schrieb:
TSMC ist ja auch Hersteller für Apple, MediaTek, Qualcomm, etc. Wobei Qualcomm dieses Mal angeblich komplett zu Samsung gewechselt ist. Ich bin gespannt, auch in Anbetracht dessen, dass Hersteller wir TSMC ihren Großkunden in der Regel eine höhere Priorität zuweisen - wie Apple z.B. -, die wesentlich mehr Chips abnehmen dürften als AMD und Nvidia zusammen.

Die Wafer, die Apple, Qualcomm und co abnehmen interessieren Gott sei dank für die Diskussion nicht. Das sind alles SoCs die werden bei TSMC in den Low-Power Prozessen gefertigt. Die GPUs immer im High-Performance Prozess, der in einer völlig anderen Fab passiert, weil man das nicht mal eben durchtauschen und mal so mal so produzieren kann.

Von daher beeinträchtigt die Abnahmemenge von Apple die Kapazitäten für GPUs nicht wirklich. Das ist auch besser so, sonst hätten wir schon seit Jahren extremen Mangel an Grafikchips und die Preise wären noch schwachsinniger als sie jetzt schon sind. :D Ach wie schön war das zu Gtx 2xx und HD 4xxx Zeiten, als man High-end Grafikkarten noch hinterher geschmissen bekommen hat.
 
20% Mehrleistung?
Wie kommt ihr darauf?
Wir erleben einen Shrink von 28nm auf 16nm.
Wann hatten wir zuletzt nach einem Shrink eine Leistungssteigerung von nur 20%? ^^
Kann mich da ehrlich gesagt nicht dran erinnern!
Um die 50% sind absolut realistisch.
Von 10-20% kann man im zweiten Anlauf ausgehen.
Beim ersten Anlauf sind ca. 50% auf jeden Fall drin :D
Das ist nichts besonderes für einen Shrink.
Den hatten wir zuletzt 2011.

Die HD7970 war rund 40% schneller, als die HD6970 und das war nur ein Shrink von 40 auf 28nm.
Das entspricht einer Verkleinerung von 30%.
Der kommende Shrink von 28 auf 16nm ist nochmals größer mit rund 47%.
Also fast die Hälfte und mit HBM2 und DirectX12.

Ob Nvidia und AMD das Potential ausschöpfen sei mal dahingestellt.
Wenn nicht, müssten sie sich aber Wettbewerbstechnisch absprechen und das ergibt auch keinen Sinn.
AMD kann es sich kaum leisten, absichtlich weniger Leistung aus den Karten zu holen.
Zumal AMD und Nvidia nunmal Konkurrenten sind.
Warum sollte AMD oder Nvidia also nicht alles rausholen?
Dann müssten sie damit rechnen, dass der andere entsprechend schnellere Karten veröffentlicht.
Das halte ich also für eine gewagte Aussage.
Ich denke schon, dass sie versuchen werden, alles rauszuholen, um den anderen zu übertreffen und
ein bis 1,5 Jahre später kommen dann wieder überarbeitete Rebrandings.

Ist jedenfalls meine Prognose.
Bin aber gespannt, wie sich die Nano jetzt so schlägt.
Kann man bei Mindfactory sehen, wie oft die sich verkaufen.
 
Unyu schrieb:
Wenns weiter läuft wie bisher, gibts diese 20% bei gleichzeitigem 30% Preissteigerungen.
Das doch sowieso! Ist aber immer noch ein Unterschied was die verlangen und was ich bereit bin zu zahlen. Bei der CPU sitze ich gerade Skylake mit meinem Ivy aus und bei der GPU wird die 970SSC wohl auch in 2016 noch funktionieren solange ich bei FHD bleibe.
Ende 2016 schaue ich noch einmal, ob ich auf 4K gehe und kaufe aber nur, wenn der Preis im Rahmen ist. Wenn nicht, dann sollen die Ihren Kram behalten.
 
oldmanhunting schrieb:
Gibt es bei den CPU's mal eben 50% Mehrleistung nur weil die in 14nm gefertigt werden?

Nein weil GPU und CPU genau 0 vergleichbar sind. CPU skaliert vom Workset kaum über mehrere Threads was nicht nur an fehlender Optimierung liegt sondern am Anwendungsfall. Bei Grafischen Tätigkeiten kannst du überspitzt jedem Pixel parallel berechnen, deswegen haben GPU heute ja auch quasi bis 4096 Kerne, auch vereinfacht gesprochen. GPU skalieren fast schon linear mit Fertigung und Fläche, ergo sind bei 16nm bis 100% zu erwarten, auch je nach Takt. 28nm auf 16nm ist ein riesiger Sprung. Bei 20nm sind es schon fast Faktor 2, bei echten 16nm mehr.

Edit:

Schau einfach nen 550mm^2 40nm GTX580 an. Wieviel % mehr leistet ein gleich großer Nvidia 28nm Chip?

Edit2: Fertigung wird aber immer teurer und langsamer. Ergo müssen Nvidia und AMD künstlich strecken... Verzögern, kleine chips als high End vermarkten
 
Zuletzt bearbeitet:
GermanGhettos schrieb:
20% Mehrleistung?
Wie kommt ihr darauf?
Wir erleben einen Shrink von 28nm auf 16nm.
Nun, zum einen wird man nicht gleich alle Trümpfe ausspielen und stattdessen noch Luft nach oben haben wollen. Wenn man jetzt alles rausbringt hat man bis zum nächsten Shrink nichts mehr zu bieten. Zudem wird man auch die TDP senken wollen. Gerade AMD hätte dies nötig wenn man sich die Fury X ansieht. Irgendwann ist auch mal eine Grenze erreicht. Ich sehe die bei 250W für eine Single-GPU.

Alles in allem würde ich mal auf 30% Mehrleistung tippen, das war in den letzten Jahren die grobe Steigerung jeder neuen Generation.
 
Der Landvogt schrieb:
Nun, zum einen wird man nicht gleich alle Trümpfe ausspielen und stattdessen noch Luft nach oben haben wollen.

Und warum sollte AMD dann Nvidia einen Vorsprung lassen und absichtlich weniger Leistung zur Verfügung stellen?
Damit niemand die AMD Karten kauft? Komischer Schachzug.
Andersrum das selbe.
Wenn Nvidia absichtlich weniger Leistung bringt und sich "Luft nach oben" lässt, dann kann AMD easy vorbeiziehen.
Wo ist da die Logik?
Die Firmen werden sich doch nichts schenken. :confused_alt:

Der Landvogt schrieb:
Wenn man jetzt alles rausbringt hat man bis zum nächsten Shrink nichts mehr zu bieten. Zudem wird man auch die TDP senken wollen. Gerade AMD hätte dies nötig wenn man sich die Fury X ansieht. Irgendwann ist auch mal eine Grenze erreicht. Ich sehe die bei 250W für eine Single-GPU.

War doch schon immer so!
Schau dir die HD7000 an.
War ein super Wurf und seitdem Rebrandings.
Das ist doch immer das selbe Verfahren.
Erst kommt der Shrink, dann kommen die verbesserten Rebrandings.
Warum sollte das jetzt anders sein?
AMD und Nvidia werden sich nichts "aufheben", sonst müssten sie ja damit rechnen, gegen die Konkurrenz zu verlieren,
was für AMD einfach mal die Pleite sein kann lol.
Das machen die garantiert nicht.
Die TDP kann man bei den Rebrandings durch Optimierung senken, aber das steht heute kaum noch zur Debatte.
Meist geht es ja nur noch um Leistung.
Die Leistungsaufnahme der Fury X finde ich völlig in Ordnung.
Wer natürlich einen Energiesparrechner such, ist mit Gaming soweso falsch beraten.
Mich stört der Stromverbrauch nicht, da ich kein Dauerzocker über mehrere Stunden pro Tag bin und ich die 1-2€ zusätzlich pro Monat
für den Mehrverbrauch ggü. Nvidia aktuell locker über habe. :D
Wenn ich mir anschaue, was andere Leute monatlich für ihre Hobbys ausgeben, ist das hier praktisch nicht existent.

Der Landvogt schrieb:
Alles in allem würde ich mal auf 30% Mehrleistung tippen, das war in den letzten Jahren die grobe Steigerung jeder neuen Generation.

Letztes mal war es eine 40% Steigerung von 40nm auf 28nm.
Sprich HD6970 zu HD7970.
Und der Shrink wird dieses mal noch größer ausfallen, demnach könnte hier auch mehr drin sein, weshalb auch 50% nicht unwahrscheinlich sind.
Sowohl AMD, als auch Nvidia wollen 4K vermarkten. Dafür benötigen sie die entsprechende Leistung, also wird man sicherlich
versuchen wollen, diese auch bereit zu stellen ^^
 
GermanGhettos schrieb:
Und warum sollte AMD dann Nvidia einen Vorsprung lassen und absichtlich weniger Leistung zur Verfügung stellen?
Wer sagt denn, dass einer der beiden direkt in die Vollen geht? Einer wird zuerst eine Karte rausbringen, der andere wird entsprechend reagieren können und das passende Produkt bringen. Vorbereitet werden in der Entwicklung mehrere. Schließlich kann es kein Zufall sein, dass sich beide Hersteller seit über 10 Jahren nicht so extrem viel geben. Die waren nie die ganze Zeit am absoluten Limit, zumindest nicht beide gleichzeitig. Beide Hersteller haben auch mehr Infos als wir hier im Forum, die können die Konkurrenz recht gut einschätzen.
NV hätte GM200 garantiert auch schon vor einem jahr rausbringen können. Die Stückzahl wäre vielleicht kleiner gewesen bzw. die Nachfrage extrem sofern man sie nicht für 1000€ angeboten hätte. Haben sie aber nicht, schließlich hat man AMD auch so locker geschlagen und konnte dieses Jahr wieder was neues bringen.
 
Schnixus schrieb:
Einen "schlechten" Ruf hat AMD nur dadurch, dass es so viele ahnungslose nVidia-Fanboys gibt, die auf Gedeih und Verderb "Ihre" Marke verteidigen, obwohl eine Schweinerei die nächste jagt bzw. pure Abzocke des Kunden seitens Nvidia stattfindet. Meistens haben diese Intelligenzallergiker auch noch reiche Eltern, die bei Bedarf mal kurz nen Tausender für den verwöhnten Jüngling springen lassen, damit man sich nicht um die Erziehung kümmern muss und der Kleine schön mit seiner neuen und völlig überteuerten TitanX den ganzen Tag irgendwelche Games daddelt und keiner Aufmerksamkeit bedarf... Deshalb sind solchen Leuten auch rationale Argumente völlig fremd. Es wird einfach brainafk das Teuerste gekauft, völlig egal, ob man dabei über den Tisch gezogen wird oder nicht, bzw. völlig egal, ob es da evtl. noch einen weiteren Anbieter von GPU's gibt, der seit Jahren mit technisch innovativen Produkten (Hard-/Software) dafür sorgt, dass die Entwicklung nicht stehen bleibt und eigentlich alleine dafür schon honorierend in Erwägung gezogen werden sollte...

Ich bin übrigens Besitzer einer GTX770, also spart Euch das Geflame in Sachen "Wääääh, AMD-Fanboy"... Ich bin ein erwachsener, rational denkender Mensch, der sich bei Neuanschaffungen ganz unvoreingenommen meinen Bedarf anschaut, dann völlig objektiv die in Frage kommenden Produkte näher betrachtet und sich dann schließlich für ein Produkt entscheidet. Es wäre doch völlig bescheuert von mir, aus reinem Fanboy-Gehabe evtl. bessere Produkte links liegen zu lassen, bloß weil es meine unendliche Oberflächlichkeit nicht zulässt, mal unvoreingenommen über den eigenen Tellerrand hinaus zu schauen.

Zum sich immer noch hartnäckig haltenden Märchen vom besseren Treiber seitens nVidia, sei folgender Link empfohlen:

https://forums.geforce.com/default/...eady-display-driver-feedback-thread-8-13-15-/

85 Seiten Probleme in 2 Wochen sprechen da eine sehr deutliche Sprache, aber der einfältige nVidia-Durchschnittsuser würde eher aufhören zu daddeln, als zuzugeben, das bei nVidia auch nicht alles Gold ist, was glänzt...

Wo ist der Likebutton wenn man ihn mal brauch ^^
 
GermanGhettos schrieb:
Wer sagt, dass sie es nicht tun? :D
Hehe, niemand.
Aber man muss eins bedenken: wenn NV sofort in die Vollen geht und das max. mögliche (sagen wir mal 80%-100%, Pascal soll ja HBM2 haben) sofort rausbringt (auch noch bevor AMD was rausbringt), dann gehen sie ein enormes Risiko ein:
Kann AMD nicht schnell nachziehen wird es schlecht um AMD stehen, so schlecht, dass ein Monopol droht. Was dann wiederum NV droht sollte bekannt sein.
Selbst wenn AMD was schnelleres bringt, NV wird wahrscheinlich etwas nachlegen können. Ob sie es wegen 5% tun werden ist die eine Frage, bei 20% werden sie es definitiv. Umgekehrt ist ähnliches zu erwarten.
 
Zurück
Oben