News R9 Nano: AMD bringt Fiji-Vollausbau auf 15 cm mit 175 Watt

GermanGhettos, du vergisst mMn aber einen entschiedenen Faktor. Die Fertigung wird immer teurer und das Verkleinern immer schwieriger. Was kommt denn nach dem "16nm FinFET Prozess", der in der Realität keinen echten 16nm entspricht? 10nm? 7nm? Bis wohin kann man gehen, so dass neben der technischen Machbarkeit auch noch die Wirtschaftlichkeit gegeben ist? Die werden beide schön strecken und nach wie vor Mittelklassenchips als Highend verkaufen, wie schon seit GTX680 - zumindest NVIDIA.
 
Ich finde es würde schon reichen, wenn man mit den neuen Grafikkarten und HBM2.0 dann wirklich 4K Gamen könnte mit konstanten 60.FPS, allerdings bin ich mir jetzt nicht sicher ob dann 20% Mehrleistung gegenüber den jetzigen Grafikkarten ausreichen. Das würde dann wohl auch nochmal einen richtigen Schub für Monitore mit höheren Auflösungen voran treiben. ;)
 
Der Landvogt schrieb:
Hehe, niemand.
Aber man muss eins bedenken: wenn NV sofort in die Vollen geht und das max. mögliche (sagen wir mal 80%-100%, Pascal soll ja HBM2 haben) sofort rausbringt (auch noch bevor AMD was rausbringt), dann gehen sie ein enormes Risiko ein:
Kann AMD nicht schnell nachziehen wird es schlecht um AMD stehen, so schlecht, dass ein Monopol droht. Was dann wiederum NV droht sollte bekannt sein.
Selbst wenn AMD was schnelleres bringt, NV wird wahrscheinlich etwas nachlegen können. Ob sie es wegen 5% tun werden ist die eine Frage, bei 20% werden sie es definitiv. Umgekehrt ist ähnliches zu erwarten.

Das alles ist aber eine reine Spekulation deinerseits :D
Wir wissen es alle nicht, auch ich nicht.
Du siehst es so, ich sehe es genau andersrum, weil ich nicht glaube, dass z.B. Nvidia als erstes etwas rausbringt
und sich sagt "Pff, wir können es uns leisten und nutzen nur 80% der Leistung" und dann kommt AMD mit 100% und überholt Nvidia.
Man kann einzelne Produkte ergänzen, aber nicht direkt die ganze Palette.
Von daher wäre das ein schlechtes Geschäft und dass Nvidia oder AMD so leicht Marktanteile abgeben, glaube ich da weniger. ^^
Aber das mag Ansichtssache sein.


SKu schrieb:
GermanGhettos, du vergisst mMn aber einen entschiedenen Faktor. Die Fertigung wird immer teurer und das Verkleinern immer schwieriger. Was kommt denn nach dem "16nm FinFET Prozess", der in der Realität keinen echten 16nm entspricht? 10nm? 7nm? Bis wohin kann man gehen, so dass neben der technischen Machbarkeit auch noch die Wirtschaftlichkeit gegeben ist? Die werden beide schön strecken und nach wie vor Mittelklassenchips als Highend verkaufen, wie schon seit GTX680 - zumindest NVIDIA.

Das haben wir uns schon vor Jahren gefragt :D
Auch du hast keine Belege für deine Aussagen.
Genau so wenig, wie wir alle.
Es sind reine Spekulationen, die z.B. für mich unlogisch klingen, denn wenn man davon ausgeht,
dass Nvidia sagt, ok wir nutzen 80% des aktuell möglichen, dann kann AMD einfach sagen, dass die 100% nutzen und zack
ist Nvidia im Nachteil und Verliert massig Geld.
Wenn sie sich gegenseitig absprechen, ist das etwas anderes, ansonsten aus meiner Perspektive eher unlogisch. xd
Dabei gehts ja nicht um den technischen Fortschritt, sondern um das Endprodukt und wenn der eine nicht weiß, was der andere macht,
wird wohl keiner das Risiko eingehen, seinen Produkten noch "luft" zu lassen, damit sie am Ende schlechter da stehen.



Aber wie gesagt....wir wissen es alle nicht.
Reine Spekulation.
2016 sind wir schlauer.
Jetzt sollten wir uns auf das hier und jetzt konzentrieren...AMD Nano :D
 
GermanGhettos schrieb:
Das alles ist aber eine reine Spekulation deinerseits :D
Wir wissen es alle nicht, auch ich nicht.
Du siehst es so, ich sehe es genau andersrum, weil ich nicht glaube, dass z.B. Nvidia als erstes etwas rausbringt
und sich sagt "Pff, wir können es uns leisten und nutzen nur 80% der Leistung" und dann kommt AMD mit 100% und überholt Nvidia.
Man kann einzelne Produkte ergänzen, aber nicht direkt die ganze Palette.
Von daher wäre das ein schlechtes Geschäft und dass Nvidia oder AMD so leicht Marktanteile abgeben, glaube ich da weniger. ^^
Aber das mag Ansichtssache sein.
Das war jetzt einfach mal als Beispiel gemeint. Da ich AMD eher unter Zugzwang sehe halte ich es ebenfalls für wahrscheinlicher, dass AMD zuerst etwas rausbringt. Ich gehe aber ebenso stark davon aus, dass NV zumindest sehr dicht an AMD dran sein wird.

Spekulieren können wir leider alle nur. Aber wir können die Spekulation begründen. Und NV hat nichts davon wenn sie AMD wegschießen. Umgekehrt glaube ich nicht, dass AMD NV deutlich davon ziehen kann.
 
GermanGhettos schrieb:
Die HD7970 war rund 40% schneller, als die HD6970 und das war nur ein Shrink von 40 auf 28nm.
Das entspricht einer Verkleinerung von 30%.
Der kommende Shrink von 28 auf 16nm ist nochmals größer mit rund 47%.
Also fast die Hälfte und mit HBM2 und DirectX12.
Wie auch immer du auf diese Zahlen kommst, es ist knapp daneben. 40nm auf 28nm ist bereits eine Halbierung, die Verkleinerung findet schließlich in der Eben statt, nicht in einer Geraden. Nur davon wirds nicht automatisch 50% schneller. Mehr Leistung gibts auch ganz ohne Shrink. Und bei "16nm" wird es erstmal keine 600mm² Hammer geben, nicht weil nvidia und AMD nicht in die Vollen gehen, sondern weil das kein Kunde bezahlen könnte.

oldmanhunting schrieb:
Das doch sowieso! Ist aber immer noch ein Unterschied was die verlangen und was ich bereit bin zu zahlen. Bei der CPU sitze ich gerade Skylake mit meinem Ivy aus und bei der GPU wird die 970SSC wohl auch in 2016 noch funktionieren solange ich bei FHD bleibe.
Ende 2016 schaue ich noch einmal, ob ich auf 4K gehe und kaufe aber nur, wenn der Preis im Rahmen ist. Wenn nicht, dann sollen die Ihren Kram behalten.
Immer lustig wenn Jemand mit der neuesten Hardware stolz verkündet eine Generation auszulassen. Mein Lynnfield hat schon lange einen Bart, doch erst der wesentlich jüngerer GK104 ruft nach Austausch. War mir bislang zu albern über 300€ + Mainboard für einen einfachen Quad mit HT und offenem Mutli auszugeben. Und GM204 hat sich mit dem Fehlen des Referenzdesigns, dem kleinen Leistungssprung und kleinem Speicher selbst ausgeschlossen.
 
Unyu schrieb:
Immer lustig wenn Jemand mit der neuesten Hardware stolz verkündet eine Generation auszulassen. Mein Lynnfield hat schon lange einen Bart, doch erst der wesentlich jüngerer GK104 ruft nach Austausch. War mir bislang zu albern über 300€ + Mainboard für einen einfachen Quad mit HT und offenem Mutli auszugeben. Und GM204 hat sich mit dem Fehlen des Referenzdesigns, dem kleinen Leistungssprung und kleinem Speicher selbst ausgeschlossen.

Geht mir ähnlich. GF104 macht noch seinen Dienst, hatte zwar erst auf ne gute 960 gehofft, welche aber enttäuscht. Die 970 ist so nicht mit meinem Gewissen kaufbar, die 380 nen ticken zu langsam für 2K, die 390 schon fast zu groß für meinen Cube. Die 980 wäre ne Option, aber wenn nur gebraucht (Wie gesagt Gewissen und so) Nur denke ich auch, dass die Arctic und Pascal zumindest die 30% Fertigungsvorteil drauflegen werden, und wenn 4K mit einer GP104 oder R400 möglich ist, dann frage ich mich ernsthaft warum ich 500 Eier ausgeben soll, damit die Karte nächtes Jahr wieder veraltet ist.
meine Ivy machts auch noch, also vllt wirds auch ne Nullrunde. Manchmal muss ich schon schmunzeln, was die Leute für Konsomgetriebene Zombies sind. Immer das neuste , immer Firma A oder B. So wenig Leistungszuwachs wie die Gens derzeit haben, kann ich auch noch bis nach Skylake mit meiner IVY leben.. Nur bei den HBM2 Grafikkarten wirds Intresant.
Meine Prognose: Arctic Island Q3 2016 (HBM2) GP104 Q2 2016 (GDDR) und Q4 2016(HBM2)
 
Unyu schrieb:
Wie auch immer du auf diese Zahlen kommst, es ist knapp daneben. 40nm auf 28nm ist bereits eine Halbierung, die Verkleinerung findet schließlich in der Eben statt, nicht in einer Geraden. Nur davon wirds nicht automatisch 50% schneller. Mehr Leistung gibts auch ganz ohne Shrink. Und bei "16nm" wird es erstmal keine 600mm² Hammer geben, nicht weil nvidia und AMD nicht in die Vollen gehen, sondern weil das kein Kunde bezahlen könnte.

Wie ich auf diese Zahlen komme, kann ich dir sagen. :D
http://www.gamestar.de/hardware/gra...t/amd_radeon_hd_7970,419,2563233,7.html#fazit
Zitat: "Zum einen steigert AMD die Leistung gegenüber dem Vorgängermodell um deutliche 40 Prozent, zum anderen sinkt trotzdem der Stromverbrauch."
Das war nach dem Shrink.
Die HD6970 hatte zuvor kaum Mehrleistung gegenüber dem Vorgänger HD5870, weil es kein Shrink war.
Und jetzt kommt 2016 endlich wieder ein Shrink und dieser ist Größer als von der HD6970 zur HD7970.
Also wären prinzipiell auch dieses mal wieder 40-50% Mehrleistung drin.

Was am Ende eintreten wird, wissen wir alle nicht.
Das sieht man ja dann. ^^
 
GermanGhettos schrieb:
Wer sagt, dass sie es nicht tun? :D

Tun sie vllt bei der Tesla Karte, dann weiß man auch genau was im Desktop n halbes Jahr oder gar n ganzes Jahr später als Titan kommen wird :)
 
Gestern überrascht gewesen, aber gut. Die besten Chips für die Nano können nicht billiger sein.
Geizhals gecheckt und die Fury X wird jetzt nach einigen Wochen schon ca. 30-40€ günstiger.
Muss halt bissl warten, wenn man weniger Budget hat und die Verfügbarkeit sich bessert.
 
Wird CB auch einen Taktraten Vergleich zur einer 970 mini in einem Raijintek Metis nach einer Stunde Gaming
oder so etwas ähnlichem machen?

..... die Sapphire Tri-X temperaturen Leckströme fallen mir hier ins auge....

Es würden mich die tatsächlichen Taktraten und der Performance der Nano in 1080p und 1440p sehr interesieren,
weil die AMD bechmark in 4K gemacht sind (wo die Karte meiner meinung nach nicht hingehört), keine temperaturen vorhanden sind und wir wissen wie es mit amd am ende mit den
up-to 1000mhz und vielen Verschprechungen ist.

Rein theoretich kann nvidia auch eine 980 oder 970 mini mit reference 175W TDP machen...

175W nano ist ähnlich wie:
970mini = 150W + 16% powerlimit = 175W womit die 970 einen takt von 1250 core 1350 boos problemlos erreicht
oder
980 reference = 165W tdp hat + 6% = 175W wobei die einen takt von ~1200 core und ~1300 boost erreicht

Es wunder mich, das der HBM nicht zum beispiel eine 150W karte mit +20% performance auf eine 970mini locker geliefert hinbekommt, sondern die nano hat eigentlich 25W mehr TDP als die 970 mini und dementschprechendem performance boost.

Wobei die 970mini noch immer GDDR5 benutzt, der viel mehr powerhungriger ist.

HBM hat bisher nur in hohen auflosungen den vorschprung auf AMD architektur gezeigt, was würde hbm auf einer 970mini oder pascal bringer ist auch eine interesante Frage

Aber warum alles so lange dauert, wie bei der Fury X ist ungewöhnlich...

Wann können wir Zirka den ersten ordentlichen ITX review erwarten?
Oktober? Weil ihr ja mindestens 3-5 Karten braucht oder?
 
Verdammt, eure Facebook-Appetithäppchen machen das Warten auf die Tests auch nicht leichter... ;)

cb_r9nano_teaser.jpg
 
Da müsste man mal mit dem Staubsauger durch, oder noch besser einfach mal ab in die Wanne damit :D
 
Vielleicht visualisiert CB mit dem Staub ja die Luftströme in der GPU und Gehäuse *lol* :lol:
 
Das ist doch nur ein Test PC ;)
Und für ein System das nur zur Arbeit dient sieht der noch akzeptabel aus. Öffnet mal ein Gehäuse aus einem Büro
 
Am Werkzeug erkennt man die Qualität des Klempners. Also etwas mehr Liebe bei der Arbeit darf es schon sein. Und wie sieht die Ecke aus, in der der PC auf seinen Einsatz wartet? CB-Messie? :DD

Edit
@CyberdyneSystem
Das hat doch mit einem Büro-PC nichts zu tun. Der steht dauerhaft in seiner Ecke, bis er ausfällt.

Wenn ein Testsystem zum Prüfen von Hardware staubig wie Hulle ist, obwohl es ständig offen ist und dran rumgemacht wird, ist das doch ein wenig Faulheit, nicht mal eben den Lappen zu schwingen. Ich würde mich da bei der Arbeit schon unwohl fühlen (und das so fotografiert auch nicht in die Welt tragen).
 
Zuletzt bearbeitet:
Ach herrje, das ist doch völlig entspannt. Da sieht bei 95% der PC daheim sicher schlimmer aus, gerade die Bodenplatte oder Stellen, wo man halt nie hingreift, selbst wenn man mal die Graka oder so wechselt.
ITX ist jetzt am Start, aber ITX nervt beim basteln. Kleine Gehäuse schön und gut, aber nur wenns fertig ist^^
 
CyberdyneSystem schrieb:
Öffnet mal ein Gehäuse aus einem Büro

Leider keine Bilder gemacht aber ich habe unsere erst auf den Wertstoffhof gebracht. Nach 10 Jahren nutzung sahen die noch verdammt gut aus. Spricht wohl für die Putzfrau die jeden Tag da ist :D
 
Zurück
Oben