News R9 Nano: AMD bringt Fiji-Vollausbau auf 15 cm mit 175 Watt

Da könnte man rein hypothetisch genauso gut sagen, ich pack bei der 980 Ti nochmal 200€ drauf (anstatt auf die 30% Performance zu verzichten) und habe dann für 900€ eine kompakte 980Ti. Wäre die plötzlich interessant? Würde es da jemand als Gerechtfertigt ansehen? Fänd es irgendwer plötzlich vollkommen angemessen, wenn Nvidia für 700€ eine geschrumpfte 980 raus bringt? Da würde auch jeder einen niedrigeren Preis fordern und Nvidia wäre mal wieder böse böse, weil sie so geldgeil sind.

Keine Ahnung was dein Problem hier ist. Die Leute nehmen auch gute 1000€ in die Hand für 6GB mehr Speicher und nem Brüllkühler für die Titan X und trotzdem wird sie gekauft! Warum? Weil es auch dafür einen Markt gibt, er ist klein aber er ist da so wie es auch für die Nano Abnehmer geben wird. Die nano hat sicherlich nicht den Anspruch die Masse zu bedienen also was solls. Ich kauf sie nicht da zu teuer du kaufst sie nicht da zu teuer. Who cares. Ne GTX 980ti in dem Formfaktor würden sich auch Leute kaufen und den aufgerufenen Preis bezahlen.
 
Wadenbeisser schrieb:
...
Die großen Geforce Modelle können damit auch nicht umgehen, wer Wert auf HDCP 2.2 legt kann max. ne GTX960 kaufen.
ernsthafte 4K Blu-Rays gibt es mangels Speicherkapazitätz eh nicht sondern bestenfalls fast tot komprimierten Mist oder kurze Tech Demos.

Stimmt, sorry, hier bin ich auf eine falsche Quelle hereingefallen. GM200 kann auch kein HDCP 2.2. HDMI 2.0 haben aber tatsächlich alle. Ich persönlich habe auch kein großes Interesse an 4K-Blurays, aber wenn man beim Thema 4K-HTPCs ist, könnte es ja schon eine Info sein, die den einen oder anderen interessiert. :)
 
Hopsekäse schrieb:
@Zuckerwatte

Das Ding ist übrigens ein passiver Adapter, er kann 60Hz, aber wie immer nur wenn auch ein entsprechendes Signal kommt. Ist auf der Seite des Unternehmens gelistet. Hat 15 Sekunden gedauert, das herauszufinden und da du das als Antwort auf die Aufforderung einen Link beizusteuern, der 100%ig belegt, dass das mit Adaptern möglich ist, gepostet hast, war ich halt davon ausgegangen, dass du den Sachverhalt um den Kompatibiltätsmodus des DP eben nicht kennst. Denn 100%ig zeigt er nur, dass das gewünschte Ergebnis damit nicht erzielt werden kann.
[...]

Davon abgesehen, das irgendwer eingeworfen hat, das es DP => HDMI2.0 Adapter gibt und ich nur einen Spaß Kommentar abgegeben habe, ist mir egal ob User XY 100%ig was gefordert hat.

Aber hack ruhig weiter darauf herum.

Selbst wenn du 200€ auf die 980 TI draufpackst, gibt es diese immer noch NICHT in kurz.

http://geizhals.de/?cat=gra16_512&asd=on&asuch=GTX 980 Ti&xf=1439_GTX+980+Ti#gh_filterbox

280mm ist laut Geizhals das Minimum. Davon abgesehen kommt es den Leuten ab einem bestimmten Punkt nicht mehr auf 100-200 € an, wenn ich sowieso 700+ Euro für eine GPU zahle (oder über 1000 für eine Titan - und das nur für 6 GB mehr VRAM...)

Wäre es denn überhaupt möglich die 980 TI momentan so kurz zu gestalten wäre die Frage.
Ergänzung ()

Krautmaster schrieb:
ich meinte nicht die FX CPUs sry, ich meine die alten ATI Fire GPUs, aus Zeiten wo der Treiber schlecht bis gar nicht lief ;)

Hätte ich eigentlich drauf kommen sollen, bin es aber nicht. Danke ;)
 
Hopsekäse schrieb:
Stimmt, sorry, hier bin ich auf eine falsche Quelle hereingefallen. GM200 kann auch kein HDCP 2.2. HDMI 2.0 haben aber tatsächlich alle. Ich persönlich habe auch kein großes Interesse an 4K-Blurays, aber wenn man beim Thema 4K-HTPCs ist, könnte es ja schon eine Info sein, die den einen oder anderen interessiert. :)

Sofern HDCP 2.2 überhaupt für spätere, ernsthafte 4K Datenträger relevant sein sollte. Da existiert ja bisher mangels passender Datenträger auch kein wirklicher Standard.
An sonsten ist HDMI 2.0 auch nur fürs 60 Hz 4K Daddeln am TV relevant denn für PC Monitore kann man auch den DisplayPort Anschluss nutzen, welchen kaum ein TV mit bringt.
Klar, es ist schade dass die Radeons den Anschluss nicht besitzen aber letztendlich halte ich das Thema für maßlos überbewertet.
 
Wadenbeisser schrieb:
@Krautmaster
Hat aber auch nichst mit den Desktop Karten zu tuen. :p

Naja, es ging um den schlechten Ruf und das hängt eben alles zusammen. Bei den Desktop GPU wars weniger gravierend da die Anwender toleranter sind und schneller vergessen als das Business ja...
 
Dai6oro schrieb:
Keine Ahnung was dein Problem hier ist. Die Leute nehmen auch gute 1000€ in die Hand für 6GB mehr Speicher und nem Brüllkühler für die Titan X und trotzdem wird sie gekauft! Warum? Weil es auch dafür einen Markt gibt, er ist klein aber er ist da so wie es auch für die Nano Abnehmer geben wird. Die nano hat sicherlich nicht den Anspruch die Masse zu bedienen also was solls. Ich kauf sie nicht da zu teuer du kaufst sie nicht da zu teuer. Who cares. Ne GTX 980ti in dem Formfaktor würden sich auch Leute kaufen und den aufgerufenen Preis bezahlen.

Das ist ganz und gar kein Widerspruch zu dem, worauf ich hinaus wollte. Den Titan X-Vergleich hatte ich auch schon im Sinn, hab ich mir dann doch noch verkniffen, aber es geht mir auch gar nicht darum, ob die Karte nun niemand kauft oder nicht. Es geht darum, berechtigte Kritik anzubringen, ohne gleich als Fan irgendeiner Seite angemacht zu werden. Wenn man mal von AMD-Fans hört, für wie blöd Titan X-Käufer gehalten werden und was denen so an den Kopf geworfen wird und wie enorm der Preis der Titan X und auch schon der 980 und 980 Ti kritisiert wurde, ist es einfach schwachsinnig, bei der Nano so zu tun als dürfte man nirgendwo kritisieren und alles wäre voll dufte, nur weil das teure Teil diesmal von AMD kommt. Nvidia wird für jeden Euro einzeln gebasht, aber wenn das Teil von AMD kommt, ist jede Preiskritik plötzlich böses Bashing durch Fanboys oder vollkommen unangebracht. Verstehst du was ich meine? Man kann nicht auf der einen Seite immer auf dem Preis rumhacken und auf der anderen alles mit "ja für mich zu teuer aber sonst ok" abnicken.
Es gibt halt auch einfach sachliche Auseinandersetzungen mit den Inhalten und wenn da eigentlich für alle ersichtlich raus kommt, dass 700€ für das Gebotene zu viel sind, dann ist das genauso so, wie z.B. über 300€ Aufpreis von einer 980Ti zu einer Titan X zu viel sind. Und sowas sollte man meiner Meinung nach auch sagen dürfen, ohne dass man gleich in irgendwelche Lager gesteckt wird.

@Wadenbeisser
Das ist mir schon bekannt, danke, das habe ich ja bereits ausführlich diskutiert.
Naja ein Riesenkriterium ist es nicht, das sehe ich auch so, aber so irrelevant finde ich es auch nicht. 4K-TVs sind viel verbreiteter als 4K-Monitore. Wenn man jetzt so eine angebliche 4K-Gaming-Kompakt-Karte betrachtet, die sich ja dann noch mehr als die anderen Modelle für HTPC-Einsatz anbietet, man damit aber tatsächlich nur an DP-PC-Monitoren und aktuell einer einzigen Panasonic-TV-Reihe das auch voll nutzen kann und ansonsten mit maximal 30Hz unterwegs ist, dann ist das für meine Begriffe schon ein recht deutlicher Einschnitt.
Ich meine, stell dir vor du machst das, womit die Kiste beworben wird und baust dir einen winzigen Rechner mit einer 700€-Nano fürs Wohnzimmer. Stellst dir das Ding an deinen 4K-TV und willst mal testen. 4K-Bluray geht nicht. Naja, dann spielen wir halt mal. Siehst eh nicht mehr als 30FPS, also eine Leistung, die in den meisten Games selbst unter 4K noch Karten bringen, die halb so viel kosten. Die 4K-Eignung wird ja allgemein meist daran fest gemacht, dass man eben regelmäßig nennenswert mehr als 30 FPS hat und eher in Richtung 60FPS unterwegs ist. Da hat man dann also meiner Meinung nach nicht mehr so enorm viel von seinen 700€.
Wenn man jetzt am 4k-Monitor spielt, okay, ist was anderes, da klappt auch alles. Aber die Fälle, wo man am Schreibtisch Platz für einen fetten 4K-Monitor hat, aber am Gehäuse jeden Zentimeter sparen muss, sind wohl auch nicht so verbreitet. Mit einer anderen Karte in einem der zahlreichen auch sehr kleinen ITX-Gehäuse mit Platz für lange Karten, fährt man dann leiser (nach den aktuellen Angaben, wäre mir persönlich wichtiger als krampfhaft jeden Zentimeter zu sparen) und entweder günstiger oder eben Leistungsstärker. Mal davon abgesehen, dass ich im Wohnzimmer auch jederzeit eine geringe Läutstärke ein paar Zentimetern vorziehen würde.
Worauf ich hinaus will ist, dass die Karte schon ein teures Nischenprodukt ist und sich durch fehlendes HDMI 2.0 und HDCP 2.2 nur noch mehr potentielle Einsatzgebiete wegkratzt. Von daher finde ich zumindest in diesem Fall das Thema nicht so unwichtig wie du.
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
[...]
An sonsten ist HDMI 2.0 auch nur fürs 60 Hz 4K Daddeln am TV relevant denn für PC Monitore kann man auch den DisplayPort Anschluss nutzen, welchen kaum ein TV mit bringt.
Klar, es ist schade dass die Radeons den Anschluss nicht besitzen aber letztendlich halte ich das Thema für maßlos überbewertet.

Fakt ist, dass die Dummen die Verbraucher sind, weil es wiedermal 2 Standards gibt.

Sollte man als überbewertet abstempeln, wobei es schade ist 700€+ hinzulegen und dann noch drauf achten zu müssen einen von den 2-4 4K TVs mit DP erwischt zu haben.

Wenn es nach mir ginge würde DP Standard werden, auch bei TVs (Oder einfach beides....das wäre aber zu einfach für uns alle)
 
megaapfel schrieb:
@germanghettos

Hier noch mal der offizielle AMD Thread zum Treiberproblem bei der der 390 mit mittlerweile 20 Seiten. AMD Matt hat auch in dem Thread vor drei Wochen geantwortet, dass das Problem bekannt ist und sie daran arbeiten. Es sind jetzt 3 Monate seit Release und das Problem ist nach wie vor nicht vorhanden und ein Treiberupdate gab es auch nicht.

Gibt auch einen deutschen Thread hier auf CB von mir.

Von den Leuten, die dort berichtet haben, installierten mindestens ein Dutzend das System neu. Außerdem besteht das Problem bei allen Treiberversionen mit der 390.

Ein kleiner Denkanstoß: AMD hat einen Marktanteil von mittlerweile 18%. Die absoluten Zahlen der Problemthreads hier im Forum sind jedoch bei AMD höher als bei nVidia...
Naja bei Nvidia sollte man den Clown von CEO mal schnell rauswerfen, mit dem Satz das ist ein Feature bei der GTX970 gehört der sicherlich nicht in die freie Wildbahn...
Der aktuelle Windows 10 Treiber macht bei meiner Titan 1 und bei meiner 970 nur Probleme. Ich habe noch einen HTPC mit einer 650Ti Boost, die geht komischerweise problemlos.
Gerade 3D Vision läuft derzeit nur problematisch. Bei jedem Neustart muß ich von blau-rot auf Shutterbrille umstellen. So einen schlechten Treiber habe ich von der Firma seit meiner Riva 128 noch nicht erlebt.
 
@Zuckerwatte

Ne, HDMI ist und bleibt kacke. Kostet sogar noch mehr und kann - wie man ja aktuell sieht weniger.
 
Cool Master schrieb:
Kostet[...] mehr und kann [...] weniger.

Das ist ungefähr meine Meinung nur hatte ich keine Lust weiter Romane zu lesen - deswegen der Kompromiss mit "beide Standards in TVs verbauen".
 
Zuckerwatte schrieb:
Fakt ist, dass die Dummen die Verbraucher sind, weil es wiedermal 2 Standards gibt.

Sollte man als überbewertet abstempeln, wobei es schade ist 700€+ hinzulegen und dann noch drauf achten zu müssen einen von den 2-4 4K TVs mit DP erwischt zu haben.

Wenn es nach mir ginge würde DP Standard werden, auch bei TVs (Oder einfach beides....das wäre aber zu einfach für uns alle)

Du kannst den auch an dem normalen HDMI Anschluss anschließen und mit vollen 4K Auflösung ansteuern, hast dann aber nur 30 statt 60 Hz.
Und zum Thema der Dumme ist der Verbraucher. Derjenige der einfach mal ebend von irgendwas ausgeht ohne sich zu informieren ist so oder so der Dumme.

Krautmaster schrieb:
Naja, es ging um den schlechten Ruf und das hängt eben alles zusammen. Bei den Desktop GPU wars weniger gravierend da die Anwender toleranter sind und schneller vergessen als das Business ja...

Wäre dem so dann würde aber nicht noch Jahre später Themen durchgekaut werden die schon lange kein Thema mehr sind.
 
Zuckerwatte schrieb:
Davon abgesehen, das irgendwer eingeworfen hat, das es DP => HDMI2.0 Adapter gibt und ich nur einen Spaß Kommentar abgegeben habe, ist mir egal ob User XY 100%ig was gefordert hat.

Aber hack ruhig weiter darauf herum.

Selbst wenn du 200€ auf die 980 TI draufpackst, gibt es diese immer noch NICHT in kurz.

http://geizhals.de/?cat=gra16_512&asd=on&asuch=GTX 980 Ti&xf=1439_GTX+980+Ti#gh_filterbox

280mm ist laut Geizhals das Minimum. Davon abgesehen kommt es den Leuten ab einem bestimmten Punkt nicht mehr auf 100-200 € an, wenn ich sowieso 700+ Euro für eine GPU zahle (oder über 1000 für eine Titan - und das nur für 6 GB mehr VRAM...)

Wäre es denn überhaupt möglich die 980 TI momentan so kurz zu gestalten wäre die Frage.

Wenn du einfach nur einen Link postest und nichts dazu sagst, dann beschwer dich doch nächstes Mal einfach nicht über eine dann leider überflüssige Erklärung. Die war ja nun nicht böse gemeint, du hast dich mir halt diesbezüglich unwissend dargestellt und auf meine gut gemeinte Erklärung zum Thema etwas zickig reagiert. Der Spaß an der Sache ist mir dann wohl entgangen, sorry.

Deshalb war es auch hypothetisch und den Vergleich zu Titan und Co. habe ich in einem anderen Beitrag erörtert. Es ging darum, dass anscheinend auf dem Preis der Titan munter rumgehackt werden darf, man 200€ mehr für einen Formfaktor aber anscheinend nicht kritisieren darf.
Die 980Ti ginge ganz sicher nicht so klein (Chip groß, mehr RAM braucht auch Platz), habe ich aber auch nie gesagt. Eine 980 wäre vielleicht machbar, ist aber auch egal, es ging nur um den theoretischen Vergleich. Die ausgewiesenermaßen hypothetische Frage war ja nur, ob man den selben Aufpreis für den Formfaktor auch bei anderen vergleichbaren Karten (insbesondere beim ach so bösen Nvidia) bereit wäre zu zahlen oder wie man diesen betrachten würde. Ich habe kritisiert, dass der Aufpreis für den Formfaktor zu groß sei und daher denselben Aufpreis theoretisch auf andere Modelle übertragen, um besser anschaulich zu machen, dass eine Kritik am Preis dort ganz sicher auch aufkommen würde, was meiner Meinung nach auch ein Grund dafür ist, dass sie hier durchaus berechtigt ist.
 
Wadenbeisser schrieb:
Du kannst den auch an dem normalen HDMI Anschluss anschließen und mit vollen 4K Auflösung ansteuern, hast dann aber nur 30 statt 60 Hz.
Und zum Thema der Dumme ist der Verbraucher. Derjenige der einfach mal ebend von irgendwas ausgeht ohne sich zu informieren ist so oder so der Dumme.

Erm - wir hatten schon lange geklärt, dass es um 4k @ 60Hz geht?

Die Verbraucher gehen oft von was aus. Ich behaupte auch das sehr viele keine Ahnung haben worauf sie überhaupt achten müssen, denn viele haben gänzlich andere Prioritäten in ihren Leben, als die Leute, die sich in Computerforen so rum treiben.

Man kann immer sagen "Der Verbraucher hat sich nicht informiert und ist selbst Schuld" nur sollte das nie das Ziel sein, sondern eher, dass selbst Leute ohne Fachwissen, die Technik bedienen können.

Edit:

Sry Hopsekäse - ich habe nicht die Zeit alles 100% durch zu lesen. Manches wird einfach überflogen. ja ich war pissig weil ich durch meinen "Spaß Kommentar" gefühlte 5 A4 Seiten lesen durfte, was sich für mich als totalst kontraproduktiv erwiesen hat :schluck:

Es wird immer auf Preisen rumgehackt, und wenn das Brötchen 5 cent mehr kostet :D Das Ding ist du bist davon ausgegangen, das NV als böse betrachtet wird. Ist bei mir nicht so. Ich war lange NV Nutzer aber bei einer 290x Lightning für damals 314€ konnte ich nicht nein sagen und habe es persönlich bis jetzt nicht bereut ;)
 
Zuletzt bearbeitet:
SavageSkull schrieb:
bei Nvidia sollte man den Clown von CEO mal schnell rauswerfen

Der Clown hat Nvidia so mächtig gemacht im Grafikkartenmarkt wie kein anderer.
Eher sollte man diese CEO rauswerfen bei AMD. ;)
 
Blub0r2k schrieb:
OMG für das Beispielbild mit dem mITX Board erstmal ne Platine mit Intel CPU genommen

ansonsten klar zu teuer für den Leistungsbereich. Ich hätte mir die Karte mit ähnlicher Leistung wie die GTX 970 aber halt für deutlich weniger geld als jetzt gewünscht.

Genau das habe ich mir auch erhofft.
Schade das AMD aus den neuen Chip-Architekturen nichts in der einfachen Oberklasse anbietet. Tonga-Vollausbau ist ja exklusiv verapplet, Fiji preislich sehr weit oben. Dazwischen stecken die alten R9 390er - zwar okay für den Preis, aber bestimmt nicht so interessant wie eine imaginäre R9 Nano im mITX-Format, GTX 980 Leistung und sehr geringem Stromverbrauch.....da hätte ich die Karte gerne gesehen für ca 400-450€. Hätte möglicherweise einen größeren Kundenkreis angesprochen. Die 700€ sind aber für das PRodukt wohl in Ordnung, steht aber leider in Konkurrenz zu den Fury-Modellen.

Naja, AMD wird schon wissen warum........hoffe ich.
 
Ich denke, dass die ganzen Diskussionen aufkommen, weil man gedacht hat, dass die Nano sich vom Preis irgendwo bei der 390X einordnet. Sagen wir mal um die 450 Euro. Also eine GPU für den Massenmarkt wird, die man sich auch in seinen Big Tower stecken kann.
Dabei wäre es ja noch egal gewesen, wenn das kein Vollausbau ist aber bedingt durch Stromverbrauch und Leistung eine sehr gute Alternative zu AMD und NVidia ist.
Dieser Traum von vielen ist nun leider gestorben, was die Nano ja nicht schlechter macht aber leider ist der Preis einfach zu hoch für den Massenmarkt. Für 700 Euro erwartet man einfach etwas mehr als eine Nano. Selbst Leute mit Mini ITX werden da wohl erst einmal schlucken.

Es wird wohl einfach so sein, dass Fury mit HBM in der Herstellung einfach recht teuer ist und AMD da nicht viel Spielraum beim Preis hat. Selbst wenn AMD die Fury (bedeutend) billiger verkaufen könnte, bleibt doch die Frage ob man den Markt überhaupt mit großen Stückzahlen bedienen könnte.

Fakt ist wohl, dass die Nano Ihre Kunden finden wird aber die Verkaufszahlen eher gering sein werden.
 
karamba schrieb:
Nochmal zum mitschreiben. Die Nano ist eine Karte, die zu dem Preis nur und wirklich nur dann interessant ist, wenn man den kleinen Formfaktor braucht. Braucht man den nicht, bekommt man die gleiche Leistung und Effizienz anderswo günstiger. Und ich bezweifle mal stark, dass viele den kleinen Formfaktor brauchen.

Okay... nochmal für DICH zum mitschreiben. Die Karte ist für GENAU DIE Leute konzipiert, die ein kleines leistungsstarkes System haben wollen. Keine Massenkarte, (noch) High End Nische, die so noch nicht bedient wird. Ich warte die Benchs ab und wenn alles stimmt, hole ich sie mir. Rafft es doch endlich Leute. Massenkarten sind die 300er. Ihr wollt eine kleine Karte mit der Leistung einer Titan oder Fury X für 300 oder 400 Euro. Geht's euch sonst gut?
 
Zuckerwatte schrieb:
Erm - wir hatten schon lange geklärt, dass es um 4k @ 60Hz geht?

Die Verbraucher gehen oft von was aus. Ich behaupte auch das sehr viele keine Ahnung haben worauf sie überhaupt achten müssen, denn viele haben gänzlich andere Prioritäten in ihren Leben, als die Leute, die sich in Computerforen so rum treiben.

Man kann immer sagen "Der Verbraucher hat sich nicht informiert und ist selbst Schuld" nur sollte das nie das Ziel sein, sondern eher, dass selbst Leute ohne Fachwissen, die Technik bedienen können.

Man kann es nicht nur behaupten sondern man IST selbst Schuld.
Das ist das Gleiche Prinzip wie der Versuch das Haustier in der Mikrowelle trocknen zu wollen.
Hat man keine Ahnung davon dann läßt man sich beraten. Ist man zu Faul sich zu informieren lernt man ev. noch mit dem eigenen Geldbeutel.
Wenn der Motor von der eigenen Karre hops geht weil man das falsche Öl reingekippt hat oder der Kühler im Winter gesprengt wird weil man nur Wasser reingekippt hat ist man für das Ergebnis schließlich auch selbst für das Ergebnis verantwortlich.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben