News AMD Radeon R9 285: Sapphire hat die kürzeste

naja wer solch kurzen gk's mag warum nicht.


ich hab lieber gk's mit der länge von einer 4870x2 oder die 6970 geht auch noch in ordnung:love:
ich kann mit so kurzen karten nichts anfangen sieht behindert aus
 
Hallo Micha,

vielen Dank für die News.
Ich bin gespannt auf einen Test der neuen R9 285.

Gruß, JoeCool
 
Seehhr genial die Sapphire, wenn die jetzt auch noch nicht auffällig laut ist... :daumen:

DarthLuda schrieb:
ITX? Ist klar, kein Low Profile, dafür aber Dual Slot, und dann braucht das Ding auch noch extra Saft, frage mich gerade in wessen ITX-Gehaeuse das passen soll...


Prädestiniert ist sie für die folgenden in der 10L Klasse:

- Lian Li PC-Q07 und 03.
(Bei den beiden geht offiziell nur Singel-Slot, aber da die Sapphire keine Anschlüsse im zweiten Slot hat müsste man nur ein klein wenig Alu weg feilen.)

- Chieftec Elox BT04.
(Vielleicht tut es sogar das mitgelieferte 350W SFX-Netzteil?)

- Cooltek Coolcube und seine Klone:
https://www.computerbase.de/preisvergleich/cubitek-mini-center-schwarz-cb-mni-b002-a1063105.html
https://www.computerbase.de/preisvergleich/lc-power-lc-1500bmi-schwarz-a1132136.html
https://www.computerbase.de/preisvergleich/inter-tech-mini-itx-e-d3-88881191-a1089098.html
https://www.computerbase.de/preisvergleich/sharkoon-ca-i-schwarz-a1151541.html

Für das SG05 z.B. (ebenfalls 10L) kommen aber schon deutlich längere in Frage. Das Prodigy und seine vielen Klone sind allesamt µATX-Gehäuse, in die blöderweise nur mini-ITX Boards passen. Bitfenix selbst hat das ziemlich schnell gemerkt und den Fehler behoben (Prodigy M)... :p
 
7970GHz > 280X > kommt dann die 285 oder die 280 ?

Die Hersteller machen den GPU Kauf nicht einfach. Ich hoffe Maxwell wird mal wieder "schneller".
Abwarten und Tee trinken...
 
Zuletzt bearbeitet:
Maxwell ist doch schon released und...langsamer.^^

Es kommt ganz auf das Segment an, welches entsprechender Chip bedienen soll.

Momentan sehen andere Websites die Spekulation in diese Richtung:

AMD-nVidia-Portfolio-Roadmap-24-August-2014.png
Quelle

Fazit: der demnächst erwartete GM204 soll ein ganz anderes Segment bedienen wie Tonga!
 
tnoay schrieb:
die hd6000 liefert eine unterirdische bildqualität

Ne HD6000 hab ich auch ...

Aber stimmt, du hast Recht ... ich kann deinen Beitrag kaum lesen.
 
Athlonscout schrieb:

Das ist ja mal eine richtig geniale Grafik! Endlich ein guter Überblick, welche GPUs aus welchen Generationen in welchen Karten stecken und wie sie ungefähr gegeneinander einzuordnen sind. Hut ab vor 3DCenter, ansatzweise Ordnung in dieses heillose Durcheinander gebracht zu haben.
Ich hab mir immer einen Knoten ins Gehirn gegrübelt, wenn ich versucht habe da durch zu steigen. :)

Wobei natürlich alles, was zukünftige GPUs und Karten angeht nur Spekulation ist. Aber 3DCenter liegt mit hoher Wahrscheinlichkeit nicht völlig daneben. Auch wenn ich z.B. vor allem die Erscheinungstermine für Fiji und GM200 bzw. entsprechende (Consumer-)Karten für sehr optimistisch halte. Und ich gehe stark davon aus, dass auch die GM107 in der nächsten Kartengeneration (800er) nochmal Verwendung findet. Gut möglich z.B., dass die GTX750Ti einfach in GTX850 umbenannt wird.
 
@Computerbase: Wieso wird bei diesen kurzen Grafikkarten nie angegeben, in welche Richtung der Stromanschluss ausgerichtet ist? Das kann je nach Gehäuse entscheidend sein, wie z.B. beim Coolcube.
 
Inwieweit wäre dann ein Upgrade von einer 7870 auf die R9 285 sinnvoll hinsichtlich Leistung und Verbrauch? Klingt ja schon interessant, bei mehr Leistung weniger zu verbrauchen.
 
Wenns dir nur ums Geld bzw. die Stromkosten geht, macht so ein Upgrade in der Regel wenig Sinn.
 
Nicht nur deswegen, zumal ich meine eh unvervoltet habe. Bei 20% mehr Leistung würde mich das reizen. Aber dazu fehlen ja noch Zahlen bzw. Tests. Bin mal gepsannt, was rum kommt. Ansonsten reicht meine 7870 ja locker für alles, was ich zocke.
 
Soilworker schrieb:
Wenns dir nur ums Geld bzw. die Stromkosten geht, macht so ein Upgrade in der Regel wenig Sinn.

Genau. Sofern die Grafikkarte nicht 24/7 und 52 Wochen im Jahr läuft sind diese "Aufrüsten weil weniger Verbrauch"-Aktionen eher was fürs Umweltgewissen und weniger relevant für den Geldbeutel:

Angenommen du spielst durchschnittlich im Jahr 'n' Stunden pro Tag, was jetzt mal als "Volllast"-Szenario für die GraKa herhalten muss.

In dieser Zeit verbraucht die Grafikkarte n*365*X/1000 kWh, wobei X die maximale Leistungsaufnahme der Grafikkarte darstellt (in W, kann durch die TDP angenähert werden).

In der selben Zeit verbraucht eine sparsamere Karte n*365*Y/1000 kWh, was dann wenig überraschend eine jährliche Verbrauchsdifferenz von

n*365*(X-Y)/1000 kWh ergibt.


Rechenbeispiel: du kaufst eine Grafikkarte die 50 W weniger verbraucht und spielst im Schnitt 2 h pro Tag. Damit ergibt sich eine Ersparnis von 2 * 365 * 50/1000 kWh = 36,5 kWh. Bei einem Strompreis von ~30 cent/kWh sind das 11 € im Jahr, die du an Strom sparst*. Wenn du wirklich was für die Umwelt tun willst, dann immer schön das Licht ausschalten und Dauerverbraucher wie Kühlschrank und Gefriertruhe auf sparsamare Geräte updaten. Wenn du das schon alles gemacht hast - Glückwunsch!

*ich würde mal sagen, sobald dich die neue Grafikkarte (abzgl. evtl. dem Gewinn aus dem Weiterverkauf der alten Karte) mehr als die voraussichtliche Ersparnis der nächsten 2-3 Jahre kostet, dann lohnt sich die ganze Aktion eher nicht.
 
Zuletzt bearbeitet:
Ich frag mich ja nur, ob die xfx Karte mit dem neuen Kühler die auch schon auf der xfx 270x drauf ist, endlich mal auch leiser ist, als die alten dd modelle. Ist nämlich dank dem PCB mit nach hinten ausgerichteten Stromanschlüssen, für mich als HTPC Nutzer derzeit das interessanteste Modell.
 
zeedy schrieb:
Na mit Tahiti wäre so eine Grafikkarte wohl nicht möglich gewesen, das Dingen muss also wirklich deutlich weniger Verlustleistung erzeugen ;)
Ich frag mich daher warum AMD die TDP mit 190W angibt. Son Kühlerchen kann ja kaum mit 190W zurechtkommen.



AMD gibt immer Maximalwerte an, Nvidia hingegen Durchschnittswerte.

War schon immer so.

Außerdem ist die TDP ja die Wärmeverlustleistung, in dem Fall gibt also AMD an, wie viel Wärme die Karte maximal abgeben kann (z.B. unter Furmark), Nvidia hingegen schönigt dies dann immer, und nimmt dann wohl den Durchschnitt einer Spielsitzung.
 
Zuletzt bearbeitet:
Zurück
Oben