News AMD Radeon R9 285 ab 2. September für 249 Dollar

zeedy schrieb:
Oh du bist ja witzig..eine einwandfreie Grafikkarte zurückschicken nur weil du nicht gewusst hast, dass AMD eine neue Grafikkarte veröffentlicht. Jemand wird sich bestimmt freuen, nen Neupreis für gebrauchte Hardware bezahlt zu haben, so wie ich bei meiner Karte. Ich hab sie zwar behalten, aber die Begeisterung hält sich bestimmt bei jedem in Grenzen, wenn man ein gebrauchtes Produkt feststellt.

Der Gesetzgeber hat mir das Recht eingeräumt das Produkt ausgiebig zu testen, ich bewege mich damit noch im Rahmen. Dazu habe ich die Karte erst seit 3 Tagen, somit hatte ich mich noch nicht für das Produkt endgültig entschieden. ;)

Hinzu kommt bei Amazon landen die rückläufer bei Warehouse. :)


Lg
 
Watercoolio schrieb:
Der Gesetzgeber hat mir das Recht eingeräumt das Produkt ausgiebig zu testen

Damit befindest du dich im Irrtum. Der Verbraucher darf die Ware in einer Art und Weise nutzen bzw. testen, die über die Prüfung der Eigenschaften und der Funktionsweise nicht hinausgehen.

Eine Grafikkarte in deinen PC einbauen und einfach mal 14 Tage lang benutzen und dann zurückschicken widerspricht definitiv dem Rückgaberecht ;-)

Und wegen Hansel wie dir ist eben dieses Recht seit Juli nun eingeschränkt worden.
 
Krethi & Plethi schrieb:
arg was sich manche ausdenken:O

Wieso ausdenken? Tatsache ist, dass CUDA im Gegensatz zu OpenCL nur für GPUs gedacht ist, sogar die GPUs eines speziellen Herstelelrs. Das macht die Programmierung und Optimierung des Codes um Längen einfacher.
Außerdem bietet NVidia einige nützliche Tools, die einem sogar noch Ratschläge geben wo noch Nachbesserungsbedarf besteht, um die Architektur möglichst sinnvoll zu nutzen und etliche Hilfestellungen wie man sein Programm am besten auf der enstprechenden Architektur zum laufen bringt.
Das alles kenne ich von OpenCL in dem Umfang nicht. Da ist man relativ alleine gelassen (bzw. hängt das vom jeweiligen Hardware Hersteller ab) und das ist auch der Grund warum ich lieber zu NVidia greife. Man kann von dem Macho-Marketing Gehabe ja halten was man will (stehe ich auch nicht drauf), aber der Software Support ist einfach super und im Gegensatz zu AMDs Treibern laufen die NVidia Treiber relativ stabil.
Außerdem stehe ich nicht so auf JIT Compiler.

Mag sein, dass sich OpenCL irgendwann mal durchsetzt. Ehrlich gesagt hoffe ich es sogar, denn die Idee einer einheitlichen "Sprache" für sätmliche Hardware ist schon cool, aber momentan ist das einfach noch zu frickelig und Portabilität ist sowieso nie vorhanden, wenn man versuchen will die vorliegende Hardware möglichst effizient zu nutzen (egal ob bei CUDA oder OpenCL).
 
pipip schrieb:
Tja, dann hast du es genauso falsch verstanden. Denn wenn ich die Wahl habe, ob ich gpgpu mitnehme und dann vllt 30-40 watt mehr verbrauche, kann man sehr wohl überlegen ob ich das "feature" mitnehme oder nicht. Denn nachträglich kann ich dann nicht mehr "updaten" besonders, weil die AMD Karten nicht mal teurer sind.

"Falsch verstanden". Was für eine rhetorische Nebelkerze von Dir. Da komme ich ja aus dem Lachen nicht mehr raus. :D

Solange Du Features bezahlst, die Du heute weder benutzt noch innerhalb der sehr nahen Zukunft mit einen existierenden Anwendungsfall benutzen wirst,
hat Du zuviel Geld ausgeben oder bist einfach unsicher in Deinem Handeln und kaufst aufgrund dieser Unsicherheit etwas in der Hoffnung es übermorgen nutzen zu können.
Da ist ja wie ein großes Haus mit 12 Zimmern zu bauen, in der Hoffnung das Du mal 8 Kinder bekommst, obwohl Du noch nicht mal eine Freundin hast.
Nimm erstmal eine 2 Zimmer Wohnung und ziehe um, wenn Freundin und/oder die ersten Kinder im Anmarsch sind. Ist zeitig genug und trotz eventueller möglicher weiterer Umzüge sinnvoller investiert.
Ich denke das war jetzt wirklich mal ein verständliches Beispiel. :lol:
 
Zuletzt bearbeitet:
Tuetensuppe schrieb:
Damit befindest du dich im Irrtum. Der Verbraucher darf die Ware in einer Art und Weise nutzen bzw. testen, die über die Prüfung der Eigenschaften und der Funktionsweise nicht hinausgehen.

Eine Grafikkarte in deinen PC einbauen und einfach mal 14 Tage lang benutzen und dann zurückschicken widerspricht definitiv dem Rückgaberecht ;-)

Und wegen Hansel wie dir ist eben dieses Recht seit Juli nun eingeschränkt worden.


Wer sagt denn das ich sie 14 Tage lang testen will? Die landet morgen bei der Post :D
(da bin und bleib ich immer fair, wenn mir ein Produkt nicht ganz zusagt, und nutze das Produkt & Händler nicht)
Du sagst wegen solchen Hansel... :) Wenn du nur wüsstest welches Bestellvolumen ich habe. ;)
Wenn du soviel wie ich bestellen würdest, würdest auch vielleicht 2x mal überlegen.
(die Hersteller versprechen viel zu viel mit der Werbung, deswegen sollte schon ausgiebig getestet & überzeugt werden)

Damit will ich Sagen, bei der Menge und Auswahlmöglichkeiten an Produkten heutzutage,
nehme ich mir das Recht das Produkt ein paar Tage zu Testen, auf Stabilität & Systempassung etc...
Wie viele Montagsprodukte (aber gut geworbene) gibt es heutzutage im Handel? Das ist aber ein anderes Thema.

zu der Gpu, bin sowieso zu dem Entschluss gekommen, das die R9 280 zu wenig Leistung liefert,
und im Gegensatz zu viel Power abverlangt, denn du wusstest natürlich nicht, das meine
vorherige Karte eine Nvidia war, die wesentlich weniger Strom verbraucht. ;)

wenn ich die R9 280 Super finden würde, dann wäre ich sicherlich nicht in dieses Thread beigetreten. :)
d. bedeutet, ich war noch nicht zufrieden mit dem Produkt und habe nach was anderem Ausschau gehalten,
mit etwas mehr Leistung +15% und -20% Strom :D, ob das die R9 285 liefern kann, wir werden sehen.

P.S. eine andere Frage... wärst du bereit ein Minus machen wollen, wenn es dir klar vorzusehen ist,
das das gekaufte Produkt, bereits 2-3 Wochen nach Kauf 25%~35% günstiger erhältlich sein kann? :rolleyes::


Lg
 
Krethi & Plethi schrieb:
noch, kann sich aber schnell ändern, die entwickler werden bei den konsolen die CPU entlasten müßen, wenn sie das maximum aus der hardware holen wollen!

Du hast mich überzeugt. Ich werde mir so schnell wie möglich OpenGLOpenCL-optimierte Hardware kaufen um in x-xx Jahren, wenn OpenCL (vielleicht zusammen mit HURD?) das Maximum herausholt, nicht dumm da zu stehen.

Btt: Schade das die R9 275 nicht zuerst kommt, wäre meine bevorzugte Leistungsklasse.
 
Zuletzt bearbeitet:
SimsP schrieb:
Wieso ausdenken? Tatsache ist, dass CUDA im Gegensatz zu OpenCL ...

Das Zauberwort für GPGPU heisst weder CUDA noch OpenCL, sondern OpenMP. ;) Denn dort tut sich einiges...aber CUDA ist auch gut :p
 
Auf die Gefahr hin dass das jetzt vllt. zu sehr Off topic geht frage ich jetzt trotzdem mal wie gut OpenMP bei GPGPU computing wirklich ist. Ich dachte immer das wäre eher für die Programmierung von Rechenclustern geeignet.
 
Nein. Das stimmt so nicht. Es ist nicht nur für Cluster (in gewisser Weise ist ein Multi-Core Prozessor ein Cluster ;)).

Zb kann man damit hervorragend Schleifen parallelisieren (auf Mehrkernprozessoren). Ganz einfach per Compiler Direktive. Total bequem. Und OpenMP entwickelt sich halt in die Richtung, dass der Loop auch automatisch für eine eventuell vorhandene GPGPU kompiliert wird (im Einzelsystem).
 
Zuletzt bearbeitet:
Wieder was gelernt, danke! Dann muss ich mir OpenMP doch mal näher anschauen.
 
feris schrieb:
Solange Du Features bezahlst, die Du heute weder benutzt noch innerhalb der sehr nahen Zukunft mit einen existierenden Anwendungsfall benutzen wirst,
hat Du zuviel Geld ausgeben oder bist einfach unsicher in Deinem Handeln und kaufst aufgrund dieser Unsicherheit etwas in der Hoffnung es übermorgen nutzen zu können.

Vllt hätte ich bei deinem Beitrag auch was zum Lachen gehabt, würde dieser stimmen.

https://geizhals.at/de/?cat=gra16_512&xf=1440_R9+280X
280X (3GB GDDR5) ca 210 Euro

https://geizhals.at/de/?cat=gra16_512&xf=1439_GTX+770#xf_top
GTX 770 (2GB GDDR5) ca 250 Euro.

Verbrauch unterscheidet sich ca bei 50 Watt bei Crysis. Je nach Spiel unterscheidet sich das aber auch, denn bei Metro ist zum Beispiel das Gap kleiner.
Bei Crysis sind es sogar nur 20 Watt.

Die 280X ist nur ein Beispiel. Auffällig ist, dass sich der Verbrauch Unterschied nach unten reduziert. Aber wo wären wir, wenn nicht auf CB, wo die schnellsten Karten immer Stellvertretend für die ganze Geneartion ist. Wobei bei Maxwell ist das anders, da ist es offensichtlich umgekehrt, der klein Chips steht für die ganze Generation.
Dass es eine alte 7850 gibt, die ca bis 25% schneller ist, dabei nur 40 Watt mehr verbraucht, wird dann gern mal vergessen.

Der Vergleich der Wohnung klingt ja sehr amüsant, leider nicht passend. Denn ich zahle nicht mehr für die Grafikkarte.
Man könnte Stellvertretend vllt die Watt für Mietkosten nehmen und den Preis als Kaution oder so , aber von der Fläche, die die Wohnung hat, nehme ich keine Nachteile mit. Im Gegenteil, ich habe einen kleinen extra Raum, denn ich vllt mal nützten könnte, momentan aber noch kein Bedarf habe.
Ich könnte aber natürlich auch für weniger Raum (Features) mehr Kaution zahlen, dafür ist meine Miete etwas geringer.

Wieso aber das Beispiel völlig untauglich ist ? Naja, weil es auf die Person angeht, wie oft und wie sehr er seine GPU überhaupt auslastet. Miete muss ich monatlich zahlen.

Eine persönliche Frage von mir an dich, wieviel Stunden spielst du durchschnittlich am Tag oder besser in der Woche ?

PS: Falls deine Freundin eines Tages sagt, ich bin Schwanger, kannst du ja dir eine neue Wohnung (Grafikkarte) mieten (kaufen). Solange kannst du aber immer behaupten, nein, ich will keine Kinder :D und brauche das alles nicht :D ich will mein Cabrio :D
Aber ja, es ist durchaus eine Frage, was man gewillt ist zu zahlen und was man einschätzt zu brauchen.
Gibt unzählige Amerikaner die einen Atombunker haben, für einen Atom-Krieg der höchstwahrscheinlich nicht kommt.

Übrigens
Unsicherheit =/= Überzeugung

Müsste ich alles glauben, würde ich es nicht argumentieren und wenn eine R9 285 soviel verbraucht und gleich schnell ist wie eine 670 GTX, hat die 285 trotzdem eventuell mehr gpgpu Performance. Naja man wird es sehen, man weiß ja noch nicht, wie die Karte abschneidet auch in den gpgpu Benches.
 
Zuletzt bearbeitet:
Macht Ihr eigentlich bei allen Sachen die Ihr kauft so ein Theater wie bei Grafikkarten?
Oh eine neue Waschmaschine, die 1 Liter Wasser und 100 Watt weniger verbraucht! Muß ich haben. Ne ist von Miele und ich bin kein Fanboy von denen also kaufe ich die nicht.

Ich warte ab, bis etwas auf dem Markt ist und ich Testberichte lesen kann. Dann finde ich heraus, ob ich es kaufen möchte. So einfach kann das Leben sein.
 
@MikelMolto

Ich verstehe nicht, warum du diese Diskussion abwürgen willst.
Hier haben wir endlich handfeste Daten und es wird anhand dieser bestätigten Daten darüber spekuliert, was die Grafikkarte leistet und welches Perf./W zu erwarten ist.

Wenn es um Grafikkarten anderer Hersteller geht, bist du ganz anderer Ansicht und wirfst ohne Substanz irgendwelche Performanceschätzungen in den Raum, obwohl von offiziellen Daten weit und breit nichts zu lesen ist. Ich bin mal so frei und zitiere einige Beiträge, die deine gegenteilige Einstellung untermauern wenn es um zukünftige Karten anderer Hersteller geht:

MikelMolto schrieb:
Wenn die GTX 880 10%-15% schneller als die GTX780 ist aber weniger Strom verbraucht und etwas billiger als die GTX780 ist, dann passt das doch.
Irgendwann kommt halt eine GTX880Ti raus.

MikelMolto schrieb:
Wir betteln doch nach solchen News und häppchenweise geleakten Daten. Da kann man dann schön spekulieren und sich auf das Neue einstimmen.

Woher kommt dieser plötzliche Sinneswandel?
 
Also am besten jetz noch schnell eine R9 280 ergattern, bevor sie ausverkauft sind, oder?
 
Unbedingt! Schließlich steht der Winter vor der Tür und damit die Heizperiode.
 
@MikelMolto

Vorsicht! Grafikkartendiskussionen sind etwas ganz besonderes. Da wird man sehr leicht zum Flameopfer ;) Außerdem macht vielen die Diskussion um technische Details und Spekulationen mordsmäßig Spass.
 
SimsP schrieb:
Uiuiui also hier wird ja wieder ein Zeug zusammengedichtet, dass einem die Haare zu Berge stehen.
Zunächst mal GPGPU wird für Spiele nie direkt von Relevanz sein und TressFX hat mit GPGPU genau so viel zu tun wie HDR oder Tesselation nämlich erst mal gunnix. Mag sein, dass vllt. irgendwann Spieleengines auf die DoublePrecision Einheiten zugreifen werden, aber dann in einer weit entfernten Zukunft, wenn keiner mehr weiß was Kepler oder Tonga überhaupt ist. Momentan macht es einfach überhaupt keinen Sinn, weil eine so hohe Gleitkommagenauigkeit für Spiele einfach sinnfrei ist.
Nächster Punkt: Viele glauben offenbar immer noch NVidia habe bei Kepler die GPGPU Leistung gegenüber Fermi beschnitten, das stimmt so aber auch nicht ganz. Die Double Precision Leistung wurde bei GK104 beschnitten. Diese ist für Spiele aber wie gesagt komplett egal und da GeForce Karten seit jeher genau dafür gut sein sollen verstehe ich die Aufregung nicht ganz. Wer ernsthaft GPGPU Computing betreiben will und die DP Rechenleistung wirklich braucht hat genug Geld um sich eine Tesla oder FirePro anzuschaffen.

Zur R9 285: Mit Glück in etwa auf Augenhöhe mit einer GTX680 und vllt. minimal sparsamer so schätze ich die Karte mal ein. Für Maxwell noch kein wirklicher Gegner.

Seit wann ist Gpgpu auf DP beschränkt? Es existieren genug Anwendungen die auch auf Sp setzen und auch dort ist gk104 massiv beschnitten worden. Metro 2033 lief nicht ohne Grund mit einer 7970 um einiges besser als mit einer 680gtx bei aktiviertem Dof um gleich mal ein Beispiel für die Anwendung in Spielen zu nennen
 
GPGPU wird vor allem im wissenschaftlichen und kommerziellen Bereich eingesetzt, und hier ist nun mal DP gefragt, nicht SP. Bei PC Spielen ist eine DP Berechnung hingegen überflüssig, ja sogar schädlich.
 
Es ist je nach Anwendungsfall sowohl DP als auch SP gefragt! Und wieso du GPGPU (in Spielen) nur auf DP beschränkst erschliesst sich mir hier nicht?
 
Um ein Kontra Argument darbieten zu können, welches keines ist. Als würde Gpgpu nur zu wissenschaftlichen Zwecken gedienlich sein. Ich entwickel damit die Rohdaten meiner Dslr deutlich beschleunigt, DP ist da nicht gefragt.
 
Zurück
Oben