News Neue AMD-Grafikkarte für Sommer 2014 vorgesehen

Wenn Sie an der Leistung arbeiten und die Lautstärke runterkriegen schaue ich sie mir vielleicht mal an - auch das Spieleprogramm könnte wieder etwas interessanter werden. Effizienz ist ganz nett, aber da ich sowieso meistens die höhere Klassen kaufe nicht das wichtigste Thema. Wenn davon nichts erfüllt wird warte ich halt oder schaue mal wieder bei Nvidia vorbei.
 
am besten sie bringen noch eine günstige variante der 295x2... damit hätte nvidia dann wohl auch nicht gerechnet.
 
Nvidia könnte auf der Titan Z Basis noch eine Dual GTX 780 mit 2x6GB bringen. Könnten sie mit B1 Chips sogar locker bei 1000Mhz laufen lassen. Das wär der Knüller..... (für 699€) :)
 
Pumpi schrieb:
Nvidia könnte auf der Titan Z Basis noch eine Dual GTX 780 mit 2x6GB bringen. Könnten sie mit B1 Chips sogar locker bei 1000Mhz laufen lassen. Das wär der Knüller..... (für 699€) :)
Wahrscheinlicher eine Titan Z ultra für 6999€ ;)
 
R9 295X1 hatte ich ja schon vorhergesagt :D
 
Ob der Sommer so eine gute Wahl für ein neues AMD Flagschiff ist, ich weiß ja nicht ;)
 
Statt diesem sinnlosen Streben nach mehr Leistung, sollte sich AMD lieber mal um eine geringere Leistungsaufnahme bemühen. Gerade im mittleren Leistungssegment sind aktuelle NVidia Karten ne gute Ecke effizienter.
 
Ich nehme an, dass der neue 28nm Prozess von GlobalFoundries genutzt wird, welcher bereits bei Mullins/Beema eingesetzt wird. Wenn das möglich wäre, könnte man eventuell ohne große Änderungen eine effizientere 290x herstellen (und dann ggbf einfach hochtakten)
 
Also wenn NV noch dieses jahr Maxwell mit 28nm bringt und DX12 ähliche ergebnisse wie Mantle erziehlt. Muss AMD neue Karten bringen oder halt damit leben das dann keiner mehr AMD karten kauft.
 
Morrich schrieb:
Statt diesem sinnlosen Streben nach mehr Leistung, sollte sich AMD lieber mal um eine geringere Leistungsaufnahme bemühen. Gerade im mittleren Leistungssegment sind aktuelle NVidia Karten ne gute Ecke effizienter.

Wo?
 
Morrich schrieb:
Statt diesem sinnlosen Streben nach mehr Leistung, sollte sich AMD lieber mal um eine geringere Leistungsaufnahme bemühen. Gerade im mittleren Leistungssegment sind aktuelle NVidia Karten ne gute Ecke effizienter.


Ich weiß nicht, welche Karten du im Besonderen meinst - wenn man von der Maxwell-basierten GTX 750 (Ti) mal absieht, die in der Tat sehr effizient ist, stehen gerade AMDs Mittelklasse-Karten R7 260X und R9 270X in diesem Bereich nicht schlecht da. Nach oben hin skaliert GCN dann eben etwas schlechter, wie die stärkeren R9-Karten beweisen. Ich halte das allerdings eher für ein Problem des High-End-Segmentes - und solange hier anständig gekühlt wird, werden diese Umstände dem Käufer nicht selten recht egal sein, wenn er sich in diesem Bereich umsieht.

Was AMD wirklich schadet, ist der bessere Ruf, den Nvidia aus für mich unerfindlichen Gründen immer noch innehat. Vielfach scheinen die Fehler der Vergangenheit hier im Gedächtnis geblieben zu sein (HD 2900 XT bspw.), während Nvidias Fermi und das endlose Verschleppen technischer Neuerungen infolge der Geforce 8-Generation (8, 9 und GTX 200 mit vergleichbarer Architektur bei lediglich erhöhtem Materialaufwand, insb. bei letzterer Generation und ewiges Wiederverwerten des G92) offenbar wohlwollend vergessen wird.

Heutzutage unterscheidet man sich eigentlich hauptsächlich an Stromverbrauch und Preis, wobei nur ersteres zulasten AMDs geht ...
 
Es möge wie immer der Bessere gewinnen.
Und derjenige wird mir auch seine Karte verkaufen dürfen. Derzeit würde ich mich noch für eine AMD Karte entscheiden, die 290 Vapor-X von Sapphire. Da passt mir alles, der Preis ist noch grade so zu verschmerzen.
Die Jungs sollten aber mal zusehen, dass ihr Referenzdesign schon was hergibt - bei der R290 der Totalausfall!

Ansonsten klare Sache für uns Konsumenten, solange NV und AMD im ständigen Schlagabtausch stehen, nur gut für uns. Wie das sonst aussehen würde, sieht man ja in der Prozessorensparte, wo ich derzeit auch defintiv zum Intel greifen würde, weil AMD nicht wirklich ein Konkurrenzfähiges Produkt am Markt hat.
Eigentlich sehr schade, denn Intel weiß sein beinahe-"Monopol" schon auszunutzen. Siehe Haswell Aufguß.
 
Zuletzt bearbeitet:
Bezüglich des Stromverbrauchs muss man differenzieren. Während im 1 Monitorbetrieb kein großer Unterschied auszumachen ist, wird der Unterschied mit zunehmender Anzahl an Bildschirmen immer größer. Wenn man dann im Diagramm Richtung High End schaut: https://www.computerbase.de/2013-12/amd-radeon-r7-260-test/6/
Dann wird der Unterschied nahezu gewaltig und kann somit unter Umständen den Nvidia Preisaufschlag etwas relativieren. In meinem Fall trifft das so zu.
 
Na das wird lustig, so wie die Generation fressen die dann noch mehr Strom oder ? AMD Karten wirken mittlerweile irgendwie wie russische Traktoren.. klar die sind robust/stark ohne Ende aber fressen viel zu viel Energie.
 
Naja das die AMDs viel zu viel Strom fressen würde ich nicht sagen. Ja die NV sind oft etwas sparsamer aber in sachen P/L können die grade nicht mit den AMD karten mithalten ich würde grade z.b. eine R9 290 nehmen. Das problem bei AMD ist die total schlechte standart kühlung. Vote 4 2,5 slot kühler sind wir mal ganz ehrlich es macht eh keinen sinn direkt und die graka noch ne Zusatzkarte zu Stecken
 
Smagjus schrieb:
Während im 1 Monitorbetrieb kein großer Unterschied auszumachen ist, wird der Unterschied mit zunehmender Anzahl an Bildschirmen immer größer.
Wenn man dann im Diagramm Richtung High End schaut: https://www.computerbase.de/2013-12/amd-radeon-r7-260-test/6/

Da muss man aber auch wieder differenzieren.

Bei AMD geht der Verbrauch mit mehreren Monitoren hoch, wenn es sich um unterschiedliche Modelle (verschiedenen Auflösungen/Frequenzen usw.) handelt. Und Computerbase testet mit so einem Szenario. Wenn man aber gleiche Monitore verwendet, schneidet AMD nicht mehr so schlecht ab.

Man kann darüber streiten, was das realistischere Szenario ist. Das von CB gestetete wäre z.B., wenn man sich einen neuen, besseren Monitor kauft und den alten als Zweitmonitor weiter benutzt. Aber es gibt auch viele, die kaufen sich direkt zwei oder drei identische Monitore, z.B. auch für Eyefinity oder Surround-Gaming.
 
Daher wahrscheinlich das Verbot seitens AMD die R9290X mit 8GB zu verkaufen.

Schätze die "neue" positioniert sich gegen die Black mit ordentlich Aufpreis, 8GB Speicher und geringer Mehrleistung. Nvidia machts vor AMD machts nach. Großes Kino falls meine Vermutung zutrifft.
 
Morrich schrieb:
Statt diesem sinnlosen Streben nach mehr Leistung, sollte sich AMD lieber mal um eine geringere Leistungsaufnahme bemühen. Gerade im mittleren Leistungssegment sind aktuelle NVidia Karten ne gute Ecke effizienter.

Meiner Meinung nach unterscheiden sich die Chips von AMD und NVidia in Sachen Effizienz nicht sonderlich. Mag sein, das NVidia immer eine Nasenspitze voraus ist, aber bemerkenswerte Unterschiede gibt wohl nicht. Allerdings bekommt es AMD irgendwie nicht gebacken ihre Referenzkarten mit einem ordentlichen Kühlkonzept auszuliefern. Dadurch kommt es immer wieder zu starker Hitzeentwicklung und in Folge dessen zu hohen Leckströmen. Und da die Referenzkarten normalerweise als erstes getestet werden, wenn eine neue Karte auf dem Markt kommt, entsteht sofort ein erster schlechter Eindruck in Sachen Temperatur, Stromaufnahme und Lautstärke. Und so einen Makel bzw. schlechten Ruf wieder weg zu bekommen ist halt schwer. Grafikkarten, die nicht auf dem Referenzkühler aufbauen, schneiden normalerweise schon deutlich besser ab.

Was ein "richtiger" Kühler zu leisten vermag zeigt der Raijintek Morpheus im Test bei Tom´s Hardware. 20 °C geringere Kerntemperatur, 10 dB(A) geringere Lautstärke und 30 Watt geringere Verlustleistung (alle Werte "über den Daumen gepeilt").

Dummerweise sieht der Kühler aus wie ein Kühler und nicht wie eine Designerdeko mit Leuchteffekten. Das kommt wohl bei den Kunden heutzutage nicht an. Den Trend eine Grafikkarten nach dem optischen Aussehen zu kaufen, werde ich aber wohl nie verstehen.
 
@Smagjus
Hallo zusammen !
Wie im Link schon von dir zu sehen ist erkläre mir mal bitte wieso die Nvidia High End Karten im 3 Monitor Betrieb mehr verbrauchen als die AMD ? Oder sagtests du nicht das Nvidia da mehr Strom spart ?
Für das nachzusehen einfach das + Zeichen bei 3 Monitor Betrieb anklicken.

P.S. Ich rede da von der 3 Monitor Blu-ray wiedergabe
 
Zuletzt bearbeitet:
Zurück
Oben