News AMD Radeon RX 6300: 32-Watt-Grafikkarte mit 32-Bit-Interface kostet 55 Euro

  • Gefällt mir
Reaktionen: R O G E R
Weyoun schrieb:
32 Bit Speicherinterface? Sind da nicht bereits die internen Grafik-Chips der größten AMD APUs insgesamt leistungsfähiger?
Naja, selbst DDR5 6400 bietet "nur" 51GB/s pro DIMM. Die 6300 hat zwar auch nur 64GB/s, dafür muss sie sich das nicht mit einer CPU teilen und hat noch einen (winzigen) infinity cache.
Die APUs würden wohl eher aufgrund der Speichermenge davon ziehen, nicht aufgrund der Bandbreite.
mykoma schrieb:
vor allem weil die Decoder/Encoder fehlen.
Decoder fehlt "nur" AV1, der Rest ist vorhanden.
Encoder interessiert nur einen kleinen Kundenkreis.
NMA schrieb:
Schade auch, dass "nur" zwei Displayausgänge zum Einsatz kommen.
Der Display Controller von Navi24 kann einfach leider nicht mehr.
 
  • Gefällt mir
Reaktionen: Sam Miles, andi_sco, Oberst08 und 2 andere
Solche "Konstrukte" scheinen in China generell populär zu sein. Die Löten auch Notebook CPUs auf Desktop Mainboards auf.
Hatte das auch schon bei Linus Tech Tips und anderen Youtubern gesehen.
Für Office Rechner sicherlich nicht schlecht und stromsparend.
 
guggi4 schrieb:
Die APUs würden wohl eher aufgrund der Speichermenge davon ziehen, nicht aufgrund der Bandbreite.
Stimmt, die Speichermenge habe ich ebenfalls gemeint, aber nicht aufgeschrieben. ;)
 
Alphanerd schrieb:
Heute kam ja die Nachricht, dass es die kleinste ARC für ca 150€ gibt. Das ist ja trotz aller Probleme doch schon kein schlechtes Angebot.
Trotzdem tue ich mir schwer für ein 96Bit Speicherinterface 150€ zu bezahlen.
Wenn man bedenkt das mein eine AMD Polaris Karte mit 256Bit vor dem Kryptohype für 110€ bekommen hat.
 
  • Gefällt mir
Reaktionen: Alphanerd
Crysis will 256MB RAM und eine 9800pro bzw. 6800GT. Das Ding hier gewinnt selbst mit der doppelten Speicherbandbreite. 2007 ist nicht so schwer zu schlagen.
 
  • Gefällt mir
Reaktionen: [wege]mini
flappes schrieb:
Mich stören nur die 2 Ausgänge, mein Arbeitstier hat 3 Monitore und laut Beschreibungen unterstützt keiner Daisy Chaining, wohlgemerkt alles Geräte der letzten 4 Jahre. Warum man nicht 3 Anschlüsse macht ist mir ein Rätsel.

Die Auswahl an halbwegs flotten Desktopkarten zum kleinen Preis mit 3 Anschlüssen ist mager, hab noch ne Olle 560, die merklich über einer 1030 liegt zumindest bei mir unter Linux, laut Specs sind ja fast gleich.

Sonst ist AMD ja nicht geizig mit der Anzahl, aber bei der 6er Serie sind die unteren Modelle alle beschnitten.
Wenn die Karte selbst Daisy-Chaining kann: Es gibt Adapter DP (mit Daisy Chain) auf z.B. 2x HDMI. Habe ich selbst im Einsatz ;)
 
Vitche schrieb:
Die Radeon RX 6300 wäre aber auch keine solche, sondern stünde als Multimedia-Grafikkarte mit Unterstützung für 8K-Bildausgabe bei 60 Hertz sowie hardwarebeschleunigter H.264-, H.265- und HEVC-Dekodierung vielmehr in Konkurrenz zu Nvidias GeForce GT 1030 (Test) oder GeForce GT 1050 (Test) und hätte dabei den Bonus einer niedrigeren Leistungsaufnahme.
Also das mit der Leistungsaufnahme stimmt nur im Bezug zur 1050 (da fehlt übrigens ein X, denn es ist eine GTX), denn die GT 1030 hatte auch eine TDP von nur 30W (die DDR4 Variante hatte sogar 25W).

Könnt Ihr eine Tabelle machen, die die Daten der RX 6300 und der GT 1030 und GTX 1050 gegenüber stellt? Denn laut Techpowerup hat die GT 1030 ein 64 bit Interface und für das eine oder andere Spiel in Full HD reicht die Karte definitiv. Hat die RX6300 Encoder und Decoder? Wenn ja, wäre das zumindest ein Pluspunkt im Vergleich zur GT 1030, die ja weder Encoder noch Decoder hat. Die Shader und Co. scheinen auch 2 mal so groß zu sein im Vergleich zur GT 1030.
 
Da wird man beim Anblick richtig nostalgisch. Macht nur leider wenig Sinn, wenn APUs genauso viele CUs haben und effizienter sind.
 
guggi4 schrieb:
Naja, selbst DDR5 6400 bietet "nur" 51GB/s pro DIMM. Die 6300 hat zwar auch nur 64GB/s, dafür muss sie sich das nicht mit einer CPU teilen und hat noch einen (winzigen) infinity cache.
Die APUs würden wohl eher aufgrund der Speichermenge davon ziehen, nicht aufgrund der Bandbreite.
Wobei die APUs halt für den Infinity Cache nen meist recht großen L3 Cache haben.
 
Wenn ich mich nicht irre ist der L3 allerdings CPU exklusiv.
Bei den ARM SoCs gibt es deswegen zusätzlich zum L2/L3 oft noch einen System Level Cache, auf den dann auch GPU, NPU etc Zugriff haben
 
  • Gefällt mir
Reaktionen: NMA
[wege]mini schrieb:
Jupp, der Lüfter wundert mich auch. Dafür konnte man zwar am Kühler sparen, aber ob das wirklich Sinn ergibt, kann nur der für das Produkt verantwortliche Controller sagen.
Ich würde ja eher sagen der BWLer meinte man könnte Ressourcen sparen auf Kosten der Lautstärke. ;)
 
  • Gefällt mir
Reaktionen: [wege]mini
[wege]mini schrieb:
Für die Zielgruppe in Asien kein schlechtes Produkt.

Wenn dir deine alte PopelGPU abraucht, das 10 Jahre alte Board mit CPU und RAM aber noch funktioniert, kauft man einfach für 50 Euronen eine neue mit Rechnung und Garantie und das alte Restsystem lebt, bis es stirbt.
Und warum sollte man für irgendein olles System unbedingt Neuware mit Garantie kaufen?
Da kann man doch bei der GPU ebenfalls auf was gebrauchtes setzen, was man günstiger bekommt.

In irgendwelche uralten Rechner Neuware zu verbauen, finde ich immer total bescheuert.
 
mifritscher schrieb:
Wenn die Karte selbst Daisy-Chaining kann:
Kann sie, aber sie kann insgesamt nur 2 Anzeigeflächen verwalten. Wenn man über den DP zwei Monitore betreibt, bleibt beim HDMI-Port der Bildschirm dunkel.
BrollyLSSJ schrieb:
Wenn ja, wäre das zumindest ein Pluspunkt im Vergleich zur GT 1030, die ja weder Encoder noch Decoder hat.
Die GT1030 hat auch Decoder und unterstütz dieselben Codecs wie die RX6300.
 
  • Gefällt mir
Reaktionen: NMA
Zwar sinkt die Rechenleistung nur von rund 3,6 TFLOPS auf 3,1 TFLOPS; spieletauglich wäre die neue kleinste RDNA-2-Grafikkarte aber somit nicht.
Geringere TFLOPS als derzeitige Mainstream dGPUs bedeutet also nicht "spieletauglich"? Die SteamDeck APU hat was, 1,6 TFLOPS?
 
  • Gefällt mir
Reaktionen: franzerich
TP555 schrieb:
Voodoo 1 , Riva TNT , GeForce 2 MX
Eigentlich keine von denen. Wobei es auch immer wieder Karten mit 64 oder eben 32 Bit SI gab.
Ergänzung ()

flappes schrieb:
Mich stören nur die 2 Ausgänge
Liegt halt an der Herkunft: Laptop
 
@Vitche
Erschwerend kommt hinzu, dass AMD angeblich auch den Infinity Cache der Radeon RX 6300 gestutzt hat: Aus 16 MB L2-Cache bei der RX 6400 werden derer nur noch 8 MB.
Wenn das Interface auf 32bit (auf 50%) gestutzt wurde, wird auch der Infinity Cache mindesten auf 8MB (auf 50%) gestutzt.
BTW: L3-Cache, nicht L2-Cache!
 
  • Gefällt mir
Reaktionen: Vitche
Also ich bin irgendwie entäuscht. Ne Gtx 750 ti hat mehr leistung als diese gpu hier. Ich genieße also schon mehr leistung. Und spielte schon mit Gedanken entlich mal ne neue zu kaufen mit ner Gt 1030. Aber diese ist leicht schlechter als ne Gtx 750 ti. Und mit ner ryzen System mit onboard fahre ich mit ner ähnlichen leistung. Habe zwar mit ner Gtx 1650 eine gpu mit mehr leistung aber diese rufe ich nicht ganz ab. Also laste die gpu nicht voll aus. Werde der Leistung also nicht gerecht. Und da ich ja auf full hd bleiben will für immer, ist es OK. Naja zumindest ist es schon mal die richtige richtung. Finde es echt schade das die 75 Watt und weniger immer mehr aussterben.
Nun ja inzwischen habe ich einen PC nur noch onboard gpu in Verwendung. Handelt sich um einen i7 3770k mit 16 gb ddr3. Da könnte ich mir so eine gpu durchaus vorstellen. Als Bildschirm hängt ein 1680x1050 dran. Also das dürfte diese gpu wohl echt gut packen. Wenn nicht wird halt dann in 720p runter gestellt. Ist denke ich mal kein großer Verlust bei der Auflösung.
 
Zurück
Oben