News Wochenrück- und Ausblick: RX 5600 XT mit neuem BIOS und Xbox mit weniger HDMI

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.629
  • Gefällt mir
Reaktionen: aid0nex, [wege]mini und Brian.Griffin
Windows 95 war einfach ein guter Anfang.
Bei mir ist es eigentlich nie abgesürzt (außer bei bestimmten Spielen).
DAS waren noch Zeiten!
 
@Wolfgang Bei der Xbox Series X wurde der HDMI-Eingang entfernt! ;)
 
  • Gefällt mir
Reaktionen: flo.murr, Alcbottle, fox40phil und eine weitere Person
Bitte besser recherchieren? Die Xbox hatte noch NIE mehrere HDMI Ausgänge. Wie oben erwähnt handelte es sich um einen HDMI Eingang um Signale anderer Geräte durchzuschleifen ...
 
  • Gefällt mir
Reaktionen: flo.murr
Wieviele Leute haben denn in real beide HDMI-Buchsen an der Xbox benutzt? 1% der User? absolut unnötig, und wurde auch nur dank deren TVTVTV Strategie gefahren, von der sie hoffentlic jetzt weg sind. FÜr die freigewordenen paar Cent in der Fertigung könnte man bessere Wärmeleitpase benutzen, damit der Lüfter flüsterleise bleibt.
 
pukem0n schrieb:
FÜr die freigewordenen paar Cent in der Fertigung könnte man bessere Wärmeleitpase benutzen, damit der Lüfter flüsterleise bleibt.

Als ob, die paar Cent behalten die lieber!
 
Man sollte vielleicht noch erwähnen, dass es dann nicht nur Grafikkarten mit unterschiedlichen BIOS Versionen gibt, sondern auch unterschiedlich leistungsstarke Bauteile (z.B. haben spätere Kühler wieder 2 statt 1 Heatpipe), Stabilitätsprobleme bei speicherintensiven Spielen inklusive. Wäre echt interessant, in welcher chronologischen Reihenfolge die Preissenkung von Nvidia und wiederum die BIOS Entscheidung von AMD getroffen wurde...
 
Palmdale schrieb:
Man sollte vielleicht noch erwähnen, dass es dann nicht nur Grafikkarten mit unterschiedlichen BIOS Versionen gibt, sondern auch unterschiedlich leistungsstarke Bauteile (z.B. haben spätere Kühler wieder 2 statt 1 Heatpipe), Stabilitätsprobleme bei speicherintensiven Spielen inklusive.



1580045433230.png


Wenn man sich die Tabelle mal genau anschaut, gibt es nur 6 Karten mit hohem Clock + 14 Gb/s Speicher.

D.h. alle Karten außer 4 weiteren werden schlechter abschneiden als die Sapphire Pulse und Gigabyte Gaming, die AMD als Review-Karten rausgegeben hatte.

Der Grund ist ziemlich klar: die einzigen Karten, welche die 2060 um ein paar Prozent schlagen, sind diese 6. Alles ohne 14 Gb/s kann man ohnehin vergessen, weil im Speicherlimit, der Takt ist da fast schon egal.

MSI hat Stellung dazu bezogen, warum nicht jede Karte ein 14 Gb/s BIOS erhält. Der Grund ist, dass die verwendeten Chips nicht wie zuerst überall berichtet ohnehin für 14 Gb/s validiert wurden, sondern manche Board-Partner (z.B. MSI, Asus) tatsächlich 12 Gb/s Chips bekommen haben. Das erklärt auch Igors Berichterstattung, der Karten hatte, bei denen er den Speicher auf 13,6 Gb/s zurückdrehen musste, bis sie stabil waren.
 
  • Gefällt mir
Reaktionen: [wege]mini
KlaasKersting schrieb:
Alles ohne 14 Gb/s kann man ohnehin vergessen, weil im Speicherlimit, der Takt ist da fast schon egal.

Um genau zu sein sollte man sagen: Bei 130 Watt Verbrauch (von AMD vorgesehen) kann man am meisten durch OC gewinnen, wenn man den Speicher übertaktet.

Das kostet dann aber auch gleich wieder ordentlich Strom (locker 30 Watt) und der Speicher ist im Einkauf deutlich teurer.

mMn kommt man aber trotzdem knapp mit jeder 08/15 Karte an einer 2060 vorbei, wenn man nur den Chip auf 1750Mhz betreibt. Das können alle und man verballert nur 20 Watt mehr.

Ab 180 Watt wird die Karte aber sowieso unvernünftig (am Anschlag), da würde sich eine rx5700 mehr lohnen.

mfg

p.s.

Da bei mir Graka´s nur 100 Watt verbrauchen dürfen, rechne ich immer nur in FPS/Watt....Die 5600er kommt durch den kleinen Ram an der GTX1070 vorbei. Respekt für diese Leistung. Leider nur mit 6GB RAM, statt den 8GB bei der 1070.

mal schauen, was Ampere abliefert. Die Vorzeichen sind aber mehr als Hammer.
 
Zuletzt bearbeitet:
12 Gbps-Speicher ist teurer als 14 Gbps (Bestellmengen!) und die Gaming, sowie Gaming X teilen sich die selbe Platine mit identischer Bestückung.

Die Karten mit Problemen beim Speicher waren übrigens alles Karten mit 14-Gbps-Chips. Nicht nur ich sehe das Problem eher beim Chip selbst. Die Qualität scheint teilweise einfach nicht gut genug zu sein. Ich habe mir den Spaß gemacht und heute mal eine RTX 2060 Gaming X gegen eine RX 5700 Gaming X zu testen - mit maximalem OC. Auf beiden Karten ist der gleiche 14er RAM drauf (D9WCW). Die RX 5600 XT läuft nur bedingt stabil bei 1750 MHz, die RTX 2060 lässt sich sogar noch mit 1950 MHz betreiben.

Die Liste oben ist nicht korrekt. ich habe so einige der unter 12 Gbps aufgeführten Karten hier, die alle 14 Gpbs Module haben. Ich weiß wirklich nicht, wo solche Fehlinformationen herkommen.
 
@FormatC
Solange es keine Garantie gibt, dass entsprechende 14Gbit/s Module verbaut sind, ist die Nutzung von 12Gbit/s Modulen möglich und wird früher oder später in Produkten auch zu finden sein - auch wenn das bei aktuellen Testexemplaren nicht der Fall gewesen ist. Alles andere ist Spekulation gepaart mit Hoffnung.

Wenn selbst die 14Gbit/s Chips nicht vollumfänglich stabil mit eben diesem Takt laufen, zeigt das doch ganz deutlich: Die RX 5600XT ist eine absolute Gummikarte, die mehr denn je von der jeweiligen Implementierung der Partner abhängig ist. Sowas kennt man normalerweise nur von irgendwelchen OEM Produkten, wo wahlweise GDDR5 oder DDR Speicher eingesetzt werden kann und auch beim Takt enorme Varianz herrscht.

Vor allem für den Preis völlig unattraktiv, da kann ich mir eine RTX 2060 kaufen, die liefert dann auch das, was ich von ihr erwarte - ohne die Notwendigkeit irgendwelche Chargen im Netz nachzuprüfen oder selbst BIOS-Updates durchzuführen. Oder eine RX 5700 aus dem eigenen Haus, die das deutlich rundere Gesamtpaket für nur geringfügig höheren Preis darstellt.
 
Zuletzt bearbeitet:
Zurück
Oben