News Radeon RX 480: 18-cm-Platine, 60 °C unter Last, DVI als Option

Ap2000 schrieb:
War nicht als Witz gedacht.
Mir ist seit längerem schon keiner mehr mit VGA untergekommen.

keine? Geizhals filtert selbst bei 4k UHD noch über 100 Geräte mit VGA aus, wenn man die normalen Geräte dazu nimmt sind das noch mal einige Hundert Modelle, selbst den uralten analogen SCART Anschluss findet man ja noch
 
Vielleicht wären ja 2x 480 für mich eine Lösung. Gibt es nachteile fäbei crossfire?
 
Gleipnir schrieb:
keine? Geizhals filtert selbst bei 4k UHD noch über 100 Geräte mit VGA aus, wenn man die normalen Geräte dazu nimmt sind das noch mal einige Hundert Modelle, selbst den uralten analogen SCART Anschluss findet man ja noch

Was ansich schon traurig ist weil zum einen Bilder über Scart einfach grauenhaft sind (da bietet auch SD fernsehen noch mehr genuss) und zum anderen bedeuten VGA anschlüsse an TVs das meistens PCs über HDMI nur schlecht unterstützt werden und das Bild oft ziemlich grauenhaft ist ^^
 
Wadenbeisser schrieb:
@ ampre
Wenn ich mich recht erinnere ist der obere Teil das was Maxwell könnte wenn die Software Ansteuerung nicht zu lahm wäre. Deshalb verliert er ja auch an Leistung beim Einsatz von Async Compute.
Ergänzung ()

@ampre
Ach wo ich jetzt noch dein Edit mit den beiden Zitaten lese....da steht auch nichts anderes drin als das was ich bereits schrieb.
DX11 kann nur 1-2 CPU Kerne für die graphics pipeline nutzen udn dadurch wird die GPU limitiert. Mehr ist dann mit Mantle, Vulcan und DX12 möglich, die Last wird also auf mehr CPU Kerne verteilt und diese können die GPU dann besser mit Daten füttern.

Ah also gibst du jetzt doch zu das DX11 dran schuld ist :D Und nein die Hardware ist nicht egal. Weil sie bestimmt wie viele CPU Kerne wo was abgeben können.

Wadenbeisser schrieb:
@ampre
Die Architektur der Hardware dürfte für die DX11 Problematik halbwegs egal sein, das Problem ist die Lastverteilung auf die CPU Kerne.
Ein Problem das bei den low level APIs deutlich besser beherrschen.
 
Zuletzt bearbeitet:
Geht das? (1920x1080)
Monitor mit DVI-D -> DVI-D Kabel -> DVI-I zu HDMI Adapter
Sry für die blöde Frage :D
 
DrToxic schrieb:
Ich dachte, das ist einfach ein typischer Radiallüfter? Sprich: Ansaugung innen und warme Abluft wird nach draußen gedrückt?

:) ich meinte nicht von hinten ins Case sondern von der Karte Oberseite und Unterseite.

@Ampre

Es ist selten nur ein Faktor schuld. Es ist sowohl DX11 als auch AMDs Treiber als auch die Architektur zb der Ace schuld. Wenn Polaris nun unter DX11 deutlich besser performt als man erwarten müsste liegts wohl weniger am Treiber oder DX11 sondern eher an der Entfernung von Flaschenhälsen im Chip selbst.

Wenn man sich die Auslastung der CPU aber teils anschaut sieht man dass bei AMD schneller ein Limit auf einem Thread auftritt. Nvidia hat wohl einen smarten Weg gefunden dass damals gut zu umschiffen und vielleicht skaliert deren Architektur durch serieller Auslegung vielleicht generell besser mit DX11.

Ganz eindeutig wird man das kaum sagen können, ein Unterschied ist aktuell feststellbar und ich hoffe dass Polaris auch unter DX11 rockt und Dinge besser macht als bisher. Bis DX12 Verbreitung findet und auch Games davon profitieren, in einem Umfang der In DX11 nicht machbar wäre, wird man wohl bereits die nächste GPU holen müssen.
 
Zuletzt bearbeitet:
@ampre
Was schreibst du da für einen Blödsinn? Ich schrieb von Anfang an das der DX12 Performance Sprung der Radeons in den Unzulänglichkeiten von DX11 begründet ist welche nvidia nur besser umschiffen konnte....wie auch immer.
Was glaubst du wohl woher bei DX11 die höhere CPU Last bei der höheren Framerate für die Geforce Karten kommt? Testet nur praktisch niemand weil niemand hinterfragt woher der Unterschied kommt.

@Shelung
Das hat herzlich wenig mit einem VGA Anschluss zu tuen da dieser nur eine begrenzte Auflösung bietet.
Wenn das Bild schlecht ist dann liegt das einfach daran das TV Geräte vor allem in der unteren Preisklasse ganz einfach nicht als Monitor Ersatz taugen.

@Krautmaster
Da habe ich wenig Hoffnung da die Zukunft zu den lower level APIs geht und das Problem so mit der Zeit rauswächst.
 
Du missverstehst mich wohl.
Ich meinte das viele TVs über VGA ein gutes Full HD Bild liefern während sie über HDMI grauenhafte Bilder zeigen.
Bei manchen TVs gibt es dann extra einen PC Modus auf den man umschaltet aber bei vielen wird das grundsätzlich weggelassen...
 
Wie ich schon schrieb sind TVs nicht für den Monitor Betrieb gedacht und das sieht man dem Bild vor allem aus der Nähe auch nur allso gern an.
Ich habe mit dem Thema auch schon meine Erfahrungen machen dürfen.
Die Dinger sind für die Betrachtung aus der Ferne gebaut udn das macht sich nur allso gern beim Aufbau der Pixel bemerkbar.
Die einzigen Geräte die mich so halbwegs überzeugen konnten lagen eher am oberen Ende der Preisskala...
 
2x Display Port, 1x DVI-D und 1x HDMI hätte es auch getan. Da werden Partner sicherlich was dran machen.
 
Huhu

Ich habe 3 Bildschirme angeschlossen das wären

lg 24gm77 als Hauptmonitor

2x Samsung SyncMaster 226BW als Nebenmonitore

kann mir jemand nettes verraten welche Displayport adapter ich dazu kaufen sollte?
 
ZeroN2K schrieb:
Huhu

Ich habe 3 Bildschirme angeschlossen das wären

lg 24gm77 als Hauptmonitor

2x Samsung SyncMaster 226BW als Nebenmonitore

kann mir jemand nettes verraten welche Displayport adapter ich dazu kaufen sollte?

Für den LG gar keins, denn er hat nativ DP.
Für die ollen Samsungs reicht je ein DP zu DVI-D Kabel.
 
Wenn die wirklich so "Kühl" ist kaufe ich mir das Referenz Design da spart man dann auch 20€ da sind mir die 5-10° Kühler egal.
 
Wenn das ding schon mitm simplen Alu-Kupferkern Kühler grad mal ~70C° erreicht dann sinds wirklich nur irgend was um die 90-100W.
mit 50W extra sind gut 200-300Mhz OC drin, macht wohl aber der Kühler nicht mehr mit.
Und Siliconlottery vorausgesetzt...
wenn die 480 Ref PCB 1400mhz in der breiten Masse mitmacht bin ich dabei!

zuviele wenns! 29ter wo bleibst du! :S
 
v_ossi schrieb:
Bevor sich hier gleich eh wieder alle die Köpfe einschlagen, kann mir irgendwer sagen, warum die letzten AMD Designs so kurz sind? Erst die Fury (Nano) und jetzt offensichtlich die RX 480. Fehlt da im Vergleich zu den NVidia Gegenstücken was? :D

Naja die Platine ist kürzer weil natürlich der CHIP durch die kleinere Fertigung kleiner geworden ist und nicht mehr so viel Strom brauch etc. Das verringert Kondensatorgrößen usw.

Außerdem ist die RX 480 ja lange nicht so Leistungsfähig wie die GTX 1080 deswegen kann man sie kleiner bauen
 
Zurück
Oben