News DICE zeigt vermeintliche „Hawaii“-Grafikkarte

nVVater schrieb:
immer diese radial Lüfter, wenn sie wenigstens zwei von solchen Lüfter verbauen würden dann wäre es deutlich leiser und deutlich kühler.

die radial kühler sind von der wärme Abführung das effizienteste
 
schöne karte. das layout gefällt

wenn man da an die gtx 670 refrenz zurück denkt....
sowas billiges als highend salvage zu vermarkten :D
 
Mal abgesehen davon, dass ich die zweiten "Leaks" für unwahrscheinlich halte.

Wäre, wenn auch nur minimalst, GDDR6 auf Basis von DDR4 an 256bit denkbar? Ich habe noch kein Sterbenswörtchen vom neuen GDDR gehört aber da DDR4 vom Band läuft, im Prinzip spezifiziert ist und das Zeig fertig für den Markt ist, ist es jedenfalls nicht absolut ausgeschlossen. Gut das klingt noch phantastischer als 512bit aber es war auch nur ein Gedanke :lol:
GT200 hatte ja auch schon 512bit@GDDR3, während AMD bei der 4000er den gefloppten GDDR4 und gleich darauf 5 verwendet hat. Und als nV dann auch auf den 5er gegangen ist, haben die als erstes den breiten Bus gestrichen.
Aber unmöglich ist 512bit jedenfalls nicht. Damals mit GT200 wurden Karten damit schon für 400€ (mit Gewinn!) verkauft und der Anteil des Speicherinterfaces am Chip selbst, dürfte in der Zwischenzeit (damal noch 65nm und jetzt 28!) gewaltig geschrumpft sein und es bleibt nur das komplizierte PCB.
512Bit ist nicht utopisch. Und man geht ja davon aus, dass bei den neuen Chips vor allem Front- und Backend überproportional zu den Shadern wachsen, um Flaschenhälse (Versorgung der Shader und Texturierung) zu beseitigen. Und vielleicht ist AMD beim Design zu der Erkenntnis gekommen, dass die GCN Architektur um die Designfehler (vor allem das Frontend war zu schmal!) auf einmal vom Speicher limitiert ist.

Wer weiß - wenn AMD tatsächlich 512bit verbaut, wird man sich dabei etwas gedacht haben :)
 
Keine Ahnung wie oft ihr eure Grafikkarte wechselt, ich mach das nur alle drei Jahre. Meine Radeon 6870 verrichtet ihren Dienst immer noch zu meiner vollsten Zufriedenheit. Allerdings spiele ich überhaupt keine Shooter.
Ich hab mir bloß eingebildet 1440p haben zu wollen, deswegen brauch ich eine neue Grafikkarte mit mehr als 2GB VRAM. Sonst würde ich meine Grafikkarte mindestens noch ein Jahr behalten.
 
...Weil Auflösung ja soviel mit benötigter Vram Größe zu tun hat?
das sich das Gerücht schon seit über nem Jahrzehnt halten kann...
 
Zuletzt bearbeitet:
Klingt erstmal richtig nice! Der niedrige Coreclock lässt wie bei der UR-7970 auf hohes OC-Potenzial hoffen.
 
HughHeffner schrieb:
...Weil Auflösung ja soviel mit benötigter Vram Größe zu tun hat?
das sich das Gerücht schon seit über nem Jahrzehnt halten kann...

Welches "Gerücht"? Das Gerücht, dass das Produkt aus der Multiplikation von 2560x1440 ( = 3,686,400) größer ist als das Produkt aus 1920x1080 ( = 2,073,600) ? Oder kommt jetzt irgend so eine aberwitzige Hardcore-Mathematiker-Theorie, dass 2 unter Umständen doch kleiner sein kann als 1? :D

Selbstverständlich hat die verwendete Auflösung einen unmittelbaren Einfluss auf die Größe des benötigten VRAM.
 
Das lob ich mir bei AMD, dass sie ihre Grakas so zukunftstauglich wie möglich machen, was den Speicher angeht und nicht so unverschämt geizen wie manch andere Hersteller.
Ich bin gespannt welche Rolle die Bandbreite und 2GB+ Größen bei Next-Gen-Only Titeln wie "The Division" einnehmen werden.
Genug Teraflops haben die heutigen GPUs jedenfalls um die neuen Konsolen zu düpieren aber beim Speicher...
Und nicht jeder wechselt seine Graka alle paar Tage!
 
HughHeffner schrieb:
...Weil Auflösung ja soviel mit benötigter Vram Größe zu tun hat?
das sich das Gerücht schon seit über nem Jahrzehnt halten kann...

Das hilft mir nicht weiter, wenn du schon sowas behauptest dann klär mich doch bitte auf. Ich hab nichts dagegen etwas Geld zu sparen und wenn ich dabei noch schlauer werde umso besser.
 
@HughHeffner 1a :)

Nutze seit drei Jahren ne 5870 1gb mit zwei 30" mit je 2560x1600 Auflösung. Auf meinem linken Monitor läuft in der Regel beim Zocken XBMC welcher einen enigma2 Stream via DXVA wiedergibt. Auf dem rechten Monitor läuft mein Spiel in voller Auflösung und in der Regel maximalen Qualitätseinstellungen. Aktuell zocke ich Anno 2070, musste jedoch diesen Unschärfeneffekt deaktivieren.

Halte diesen riesen Video Speicher für einen genauso bescheuerten Hype wie diese Kilowatt Netzteile... ^^

Unabhängig davon würde ich zu mehr Videospeicher nicht nein sagen....

PS: Grad gemerkt das ich die Karte schon 4 Jahre nutze :D
 
Zuletzt bearbeitet:
Da wohl noch ein Jahr lang Gddr5 bei nicht mehr stark steigerbaren Taktraten Standard bleiben wird, ist eine Interface-Lösung mit 512Bit afaik wahrscheinlich - die 2900xt wahr wohl die einzige High-end-karte, die Bandbreitenvorteile nicht umsetzen konnte.
Bis zu den 2xxxer-Karten hat Ati lange auf Bandbreite gesetzt.
Da wir uns am Ende einer Speichergeneration befinden, könnte ein breites Interface mehr (Leistungs-)Vorteile als (Verbrauchs-)Nachteile bieten.
 
Wozu dienen die Anschlüsse auf der Rückseite Bild 9

also die Jumper und die Rundenteile die aussehen wie Anschlüsse für WLan Antennen :D sind die um die Spannung abzugreifen? 6.jpg
 
Erinnert ihr euch an die Matrox Parphelia? (Oder Parhelia)
Das sollte damals das Monster einer neuen Grafikarte werden und ATI und NVIDIA wegblasen, u.a. dank 512Bit breiten Speicherinterface!
Was war: Die Karte kam verspätet, die Taktrate war zu gering --> sie war deutlich langsamer als ATI und NVIDIA Karten, von denen es schon die nächste generation gab und damit verschwand Matrox wieder von der Bildfläche...

Eine Höhere Speicherbandbtreite ist immer nice, die Frage ist, wie teuer ein 512Bit breiter BUs wirklich ist.
Die Taktrate von GDDR5 dürfte nicht mehr weit steiegerbar sein, also muss das Interface breiter gemacht werden!
Somit dürften 2GB VRAM für die neue Generation bis zur oberen Mittelklasse problemlos ausreichen (und für FullHD).
Aber ein Minimum von 4GB GDDR5 RAM, mit mindestens 1500Mhz (effektiv: 6000Mhz, das Schnellste bisher: 7000Mhz!) und einer 512Bit breiten Anbindung für High End Karten ist sicher nice! :)
Man weiß ja nicht genau, wie sehr die VRAM Anforderungen wegen den neuen Konsolen (PS4: 8GB GDDR5 RAM; XBox One: 8GB DDR3 RAM) steigen!
Und falls sie nicht so stark steigen, hat man mehr Luft für >FullHD, 8x(MS)AA, Texture Packs usw.

Ich fürchte mich mit meiner GTX660Ti und deren 192Bit 6Ghz VRAM (2GB) jetzt schon ein bischen... :(

;)

MfG
 
Tinpoint schrieb:
Wozu dienen die Anschlüsse auf der Rückseite Bild 9

also die Jumper und die Rundenteile die aussehen wie Anschlüsse für WLan Antennen :D sind die um die Spannung abzugreifen?Anhang anzeigen 366102


wird sich wohl um ein testsample handeln
 
Wer weiß - wenn AMD tatsächlich 512bit verbaut, wird man sich dabei etwas gedacht haben

Damit Leute wie Kasmopaya (hier ausm Board) nicht wieder meint da alles unter 400GB Vram totale VramKrüppel sind? :D
 
HughHeffner schrieb:
...Weil Auflösung ja soviel mit benötigter Vram Größe zu tun hat?
das sich das Gerücht schon seit über nem Jahrzehnt halten kann...

Achso, wenn ich im Spiel die Auflösung ändere, dann ändert sich auch der RAM Verbrauch, komisch, muss ich wohl was falsch machen :(
PS: Meine GTX680 kackt in ROME 2 mit 50% Auslastung ab, weil der VRAM voll ist. Wenn ich Texturen runter stelle, dann hab ich 20-30 FPS mehr ;)

Aber stimmt ja, wenn die ganzen Experten hier sagen VRAM ist voll unwichtig, und mehr als 2GB braucht eh kein Mensch, und mit Auflösung hat es schon garnichts zu tun, dann wird das wohl stimmen.

Moriendor schrieb:
Oder kommt jetzt irgend so eine aberwitzige Hardcore-Mathematiker-Theorie, dass 2 unter Umständen doch kleiner sein kann als 1? :D
1 sehr großer Pixel > 2 kleine Pixel
=> Auflösung ist egal, die größe der Pixel ist entschedend
War das so schwer :freak:
 
Zuletzt bearbeitet:
Schön endlich mal etwas zu sehen von der Grafikkarte, und dazu noch Bilder auch wenn der Kühler mir nicht gefallen will.

4096Mb Speicher das wär mal ordentlich, obs nötig ist weis ich jedoch nicht.
 
ich kann von vram nie genug haben. war damals bei der hd4870 schon froh die 1gb version geholt zu haben. der 512mb version lies schnell aufgrund des vrams leistung liegen
 
Zurück
Oben