News DICE zeigt vermeintliche „Hawaii“-Grafikkarte

Kenneth Coldy schrieb:
Betriebssysteme nehmen sich seit einiger Zeit vom Hauptspeicher soviel wie eben möglich.

Schön wärs ja. :(
Leider greift sich Win7 kaum zusätzliches RAM, selbst wenn Massen davon verfügbar sind und ungenutzt leer bleiben. Von meinen 32GB RAM werden unter Windows praktisch nie mehr als 4-6 GB belegt. (Man ist gezwungen selbst per RAM-Disks Hand anzulegen und z.B. Swap-Files, temporäre Verzeichnisse usw. darauf auszulagern, was ich eigentlich eindeutig als Aufgabe eines modernen OS ansehe.)
Hätte sich daran bei Windows 8 was geändert, wäre ich spontan umgestiegen und hätte mich irgendwie mit dem Tablet-UI arrangiert. Aber leider hat sich Microsoft (offensichtlich ebenfalls mit Tablets im Hinterkopf) dazu entschlossen, noch weniger RAM zu nutzen. :freak:
(Kleiner Hinweis an Microsoft: Tut mal was in der Richtung!)

Aber zurück zum Thema:
Der Kühler auf den Fotos sieht natürlich sehr enttäuschend aus. Allerdings können die Verbesserungen auch (sprichwörtlich) unter der Haube liegen. Beim Titan-Kühler dachte ich auch sofort "Oh je, das wird laut" und das Gegenteil war der Fall. Offensichtlich kann auch ein klassisches Blower-Design leise und leistungsstark sein, wenn es richtig gemacht wird.
Außerdem könnten die Bilder auch von einer Karte sein, die als frühes Testmuster z.B. an Mainboardhersteller oder Spieleprogrammierer gegangen ist, und dafür wurde einfach noch ein alter Kühler verwendet.

Beim Speicherausbau sehe ich es so, dass 3-4GB (je nach SI-Breite) für ein absolutes High-End-Modell heutzutage schon angemessen sind. Es stehen die ersten brauchbaren 4k-Displays vor der Tür und viele Enthusiasten nutzen schon Multimonitor-Setups mit extrem hohen Gesamtauflösungen, was AMD ausdrücklich als besonderes Feature der Radeons bewirbt. Da wäre es nicht klug, ausgerechnet am VRAM zu sparen.
 
Hoot schrieb:
Interessant, gesetzt dem Fall die Benches stimmen (Test-Konfig außer GraKa gleich, aktuelle Treiber, etc.), wird auch, wie Nvidia darauf reagieren wird - ein Preiskampf mit der Titan im Bereich um die 500-600€ wäre mal nett, da es tendenziell dann eher weiter nach unten geht.

ich glaube nicht, dass dies geschehen wird. denke eher die titan wird auslaufen und durch eine titan ultra ersetzt bei gleichem preisgefüge.
ich sehe die titan eher als prestige objekt wie bei intel die xtreme edition
 
Also bei der Nummer mit dem großen SI bin ich eher skeptisch was die große Leistung anbelangt. So ein Interface nimmt viel Platz ein und wie groß der DIE ist weiß man ja bereits. Vermutlich hat NV alle Kontingente verfügbaren schnellen Vram frühzeitig aufgekauft, so das AMD nur noch Plan B bleibt.

So wie es aussieht könnten es zwei Pitcairn (HD 7870) Chips in einem DIE sein. Wegen dem Verbrauch recht niedrig getaktet und dann auch sehr effizient. Sollte das Powertune erfolgreich maximal 20% Leistungszugabe genehmigen, dann wird es nichts mit dem Überflieger, zumindest nichts mit dem "ÜberTitanFlieger".....
 
es könnte doch sein, dass das si gar nicht so viel mehr platz als das von tahiti braucht. da schon langsamerer speicher zum zuge kommt, könnte das si in der hinsicht ja limitiert/optimiert sein, sprich man könnte dadurch evtl platz auf der die sparen + sie haben es noch geschafft allgemein die packdichte zu erhöhen
 
Zuletzt bearbeitet:
Voyager10 schrieb:
hier wirds vermutlich nur um Werbung gehen um ins Gespräch zu kommen..

das habe ich mir auch gedacht :D
 
Nein wohl kaum von AMD ermittelt. AMD würde seine HD7970 GE niemals so hinter die GTX770 platzieren, vor allem weil sie eigentlich auf einem Niveau agieren. Aber wer sonst könnte jetzt schon solche Benchmarks durchführen? Sollten diese stimmen, hätte AMD richtig gute Arbeit gemacht!
 
AMD wird das Referenzdesign doch nicht etwa wieder mit diesem absolut grauenhaften Turbinen-Lüfter ausstatten, oder ?!

Ich brauch nur dieses rote Drecksteil sehen, dann habe ich schon Verlangen nach Oropax :rolleyes:
 
Mimimimi und selbst wenn zum Glück gibt es ja keine Partner, die leise Kühlösungen anbieten können.

Was man sich immer über das Ref design aufregen kann als wäre man gezwungen es zu kaufen. :freak:
 
Pumpi schrieb:

Wenn man hier schon das Leistungsaufnahmeprotokoll ansieht wo man doch ernsthaft meint sich mit ner GHZ Edition noch hinter einer 780GTX zu befinden,braucht man über den Wahrheitsgehalt der anderen "Benchmarks" kein Wort mehr zu verlieren.

Die liegen wohl ebenso im Reich der Fabeln u Mythen wie das was man hier bereits abgleichen kann mit der realen Welt

2405D337523E21402B5EBB
 
Zuletzt bearbeitet:
coolmodi schrieb:
@pipipi: Kann auch sagen das Produkt der Multiplikation der Summe der Addition von 2 und 4 mit dem Quotienten der Divison von 6 durch 3 ist 12. Man kann es eben auch umständlich machen :D

Klar kann man es sagen :D aber es klingt einfach schäuslich xD
Aber vllt war es so beabsichtigt xD damit es der letzte auch versteht xD

Btw, ich bin kein Verfechter von wenig Grafikram. Ich sehe keinen Grund wieso man weniger verbauen sollte, wobei 4 GB dann schon persönlich als genug betrachte.
Meine nächste Karte wird wohl auch mindestens 2 GB haben, obwohl zugegeben, keine Zeit mehr habe mit viel Grafikspielerei. Wenn ich ein Game zocken möchte, ist für mich persönlich flüssiges Gameplay wichtig, (momentan) thats all.
Für mich wird wohl eine neue Grafikkarte erst dann interessant, (at least falls ich mir eine AMD kaufe) wenn die Mittelklasse also R8-Klasse auch GCN 2.0 beinhaltet.
 
Zuletzt bearbeitet:
wenn die benchmarks stimmen, dann ist das eine astreine karte!

mal schauen, wie nvidia darauf kontert... R9 ist in manchen spielen doch schon deutlich schneller.
evtl. wird von nvidia als leistungsvergleich 3d mark gepredigt... :)
 
berkeley schrieb:
... R9 ist in manchen spielen doch schon deutlich schneller.

Na da bin ich ja mal auf reale Benchmarks gespannt Die Size 20-30% kleiner Titan bei unverändertem Herstellungsprozess u AMD zaubert hier Karnickel aus dem Hut;)
 
wenn die Benches passen wär die Karte echt gut dabei. Das wäre echt nice =)

Vor allem wenn die 1020 Mhz zutreffen die ja nicht so extrem viel wären. Klar, ein GK110 is Aufgrund der Größe noch ne ganze Ecke schneller (gerade auch auch auf dem Takt) aber 512Bit und die recht hohe Performance machen Lust auf mehr.

Mit ~1020 Mhz und dem deutlich kleineren Chip kann man auch recht effizient agieren, wobei mir der Vollast Verbrauch als Overclocker egal ist. Wichtiger wär in meinen Augen, dass AMD den Dual-Head Verbrauch mal in den Griff bekommt...

Wie Nvidia darauf kontert ist ja nicht schwer auszumalen. Es reicht ja schon das Power / Temp Limit per Hand aufzudrehn und man hat 10% mehr bei der GTX 780, 30% mehr OC (dann etwa ebenso 1020 Mhz).

Da Nvidia aber bei der Effizienz auch nicht zaubern kann dürfte je nach Leistungsplus, die GTX 880 wieder etwas mehr aus der Dose ziehen. Vllt kommt der GK110 also vollaktiv mit etwas weniger Takt um die Effizienz hoch zu halten.

Bin gespannt wie der Kern aussieht, eventuell 12 Render Back-Ends auf 48CUs bei 8x 64 Bit GDDR Controller, was aber satte 3072 Shader nach heutiger Aufteilung wären (würde aber zu dem Benches passen).

Macht aber angesichts der Konkurrenz durchaus Sinn mehr als die erst spekulierten 2560 Shader drauf zu packen. Das wäre ja nur ein kleiner Schritt innerhalb der 28nm gewesen den Luft nach oben hat man ja noch genug wenn man Nvidias Chipgröße vor Augen hält. Eher erstaunlich dass AMD da "nur" 420-430mm² braucht) - da solten ja 4096 Shader selbst in 28nm noch gehen ;)

Vllt hat man bei der Computing Ecke gut entschlacken können ohne groß auf Kosten der Performance zu handeln.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Mit ~1020 Mhz und dem deutlich kleineren Chip kann man auch recht effizient agieren, ..

Mehr Shaderperformance durch nen "breiteren" Chip ist durch höheren Takt nicht weg zu machen solange sich da nichts im Shrinkprozess befindet wird da die Effizienz nicht signifikant steigen durch nen Refresh,wenn beide nur normale Brötchen backen
 
Zuletzt bearbeitet:
Bei gleichbleibenden Bedingungen benötigt höhere Auflösung primär rein höhere Rohleistung der Grafikkarte.
Genau das ist der Punkt, ich versuch das nochmal besser zu erklären. Wenn man eine kleine Auflösung fährt, hat man mehr Rohleistung für wirklich Vram fressende Sachen wie Sichtweite; Kantenglättung; HD Texturen, allgemein Vollbild Effekte übrig. Am Ende kann man mit einer kleinen Auflösung dann viel mehr Vram nutzen bei flüssigen FPS, als derjenige der eine hohe hat seine ganze Rohleistung dafür verballert und dann die Details zurück drehen muss. Also braucht ihr für 4k zb. SLI/CF UND massig Vram.

Aber ich muss schon sagen, viele haben mittlerweile den Dreh raus, das war vor ein paar Jahren nicht so, gerade coolmodi hat das ganze vortrefflich beschrieben.

Und das meine Vram Hochrechnungen sich immer zufällig mit denen von AMD 1:1 decken bestätigt mich immer wieder. Denn eins könnt ihr mir glauben, AMD verbaut das absolute Minimum an Vram um die Karten so günstig wie möglich zu halten. Aus Spaß haben die mit der HD 7900 3GB nicht zum Standard gemacht.


Warten wir mal ab, das Referenz Design ist nicht wirklich dramatisch, solange es schnell gute Costum Kühler gibt. Das schlimmste an der Titan ist ja das Costum Kühler Verbot.
 
Zuletzt bearbeitet:
scully1234 schrieb:
Mehr Shaderperformance durch nen "breiteren" Chip ist durch höheren Takt nicht weg zu machen solange sich da nichts im Shrinkprozess befindet wird da die Effizienz nicht signifikant steigen durch nen Refresh,wenn beide nur normale Brötchen backen

naja, wird sie schon da Tahiti in recht frühen 28nm kam. Stimmen die Leaks dann konnte AMD die Density schon ne Ecke erhöhen, zudem zeigt ja der GK110 gut dass bei neuen Prozessen ein etwas niedrigtaktender Big-DIE bessere Effizienz liefert als ein kleiner der weit über 1000 Mhz raussschießt. Der GK110 ist jaauch ein Monster verglichen zu Tahiti und auch GK104 - trotzdem recht effizient. Bei AMDs neuem Chip wird es ganz ähnlich laufen, ne Ecke größer, aber etwa selber Takt wie ne HD7970 GE - bei etwas geringerer Spannung dürfte die Effizienz bezogen auf Perf/W besser ausfallen als beim Vorgänger.
 
scully1234 schrieb:
Wenn man hier schon das Leistungsaufnahmeprotokoll ansieht wo man doch ernsthaft meint sich mit ner GHZ Edition noch hinter einer 780GTX zu befinden,braucht man über den Wahrheitsgehalt der anderen "Benchmarks" kein Wort mehr zu verlieren.

es gibt durchaus testseiten, die der 7970ghz eine geringere leistungsaufnahme attestieren.
z.bsp. im luxx
http://www.hardwareluxx.de/index.ph...6376-test-nvidia-geforce-gtx-780.html?start=5

hängt immer vom testsetting ab.
100% auslastung in spiel a ist nicht gleich 100% auslastung in spiel b.

pipip schrieb:
... aber es klingt einfach schäuslich xD
wie wahr. :freak:
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Und das meine Vram Hochrechnungen sich immer zufällig mit denen von AMD 1:1 decken bestätigt mich immer wieder. Denn eins könnt ihr mir glauben, AMD verbaut das absolute Minimum an Vram um die Karten so günstig wie möglich zu halten. Aus Spaß haben die mit der HD 7900 3GB nicht zum Standard gemacht.
Doch haben sie sehr wohl. Sie wählten ein 384bit Interface weil sie die Speicherbandbreite benötigten, und überzüchteter GDDR5 und der dazugehörige MC zu inneffizient ist, siehe HD4870. Folglich bleibt bei 384bit sowieso nur 1,5 / 3 und 6GB übrig. Ich muss kein Guru sein, um aus wirtschaftlicher Sicht hier auf 3GB zu tippen.
Hier ist es mit 512bit exakt das selbe. Je nachdem wieviel Bandbreite sich mit GDDR6 ausgeht, werden die nächsten Highend Modelle nächstes Jahr entweder auf 256bit und 4GB oder wieder mit 384bit und 6GB daherkommen. Ich tippe aber auf 256bit mit 4GB. Ende 2014 werden wir wieder 384bit sehen.
Und nochwas, den Vram Verbrauch eines PC Exklusiven Spiels als Maßstab zu nehmen und einfach einen GB draufzupacken ist keine Hochrechnung. Erst wenn echte, reine NextGen Titel da sind, dann würd ich Hochrechnung machen was Vram angeht.
 
Zurück
Oben