DX11 Gerüchteküche Teil III (AMD HD7000 und Nvidia GTX600)

Es gibt doch ehedem keine Spiele , die noch schnellere GK nötig machen würden. Der Profimarkt ist eine deutlich andere Schiene, um die es hier nicht gehen dürfte. Also geht es in der Masse um GK zum Zocken. Da besteht für die Chipentwickler keine Eile-solange nicht neue Konsolen das Licht der Zockerwelt erblicken, die dann mind. mit DX 10 aufwarten. Solange wir nur Spiele auf DX9 Niveau haben -würde eine GF 9600GT völlig ausreichen, denn mehr Rechenlesitung haben die Konsolen für die Spielegrafik nicht zur Verfügung -die PC Varianten..wenn die nicht ab und an falsch programmiert würden... brauchts auch keine noch bessere Hardware. Es kann ja nicht Sinn und Zweck neuer Hardware sein neue Spiele auf einer alten DX9 Basis mit 16 und 32 facher Kantenglättung schön zu rechnen- weil nur noch DX 9 Spiele für die Konsolen raus kommen.Da ist es doch Rille ob ich so eine DX9 kamelle in 40 oder 28 nm zocke.
 
es geht nicht ums brauchen sondern ums wollen ;)
amd und nvidia würden ja sonst nichts mehr verkaufen. zum zocken benutze ich mein laptop mit ner 7900gs, soviel zum thema "brauchen" aber ich benche ab und an ganz andere kaliber aus spass an dem, was machbar ist ;)
 
Versteh gerade nicht was du damit meinst, die die auf nen größeren chip setzen?
 
derGrimm schrieb:
Grafikkartenthread?! ;)

macht ja nix, die realität sieht nunmal so aus, das physx über die cpu läuft und einige spiele zusätzlich effektphysik (keine gameplay physik) über die gpu realisieren.
 
shrink bedeutet sparsamer bei ansonst gleichen bedingungen.
wie ihr immer auf schneller und sparsamer kommt?
und post 139 macht auch keinen sinn, wenn die 680 marke kepler wird.
280+285,480+(485/)580,680+... sind immer die pärchen gewesen.

oder wartet da jemand auf ne maxwell-karte ehe die kepler raus sind? gib mal deine zeitmaschiene her ;)
 
Nach einem Shrink kann man die Betriebsspannungen senken, oder den Takt um einiges erhöhen. Alternativ kann man mehr Shader u.Ä. einbauen, da der Die durch den Shrink ja auch kleiner wird. Wenn man nun nicht das volle Shrink Potenzial in Leistung steckt, erhält man eine GPU mit mehr Leistung bei weniger Verbrauch.
 
AffenJack schrieb:
Jo, 100mm² soll so das mindestmaß für 128bit und 250mm² für 256bit sein.

Das würde bedeuten, das der rv 1040 nicht kleiner werden kann. :D

Das heißt man MUSS die Transistorzahl und damit die Leistung deutlich hochschrauben, bei der 7870. Das wäre die ideale Karte für mich. die 7970 muss dann aber auch mindestens 350mm2 groß werden.
 
Naja das ist ja der Sinn in ner neuen Genration, dass man durch kleinere Transistoren mehr verbauen kann.

Aber die Werte halte ich für unrealistisch. Es gab in der Vergangenheit schon mehrere GPUs <250 mm² mit nem 256bit Speicherinterface.
 
@wertewandel
was hat meine aussage mit maxwell zutun? Nix, und was sollen mir deine Pärchen sagen?
GTX680 plus 780 oder wie auch immer würde auch zu deinen Pärchen passen.

@bensen
Nur vor Gddr5, das braucht aber wohl mehr Pins zum anschließen. Die Aussage gabs schon bei Rv770, dass dieser Pad-Limitiert ist und seit Barts gilt das als relativ sicher. Es wäre sonst schon ein großer Zufall, dass Barts und Rv770 gleichgroß sind.
 
dann erklär mir mal deinen teilsatz aus post 139:
"Die GTX680 wird eher kein Shrink, das dürfte Kepler werden"
a) wir warten auf die gtx680
b)die nächste generation heißt Kepler
warum soll es jetzt kein shrink werden? es wird geshrinkt und refurbished oder was erwartest du?
deswegen hab ich die zeitliche verwirrung mit maxwell fort geführt.
 
Ok, der Satz ist bissl missverständlich.
Ich meinte, dass die GTX680 auf der Kepler-Architektur basiert und kein einfacher shrink von Fermi wird. Während beim Low-End nur einfache Fermi-Shrinks rauskommen könnten und erst 7xx Kepler werden könnte. Die Alternative wäre natürlich die zuerst kommenden kleinen 28nm Testchips in die aktuelle 5xx-Serie einzuordnen, aber da hat man langsam auch schon den Großteil der Namen belegt. Das die ersten 28nm Karten aber schon auf Kepler basieren würde ich eher ausschließen, da NV neue Architekturen immer mit den Topkarten launcht.
 
naja, sie machen ja ohnehin gerade mit den zusätzen rum, würd ich aber trotzdem auch ausschließen.
das neu einsortieren an sich älterer chips wird ja immer mit krokodilstränen von usern bedacht, ist aber usus und auch gut so, da hätte man doch nciht jetzt schon die guten sachen wie ti und mx weggeworfen, nur weil es eben effektiv mehr karten als namen gibt ehe man die krummen zahlen anbricht.

der gedanke mit "neue architektur bei geraden 100.tern und optimierte bei ungeraden oder auf 5 endenden" gefällt mir aktuell sehr gut, weil dann passend zur wahren roadmap von tesla, fermi, kepler und maxwell die komplette sparte von 200 bis 900 abgedeckt sein könnte und man danach entweder nochmal an den buchstaben dreht und weiter oder was ganz neues macht...
aber das sind eher belanglosigkeiten.
 
AMD stellt ihre neue Grafikkartenarchitektur vor:
http://www.hardware.fr/news/11648/afds-architecture-futurs-gpus-amd.html

Leider nur mit Analyse auf fränzösisch, schade, dass CB und auch die großen englischsprachigen webseiten das irgendwie noch nicht mitbekommen haben.
Es wird auch nicht erwähnt, wann diese Architektur kommen wird. Kann also durchaus sein, dass dies erst die 8xxx als 2te 28nm Generation wird, wer weiß.
 
Hmm immer noch keine Ankündigung neuer Grafikhardware... schade schade.

Naja ich hab ja noch Zeit bis Ivy ;)
 
Hallo Leute, gibt es schon ein erste "Fake" Bild einer HD7870 oder HD7970? Würde sagen mal ein gesehen zu haben mit der San Francisco Brücke.
 
AffenJack schrieb:
AMD stellt ihre neue Grafikkartenarchitektur vor:
http://www.hardware.fr/news/11648/afds-architecture-futurs-gpus-amd.html

Leider nur mit Analyse auf fränzösisch, schade, dass CB und auch die großen englischsprachigen webseiten das irgendwie noch nicht mitbekommen haben.
Es wird auch nicht erwähnt, wann diese Architektur kommen wird. Kann also durchaus sein, dass dies erst die 8xxx als 2te 28nm Generation wird, wer weiß.

Hier das ganze in Deutsch aufgearbeitet:
http://www.planet3dnow.de/vbulletin/showthread.php?t=395675
  • Die neue Architektur kommt noch dieses Jahr
  • AMD gibt VLIW zugunsten einzelner SIMD Einheiten auf, wie sie auch Nvidia nutzt.
  • Es wird ein Integer Cluster mit verbaut.
  • Es gibt eine Branch Unit
Das ganze soll leichter zu programmieren sein und wird auch in der nächsten APU Verwendung finden.

img0032678_178f8-jpg.237241


img0032663_1mjpiqmqo-jpg.237242
 

Anhänge

  • img0032678_178f8.jpg
    img0032678_178f8.jpg
    210,9 KB · Aufrufe: 3.000
  • img0032663_1mjpiqmqo.jpg
    img0032663_1mjpiqmqo.jpg
    202,8 KB · Aufrufe: 2.971
Zuletzt bearbeitet:
Das kenn ich schon, ist noch relativ oberflächlich, mich würde mal ne etwas weitergehende Analyse interessieren, wobei man dazu wohl eher auf Beyond3d warten muss, da sonst kaum wer tiefergehende Analysen wagt.

Schon in dieser Generation klingt auf jeden Fall gut, damit ist die Tesselation und Geometrie Unterlegenheit gegenüber NV wohl vorbei. AF-Flimmern gibts in Southern Islands wohl auch nicht mehr, da kann fast nix schiefgehen. Außer die architektur wird einfach zu langsam^^

Edit:
Hier ein etwas ausführlicherer Artikel über die neue Architektur:
http://www.anandtech.com/show/4455/amds-graphics-core-next-preview-amd-architects-for-compute
 
Zuletzt bearbeitet:
Zurück
Oben