News Next-Gen-GPUs: Grafikkarten überspringen 20 nm für 14/16 nm

Colonel Decker schrieb:
Keine Ahnung was du da redest, aber ich glaube nicht, dass die 7000er AMDs irgendwie besser sind als meine 750Ti. Soweit ich weiss ist man erst ab der 270X schneller unterwegs.

Und er hat eine 7970 = R9 280(X).

Ich werde mal schauen, ob die 390er was wird für mich, wo ich erst vor ein paar Wochen von 2x R9 290 auf 1x R9 290X gewechselt bin. 1440p hätte ich schon gern mehr Power für Qualität, aber 600-700€ für eine Grafikkarte werde ich dieses Jahr nicht ausgeben - Rest werden Refreshs - also eher nix.
 
Sind das wirklich News? War das nicht hinlängst bekannt? Also ich meine dieses "Gerücht" geht ja schon lange rum.

Außerdem nicht vergessen: die Nm Angaben kann man alle nicht vergleichen: 14nm Intel sind nicht gleich 14 nm Samsung/GloFo sind nicht gleich 16/14 nm TSMC. Letztere packen ja sogar "nur" Fin-Fets auf ihren 20nm Prozess und nennen es 16 nm. Aber selbst Intels 14 nm weisen kaum tatsächliche Strukturen in der Größenordnung auf. Was die Hersteller dort als Bemessungsgrundlage nehmen und was am Ende auch noch die Marketingabteilung draus machen sind zwei paar Schuhe.

Dennoch freue ich mich riesig auf neue Architekturen. War die richtige Entscheidung nach dem krassen Preisverfall 2 290X zu kaufen und die mit Wasser zu kühlen. Damit bleibt der Sprung zu der 400-Serie oder Pascal spürbar und der Geldbeutel hat sich auch einigermaßen gefreut. Besonders interessant wird es sicherlich im Mobil-Sektor.
 
NUMA ist etwas völlig anderes und ein uralter Hut. Fermi hat mit AMD erst spät nachgezogen bei der Funktion.
AMDs GPUs nutzen hUMA, das entgegen NUMA für alle Comuting Units gleich schnellen gemeinsamen Speicherzugriff beitet.
http://de.wikipedia.org/wiki/Non-Uniform_Memory_Access
http://www.extremetech.com/gaming/1...u-memory-should-appear-in-kaveri-xbox-720-ps4

Nur weil Nvidia nun Jahre später mit NVlink, nach Intels QPI und AMDs HT, eine eigene Anbindung für solche NUMA-Szenarien einführt ist diese nicht neuer oder besser als die bestehenden - das bleibt auch mal abzuwarten, denn angekündigt war auch NVlink für Maxwell. IBM scheint das in sein Openpower Programm mit aufgenommen zu haben.
 
Mr.Seymour Buds schrieb:
Wäre ja schön, wenn AMD nicht immer nur ankündigen würde. Die werden noch Ankündigungsweltmeister. Nvidia hat Maxwell bald vollständig im Markt. 2016 rollt bereits Pascal heran...
Und dann rollt wieder AMD heran und dann wieder NV und dann wieder AMD...
Und wer jetzt aufrüstet ist der Dumme weil es kommt ja bald.. und wer da dann aufrüstet.. der ist auch der Dumme. :D
 
Lars_SHG schrieb:
Nicht nur das, als ob die Speichergeschwindigkeit bei irgendeiner der letzten High-End Generation mal relevant für die fps waren!?!

Evtl. wird es Vorteile bei der Produktion geben, aber für den Nutzer? Warten wir es ab, ich sehe hier wenig Potential schließlich wird durch schnellen Speicher auch keine Grafikchip schneller......

Warum übertaktet mancher dann den Speichertakt seiner Grafikkarte?

Hier mal ein kleines Beispielbild aus der PCGH:

bla.JPG
 
Bis 2016 läuft meine 290 noch Butterweich, ich bin gespannt :)
 
NUMA ist etwas völlig anderes und ein uralter Hut.
Ist doch genau das was ich meinte, auch gemäß deiner Wikiquelle? Eine NUMA-Architektur wird benötigt, wenn jeder Prozessor (beziehungsweise jede GPU) seinen eigenen lokalen Speicher hat und ein Prozessor (beziehungsweise eine GPU) auf den lokalen Speicher eines anderen Prozessors oder einer GPU zugreifen kann.

AMDs GPUs nutzen hUMA, das entgegen NUMA für alle Comuting Units gleich schnellen gemeinsamen Speicherzugriff beitet.
HUMA ist bestenfalls eine Implementierung von NUMA, beziehungsweise von UMA im Falle einer integrierten GPU. Die AMD-Präsis lesen sich aber etwas so als ob HUMA nur auf das UMA für integrierte GPUs bezogen sei, aber das sei mal egal, in ihrem Programming Guide ist HUMA mit keinem Wort erwähnt. Damit verhält sich HUMA auch bei der Geschwindigkeit der Speicherzugriffe fallabhängig genauso wie NUMA oder UMA.

Fermi hat mit AMD erst spät nachgezogen bei der Funktion.
Bitte ein Quelltext-Beispiel dafür, wie man die NUMA-Funktionalität mehrerer AMD-GPUs in einem Rechner nutzen kann, indem man von einem Kernel aus auf dem Speicher einer anderen GPU zugreifen kann. Ich fände das wirklich mal interessant zu sehen ob und wie das möglich ist, gerade mit OpenCLs impliziten Speicher beziehungsweise Buffermanagement. Ich konnte aber kein Beispiel finden. Für NVIDIA:
http://docs.nvidia.com/cuda/cuda-c-programming-guide/#peer-to-peer-memory-access
 
Zuletzt bearbeitet:
Das 20 nm übersprungen werden soll kenne ich aber auch schon seit geraumer Zeit. Stand das nicht irgendwo in einer NVidia News hier auf CB?

Jetzt muß doch erst einmal die 390(X) kommen und auch kaufbar sein, bevor man hier in Jubelstürme über die 490(X) ausbricht.
Finde es aus Marketing Sicht auch total kontraproduktiv jetzt im Forum zu sagen, wie toll die 490(x) in 2016 werden wird, weil AMD will (muß) ja erst einmal seine 390(X) erfolgreich verkaufen. Da gibt es dann Leute, die lieber auf 2016 warten und dann am meckern sind, weil die 490(x) erst in 2017 kommt.

Ich bin ja einmal gespannt, von wem wir zuerst GPU's in 14/16 nm sehen werden aber time will tell.
 
NUMA=Non Uniform Memory Access
UMA = Uniform Memory Access
Das sind zwei gegensätzliche Dinge. AMD hat als erstes den UMA Zugriff heterogen gemacht.
Ergänzung ()

Übrigens heisst NUMA bei AMD Crossfire ;)multiple GPUs die einen eigenen und einen entfernten Speicher bei GPUs ansprechen können.
Ergänzung ()

Hier ein Beispiel das sowohl AMD als auch Nvidia für NUMA basiernde Systeme nutzt:
https://numascale.com/numa_GPU.html
 
BiA Master schrieb:
Warum übertaktet mancher dann den Speichertakt seiner Grafikkarte?

Hier mal ein kleines Beispielbild aus der PCGH:

Anhang anzeigen 489221
Der Speichertakt ist nicht so wichtig, das war schon immer so. Kannst du selber ganz gut testen ist. Aber jetzt in Zeiten von 4k+ ist mehr Durchsatz gefragt, und da wird GDDR5 mehr und mehr zum Flaschenhals.
 
Cherrycoce schrieb:
AMD Grafikkarten sind definitiv die, die auch länger durchhalten. Die 7000er Reihe ist noch heute bei Spielen sehr gut dabei. Die 600 und 700er Reihe von nvidia kann man hingegen praktisch vergessen. Können ja nichtmal dx12.

Also meine GTX670 ist noch gut genug zum Zocken. Man muss ja nicht immer alles auf high spielen. Für mich sieht alles noch gut aus. :-)
 
NUMA=Non Uniform Memory Access
UMA = Uniform Memory Access
Das sind zwei gegensätzliche Dinge. AMD hat als erstes den UMA Zugriff heterogen gemacht.
Ja, aber ich bezog mich doch zu Beginn gleich auf NUMA?

Ergänzung vom 23.04.2015 15:08 Uhr: Übrigens heisst NUMA bei AMD Crossfire multiple GPUs die einen eigenen und einen entfernten Speicher bei GPUs ansprechen können.
Dafür finde ich auch keine Quelle. Ich nehme aber an, dass es Funktionstechnisch ein Kopieren zwischen zwei PCI-Devices ist, welches keinen NUMA (von einem Kernel aus) gleichkommt.

Ergänzung vom 23.04.2015 15:13 Uhr: Hier ein Beispiel das sowohl AMD als auch Nvidia für NUMA basiernde Systeme nutzt:
https://numascale.com/numa_GPU.html
Den Text mal gelesen? Der Text bezieht sich auf das Betreiben eines Clusters mit nur einem OS und mit Distributed Shared Memory CPU-Seitig und hat jetzt mit NUMA im Bezug auf mehrere GPUs untereinander nichts zu tun.
 
Zuletzt bearbeitet:
ich_nicht schrieb:
DX12 soll ab Fermi (GTX 400) laufen, bei AMD ab GCN, also HD 7000.

Ich zocke immer noch fröhlich mit meiner 670 alles mögliche mit ziel auf 144 Hz. Da geht der CPU (3570K @4,4) öffters die Puste aus als der GPU.

Absolute Zustimmung! :daumen:
 
Nai schrieb:
Ja, aber ich bezog mich doch zu Beginn gleich auf NUMA?


Dafür finde ich auch keine Quelle. Ich nehme aber an, dass es Funktionstechnisch ein Kopieren zwischen zwei PCI-Devices ist, welches keinen NUMA (von einem Kernel aus) gleichkommt.


Den Text mal gelesen? Der Text bezieht sich auf das Betreiben eines Clusters mit nur einem OS und mit Distributed Shared Memory CPU-Seitig und hat jetzt mit NUMA im Bezug auf mehrere GPUs untereinander nichts zu tun.
Ich lach mich jetzt wirklich kaputt.
AMD baute NUMA basierende Systeme bevor Nvidia einen Schritt in den HPC Markt gemacht hatte. Nvidia hatte keinerlei NUMA Technik im Gegensatz zu AMD und Intel die Interconnects in Mehrsockelsystemen mit QPI und HT lösten. Jetzt MUSS Nvidia irgendwann mal NUMA möglich machen und hat keine Server-CPUs im Angebot die in einem Cluster das übernehmen. Warum sollte nun AMD diese Notlösung ebenfalls beschreiten? AMD baut Server-APUs und deren GPUs lassen sich wunderbar in einem NUMA angebundenen Magny Cours System (z.B.) clustern.
 
Bei AMD ist alles beim alten.
Die heiße Luft kommt vor den Fakten und am Ende wird kein Schuh draus.

AMD verschenkt ständig Potenzial weil sie nicht richtig am Ball bleiben.
Ein Mantle bringt nix, wenn man es nicht so vermarkten kann, dass es jeder will.

Genauso wenig bringen Technologien etwas, die zwar technologischer aber nicht besser sind, z.B. die "echten" Multicores damals gegen Intels zusammengepappte 2x Dualcore = Quad Version ;)

Letzten Endes lernt die Konkurrenz daraus und macht es besser (DX12).
Hätte man mal Mantle für alle GPUs konzipiert, dann wäre womöglich DX vom Fenster.
 
Zuletzt bearbeitet:
@black90:
Wo genau hast du nochmal die Glaskugel her, die dir ermöglicht, ungefähr ein Jahr in die Zukunft zu schauen, um unglaublich qualifizierte Aussagen treffen zu können? :rolleyes:
 
Nai schrieb:
@ Daedel: Da du in den letzten Posts nur noch Ausflüchte machst, bin ich hier raus.
Raus wobei? Erkläre mir doch lieber was Nvidia und warum sie NUMA in der GPU brauchen und warum AMD dies mit machen muss mit ihrer zentralen IMMOU, die sämtliche Speicherangelegemheiten regelt. Nvidia baut keine Chipsätze und keine CPUs die Speicher verwalten können.
 
Letzten Endes lernt die Konkurrenz daraus und macht es besser (DX12).
Von welchem Spiel sprichst du denn ? Wenn DX12 es besser macht, wieso sind sie auf einmal so schnell unterwegs ? Könnte es an Vulcan liegen ?
Wieso gibt es übrigens von MS Mitarbeiter Aussagen, dass sie mit DX 12 mit AMD und NV an einem Tisch gesessen sind. Interessant ist aber, dass man dann auch meint, öfters mit AMD am Tisch gesessen zu haben. Könnte es an Mantle liegen ?

AMD ist kein Software-Hersteller, also wieso sollte AMD bei Durchsetzten der low level API im Desktop Consumer Bereich weiterhin Mantle als API für Spiele investieren und es durchsetzten wollen?
Mantle wird in der Zukunft eine Techdemo sein, welches bei Bedarf in Spiele integriert werden könnte, falls MS mit DX12 wieder eine Ruhepause macht. Deshalb wird Mantle und Vulkan immer eine gewisse Verwandschaft haben.

Ich kann mir zu mindestens schwer vorstellen, dass NV so stark hinter DX12 stand. War es bisher doch deren Strategie immer nur das nötigste in einer Spieler-GPU zu integrieren und das betraf bereits DX11
 
Zuletzt bearbeitet:
Colonel Decker schrieb:
@Foxel

Ich finde es irgendwie schon verrückt, dass manche Leute eine dreistellige Summe (mehr) ausgeben (wollen), nur damit man bei GTA V dann etwas schöneres Gras hat (denn das frisst ja die meiste Performance auf den hohen Settings).

Da kauft man besser Gras im Coffeeshop und verschönert sich das Real Life. :smokin: ;)

Yeah bin immer wieder überrascht über die UltraHigh Settings im RL.:)
 
Zurück
Oben