News Intel HPC und Supercomputer: Neuausrichtung und der Griff nach Zettascale

Einen 1,x exaFLOPS Rechner zu bauen ist ja keine Kunst. Dann benötigt man halt nicht 1 Etage an Platz sondern 2 Etagen. Verballert dann doppelt so viel Strom die Baukosten werden deutlich höher aber technisch sollte das halt kein Problem sein. Wenn Geld keine Rolle spielt und der Server nicht wirktschaftlich sein muß.
 
Schön wäre es, wenn es so einfach wäre. Du musst bedenken, dass das Intel System eh schon recht ineffizient ist und bei nem ExaFlop wohl um die 30MW zieht. Das sind zich Millionen pro Jahr allein für den Strom. Pro Stunde sind das 1€+, selbst mit was um die 3Cent/kW...

Da mal eben das doppelte zu nehmen ist völlig indiskutabel. Selbst wenn dir die zusätzliche Hardware geschenkt würde und du nur den Betrieb bezahlen müsstest.

Mal ganz davon ab, das es viel mehr ist als einfach nur Hardware zusammen zu stöpseln. Ihr stellt euch das zu einfach vor...

Wenn das Ding nicht ne gute Verfügbarekit und Homogenität hat, dann ist es als großes System quasi nicht nutzbar...
 
  • Gefällt mir
Reaktionen: andi_sco
Raja ist bei AMD wohl mit seinen Ambitionen gegen eine Glasdecke gelaufen bzw. hat er AMD damals offenbar nicht zugetraut, so aufzuholen, wie sie's eben getan haben. Oder Frau Su hat ihm nicht über den Weg getraut. Werden wir ja nun bei Intel sehen, was er letztlich draufhat.

Aber eines ist auch klar: Mit den großen Ankündigungen hängt ihm der liebe Pat gerade auch den Mühlstein um den Hals, mit dem er ihn dann leicht entsorgen kann, sollte er nicht liefern ...
 
Zuletzt bearbeitet: (Typo)
  • Gefällt mir
Reaktionen: Col. Jessep, McTheRipper, ETI1120 und eine weitere Person
engineer123 schrieb:
muss mer mal abwarten, geliefert hat er nichts bislang.
Wenn die Intel GPUs nicht wirklich stark abschneiden, heißts auch bald bei Intel "poor Raja".
Phoenixxl schrieb:
Genau das dachte ich auch. Bei AMD war man über seinen Abgang wohl nicht besonders traurig.
Es ist nun Mal so, dass von außen immer etwas an einer Person festgemacht wird.
Aber wenn man bedenkt wie lange AMD Vega verwendet hat kann man nur feststellen:
  • Eine gute Architektur mit drei Schwachpunkten
    • Nvidia hatte eine bessere
    • Vega hat nicht skaliert
    • Viele neue Gamingfeatures haben nicht wie angekündigt funktioniert
  • Die Ineffizienz wurde dadurch verursacht, dass man die schlechte Skalierung dadurch kompensieren wollte, dass man die GPU zu hoch getaktet hat.
  • Vega ist die Basis/Ausgangspunkt für alles was AMD auf HPC unternimmt
Phoenixxl schrieb:
Aber eins muss man Raja lassen: Er kann sich zumindest selbst gut verkaufen.
Dieses Verkaufen hat ihm IMHO intern AMD Probleme eingebracht. Man muss ihm Vorwerfen, dass er mit seinen öffentlichen Äußerungen Erwartungen geweckt hat, die nicht erfüllt wurden.

Wie es intern gesehen wurde, dass bei dem knappen Budget nicht genutzte Features entwickelt hat, kann ich nicht beurteilen.
sdo schrieb:
Raja hat sicher Fehler gemacht, aber AMDs Zustand damals hat sicher dazu beigetragen, vor allem weil das ganze Geld in Ryzen floss.
Richtig, Vega wurde mit ganz kleinem Budget entwickelt. Und Gaming war nur eines der Ziele.

Und RDNA hat funktioniert, war er da gar nicht involviert?

Crazy- Jak schrieb:
Ich habe schon ein bischen Mitleid mit manchen der Leute die da jetzt ihren posten räumen müssen. Lentzendlich ist Intel in dieser Positition wegen fast einem Jahrzehnt Mismanagement und da kann man nicht viel dagegen machen wenn mann weniger als zwei Jahre im Job ist.
Ich traue dem neuen Boss sehr wohl zu, dass er erkennen kann, ob die Abteilungsleiter vorankommen, sprich den Misthaufen aufräumen, oder damit überfordert sind. Und wenn sie es nicht packen müssen andere Leute ran.
Crazy- Jak schrieb:
Nahezu konstante Umstrukturierung hilft da auch nicht, aber was juckt dass den Vorstand solange die ihre Bonuse kriegen und man die Schuld auf den letzten CEO oder Abteilungsleiter schieben kann.
Der Vorgänger CEO hatte einen undankbaren Job. Er musste aufräumen und die Wende einleiten. Das hat er nach allem was man so hört mit großen Erfolg getan. Da er kein Charisma hatte musste er abtreten und Pat Gelsinger, dem er den Boden bereitet hat, den Posten überlassen. Dass Bob Eaton nicht mehr umstrukturiert hat, dürfte vor allem daran liegen, dass der neue CEO Leute seines Vertrauens auf die wichtigen Posten setzen muss.

Dass die HPC-Abteilung erst jetzt dran gekommen ist, kann unterschiedliche Gründe haben. Ich würde aber nicht von permanenter Umstrukturierung reden.

Als CEO muss man die Entwicklung des Unternehmens verantworten. Selbst wenn man das Unternehmen in schlechtem Zustand übernommen hat, muss eine positive Tendenz erkennbar sein. Und wenn die Zahlen in 2022 nicht den Erwartungen entsprechen gelten für Pat Gelsinger keine Ausreden mehr.

Und ein Boss der seinen Untergebenen die Schuld gibt, wird meist unmittelbar darauf gefeuert. Der Boss ist für allen Mist die seine Leute verzapfen verantwortlich. Dafür werden sie bezahlt und dafür haben sie manchmal auch goldene Fallschirme.
JoeDoe2018 schrieb:
Einen 1,x exaFLOPS Rechner zu bauen ist ja keine Kunst. Dann benötigt man halt nicht 1 Etage an Platz sondern 2 Etagen. Verballert dann doppelt so viel Strom die Baukosten werden deutlich höher aber technisch sollte das halt kein Problem sein. Wenn Geld keine Rolle spielt und der Server nicht wirktschaftlich sein muß.
Geld spielt eine Rolle und die HPC-Maschinen müssen für ihre Maßstäbe wirtschaftlich sein.
Und wenn die Kiste zu groß wird, bekommst Du Probleme mit der Datenübertragung (Latenzen)

Es geht nicht um die theoretische Rechenleistung durch addieren der einzelnen Leistungenangaben, sondern um einen Computer der bei standardisierten Benchmarks die 1 Exaflop übertrifft.
 
Skysnake schrieb:
Dann haben Sie Omnipath eingestampft. XeonPhi wurde eingestampft. Die AI Teile haben nicht wirklich gezündet. Und selbst das FPGA Zeug hat sich faktisch keinerlei Weg in diesen Markt gebahnt...
Das kann man aber auch anders bewerten.

Von Infiniband/Omnipath ist im wesentlich das Zugriffsprotokoll (RemoteDMA) wichtig. Und das findet sich heute wohl in allen schnellen "seriellen" Übertragungsverfahren. Das RDMA Protokoll gibt's auch für Ethernet inzwischen in etlichen Varianten auf IP und UDP und native Ebene und wird auch von converged Controllern unterstützt. Auch die wohl meisten Infiniband Adapterkarten vom Konkurrenten Mellanox(heute bei NVidia) machen Ethernet und Infiniband mit gleicher Geschwindigkeitsklasse wahlweise.

In meinen Augen war Omnipath eh eher strategisch - gegen Mellanox gerichtet. Um deren Proprietarisierungsversuche von der ursprünglich mal offenen und lizenzfreien Intel Technik Infiniband einzufangen. Nach dem Kauf von Mellanox durch NVidia hat sich dieser Ansatz aber erstmal erledigt. Mellanox hat nur mit Netzwerktechnik Geld verdient - NVidia baut damit Supercomputer. Der Blickwinkel auf Netzwerke wird da einfach anders - kompatibel wird da plötzlich wünschenswert. Vor Omnipath hatte Intel als einer der Hersteller von Infiniband Adaptern den einzigen sonstigen Konkurrenten neben Mellanox eingesackt. Vermutlich heißt die Zukunft dieser Vernetzung eh Ethernet (durchaus mit RDMA auf oder statt IP/TCP) und - USB/Thunderbolt. Und das mit optischen Kabeln (optische Transceiver und Switches baut Intel durchaus). Und es wär mir neu das sich Intel daraus zurückgezogen hätte ..

Das XeonPhi eingestampft wurde kann man aber auch so interpretieren as die doppelte AVX512 Technik die den ausgemacht hat heute in jedem Xeon zu finden ist - und dessen Rechenleistung (insbesondere im Supercomputerbereich) gerade ausmacht. Und das mit den 1001 Packaging Optionen, auch bei Intel, künftig auch Dinge wie HBM (oder andere) Speicher (die auch zum XeonPhi gehörten mit (zu)schlappen 4x8 GByte oder sowas) mit im Prozessorgehäuse eh zum künftigen Standard werden. Im Supercomputerbereich ist das noch nicht sehr verbreitet - auch bei AMD nicht - die Speicher waren bislang halt zu einfach zu klein. Aber es gibt ja immerhin einen mit ARM - mit den damals möglichen 16 GByte je Prozessor..

Bei Apple sieht man aber schon das es im Consumersektor, vielleicht weil man die Software unter Kontrolle hat, durchaus anfängt Sinn zu machen Speicher an die CPU ranzurücken. Wenn auch noch nicht auf einem Interposer/Emib sondern auf der Prozessorträgerplatine. Aber das wird mehr werden - nicht nur bei Apple.

FPGA war noch nie ein Thema für die Jedermann Anwendungen. Es gibt sie aber nach wie vor.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Aber wenn man bedenkt wie lange AMD Vega verwendet hat kann man nur feststellen
AMD hat Vega lange genutzt, weil es die letzte Ausbaustufe von GCN war und in dem Bereich, in dem man Vega verwendete, die Nachteile von GCN keine Rolle gespielt haben.
ETI1120 schrieb:
Eine gute Architektur mit drei Schwachpunkten
GCN war eine gute Architektur, sie hatte nur sehr bekannte Schwächen, die man bei Vega nicht angegangen ist, sondern man konzentrierte sich auf revolutionäre Funktionen, die dann nicht liefen.
ETI1120 schrieb:
Viele neue Gamingfeatures haben nicht wie angekündigt funktioniert
Richtig, wobei es nur eine Funktiob war: MeshShader. Ist jetzt aber auch da.
ETI1120 schrieb:
Vega hat nicht skaliert
Vega hat schon skaliert, dad Problem war von GCN aber schon immer, das viel Zukunft dabei war. GCN braucht pro CU 4 Threads/Shader um voll ausgelastet zu werden. Bei Vega also ganze 256 und das brauchen Spiele nicht mal Heute.

Vega skalliert im HPC Bereich so gut, weil es recht einfach ist viele Tasks zu öffnen und mit Daten zu füllen, wenn man genug Daten hat. Spiele haben aber endlich viele Pixel und auch endlich viele Tasks - Ampere hat mit ersterem ein Problem.

GCN wurde im Lauf der Zeit besser, weil GCN immer besser Ausgelastet werden konnte.
ETI1120 schrieb:
Die Ineffizienz wurde dadurch verursacht, dass man die schlechte Skalierung dadurch kompensieren wollte, dass man die GPU zu hoch getaktet hat.
Die Ineffizienz wurde nicht durch Takt verursacht, sondern weil die Karten nicht ausgelastet wurden und die CU zwar die volle Energie benötigten, aber 3/4 der CU keine Ergebnisse lieferte. Die Probleme kann man im Whitepaper zu RDNA nachlesen.
ETI1120 schrieb:
Vega ist die Basis/Ausgangspunkt für alles was AMD auf HPC unternimmt
Weil es dort kein Problem ist die CU auszulasstenm. Die Vektoren sind dirt klein genug und man kann viele aufmachen. Daten, Daten und Daten.

Zu mal man im HPC bereich auch viel aufwand betreibt, die Daten aufzubereiten im Programm. Es kommt da auch nicht drauf an ob alle X ms ein Frame fertig sein muss, sondern es braucht solange es braucht.
ETI1120 schrieb:
Und RDNA hat funktioniert, war er da gar nicht involviert
Laut Gerüchten: Nein.

Da muss man aber viel spekulieren. Es wird gemunkelt, dass man seinem Vega Team die Ingenieure nicht nur für Zen klaute sondern auch für Navi und bei Navi eher Sony die treibende Kraft war.

Aber alles nur Gerüchte.
 
  • Gefällt mir
Reaktionen: BatCatDog
Excel schrieb:
Intel scheitert an großen Projekten und versucht anschließend, ein noch größeres Projekt zu stemmen? Das erscheint reichlich unlogisch. Warum versucht man nicht erstmal, die Bestandsprojekte richtig zu machen?
Projektmanegement als Stichwort....
Das gleiche wie im Space Race. Die Russen waren soweit vorne, dass die Amis sich ein Ziel gesetzt haben, dass so utopisch hoch war, dass die Russen ebenfalls bei 0 hätten Anfangen müssen.
 
Freiheraus schrieb:
Intel berühmt-berüchtigt, 10GHz
Naja, das die CPUs trotz neuer Fertigung gesoffen haben, wie ein Loch, war nicht abzusehen. Hätte man die Pipelines wirklich auf 40 Stufen angehoben, wäre theoretisch noch mehr Takt drin gewesen, aber die Effizienz hätte gelitten.
Tejas gesicherte Daten.png


Vindoriel schrieb:
die 5 GHz auf allen Kernen macht. Das hatte Intel nämlich vor 18 Jahren auf dem IDF (deren Hausmesse) groß rumposaunt
Wahrscheinlich waren alle davon überrascht, denn auch AMD hatte Probleme mit der Fertigung.

sdo schrieb:
Polaris ist die beste Grafikkarte des letzten Jahrzehnts gewesen und wird es vermutlich auch dieses Jahrzehnt bleiben, wenn es so weiter geht.
Warum ist sie für dich die beste?

xexex schrieb:
Naja, aber nicht als Standard Takt 🤪

xexex schrieb:
bis 10Ghz sollte es mal gehen. Mittlerweile dürfte aber jedem klar sein, mit CPUs werden so hohe Taktraten niemals erreicht werden können.
Mit nem einfachen Design sicher möglich, meinst nicht?

ETI1120 schrieb:
Die Ineffizienz wurde dadurch verursacht, dass man die schlechte Skalierung dadurch kompensieren wollte, dass man die GPU zu hoch getaktet hat
Vega schafft im mobilen Bereich Effizienz und Takt
 
  • Gefällt mir
Reaktionen: Onkel Föhn
andi_sco schrieb:
Vega schafft im mobilen Bereich Effizienz und Takt
Da hatte man wahrscheinlich auch mehr Leute an der Umsetzung des Designs dran und wohl verstanden wo die diskreten GPUs in die Taktgrenze gelaufen sind. So konnte AMD Vega für die APUs besser umsetzen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
ETI1120 schrieb:
Naja, der 2500U hatte mit der Vega 8 noch max. 1,1 GHz, der 5500U liegt mit der Vega 7 schon bei 1,8 GHz.
Ist ein stolzer Sprung
 
  • Gefällt mir
Reaktionen: Onkel Föhn und bad_sign
andi_sco schrieb:
Naja, der 2500U hatte mit der Vega 8 noch max. 1,1 GHz, der 5500U liegt mit der Vega 7 schon bei 1,8 GHz.
Ist ein stolzer Sprung
This!

Vega ist effizient wenn man sich den aktuellen Status anschaut und weiss das erst nachträglich nach Vega 56/64 release noch interne sachen an der GPU Arch geändert wurden...
 
senf.dazu schrieb:
In meinen Augen war Omnipath eh eher strategisch - gegen Mellanox gerichtet. Um deren Proprietarisierungsversuche von der ursprünglich mal offenen und lizenzfreien Intel Technik Infiniband einzufangen. Nach dem Kauf von Mellanox durch NVidia hat sich dieser Ansatz aber erstmal erledigt. Mellanox hat nur mit Netzwerktechnik Geld verdient - NVidia baut damit Supercomputer. Der Blickwinkel auf Netzwerke wird da einfach anders - kompatibel wird da plötzlich wünschenswert. Vor Omnipath hatte Intel als einer der Hersteller von Infiniband Adaptern den einzigen sonstigen Konkurrenten neben Mellanox eingesackt. Vermutlich heißt die Zukunft dieser Vernetzung eh Ethernet (durchaus mit RDMA auf oder statt IP/TCP) und - USB/Thunderbolt. Und das mit optischen Kabeln (optische Transceiver und Switches baut Intel durchaus). Und es wär mir neu das sich Intel daraus zurückgezogen hätte ..

Wuere ich anzweifeln. Intel's Netzwerksdivision ist fuer den HPC-Bereich komplett irrelevant heutzutage. Das derzeitig dominierende Interconnect ist HPE/Cray-Slingshot, wessen Vorgaenger ja damals von Cray an Intel verkauft wurde. In GPU-Clustern dominiert auf Grund des Buendeln von NVIDIA Mellanox, und tat es davor auch schon. Ohne Zukaeufe wird Intel hier nicht zurueckkommen koennen.

senf.dazu schrieb:
Das XeonPhi eingestampft wurde kann man aber auch so interpretieren as die doppelte AVX512 Technik die den ausgemacht hat heute in jedem Xeon zu finden ist - und dessen Rechenleistung (insbesondere im Supercomputerbereich) gerade ausmacht. Und das mit den 1001 Packaging Optionen, auch bei Intel, künftig auch Dinge wie HBM (oder andere) Speicher (die auch zum XeonPhi gehörten mit (zu)schlappen 4x8 GByte oder sowas) mit im Prozessorgehäuse eh zum künftigen Standard werden. Im Supercomputerbereich ist das noch nicht sehr verbreitet - auch bei AMD nicht - die Speicher waren bislang halt zu einfach zu klein. Aber es gibt ja immerhin einen mit ARM - mit den damals möglichen 16 GByte je Prozessor..

Was Du hierbei komplett uebersiehst ist, dass alle modernen Rechner welche gerade in Dienst gehen heterogene Architekturen sind, i.e. CPUs + GPUs. AVX-512 ist bei den gerade laufenden Rechnern noch relevant, ist aber augenscheinlich bei der neueren Generation komplett irrelevant. I.e. Intel wollte mit AVX-512 den GPUs entgegen treten. Dies ist gescheitert und die dominante Architektur sind jetzt CPUs fuer die Kommunikation, und GPUs fuer die Rechenaufgaben. Dies siehst Du vor allem auch darin, dass in Frontier zum Beispiel die Netzwerklinks jetzt an den GPUs direkt haengen und die CPU nach "hinten" abgehaengt ist und keine Links mehr zu anderen Nodes hat. Die CPU nimmt hier eine immer staerker untergeordnete Rolle ein.


senf.dazu schrieb:
FPGA war noch nie ein Thema für die Jedermann Anwendungen. Es gibt sie aber nach wie vor.

Wir reden hier von der Supercomputing-Abteilung. Und dort gibt es zwar bisher keine tiefe Verbreitung von FPGAs, aber es gibt auch relevant grosse Testsysteme, welche auf FPGAs setzen. Am Ende fehlt hier den HPC-Zentren die Softwarebasis, welches modernes Cloud-Computing so attraktiv macht. I.e. die Tensorflows/PyTorch's dieser Welt laufen einfach. Auf FPGAs ist da nochmal mehr manuelle Arbeit involviert.
 
icemanspirit schrieb:
Wuere ich anzweifeln. Intel's Netzwerksdivision ist fuer den HPC-Bereich komplett irrelevant heutzutage. Das derzeitig dominierende Interconnect ist HPE/Cray-Slingshot, wessen Vorgaenger ja damals von Cray an Intel verkauft wurde. In GPU-Clustern dominiert auf Grund des Buendeln von NVIDIA Mellanox, und tat es davor auch schon. Ohne Zukaeufe wird Intel hier nicht zurueckkommen koennen.
Und Slingshot ist kein 100..200 GbE ? Und das physische Interconnect basiert nicht zufällig auf Intels optischen 100+G Transceivern ?

icemanspirit schrieb:
Was Du hierbei komplett uebersiehst ist, dass alle modernen Rechner welche gerade in Dienst gehen heterogene Architekturen sind, i.e. CPUs + GPUs. AVX-512 ist bei den gerade laufenden Rechnern noch relevant, ist aber augenscheinlich bei der neueren Generation komplett irrelevant. I.e. Intel wollte mit AVX-512 den GPUs entgegen treten. Dies ist gescheitert und die dominante Architektur sind jetzt CPUs fuer die Kommunikation, und GPUs fuer die Rechenaufgaben. Dies siehst Du vor allem auch darin, dass in Frontier zum Beispiel die Netzwerklinks jetzt an den GPUs direkt haengen und die CPU nach "hinten" abgehaengt ist und keine Links mehr zu anderen Nodes hat. Die CPU nimmt hier eine immer staerker untergeordnete Rolle ein.
Ich seh die Entwicklung schon - die meisten Supercomputer basieren schon auf GPU Systemen. Aber ehrlichgesagt ist für mich die Frage immer noch offen ob eine der Architekturen hier im Endeffekt Vorteile hat. Zumindest der Supercomputer von Fujitsu (ARM mit Vektoreinheiten und HBM existiert ja tatsächlich. Auch wenn die HBM Speicher bislang halt a bisserl (zu) klein sind.

Das Hauptproblem von CPU + SIMD sind eigentlich das die bei dem bisherigen Intel mit dem internen Prozessorcache spielen müssen - weil die DRAM Bandbreite nicht wirklich SIMD gerecht ist. Mit z.B. HBM je Prozessor ändert sich das aber. Genauso bei Architekturen bei denen 1 oder weniger Prozessoren (jeweils Multicore) mit einer GPU kombiniert werden. Mit gemeinsamem cache kohärenten Zugriff auf die lokalen Hauptspeicher.

GPUs habe durchaus auch ihre Probleme - zwar schon immer schnelles (breites) Videoram (mit mehreren 100GByte/s .. 1TByte/s) aber Prozessoren die mit skalaren Codeteilen nun gar nicht klar kommen. Und zwar schnellem VideoRam aber mikrigen VideoRam (8G..32GByte). Und einem gnadenlos dünnen Rinnsal von Daten sowohl zum lokalen Hauptspeicher (PCIex16 macht gut 100GBit/s) oder Netzwerkinterconnect (100GBit oder 200GBit/s).

Aber inzwischen gibt's ja zunehmend Systeme (auch Desktops) bei denen CPU und GPU mal adäquateren Speicherzugang bekommen. Da sieht dann die Bilanz vielleicht auch anders aus .. aber das bei den theoretischen oder selbst praktisch erreichten Spitzenwerten ( T E Z Flops ) die GPUs die Nase vorn behalten dürfte auch so sein. Aber theoretisch ist halt theoretisch und Spitzenwert ist nicht die mittlere erreichte Leistung.
 
Zuletzt bearbeitet:
DevPandi schrieb:
Vega hat schon skaliert, dad Problem war von GCN aber schon immer, das viel Zukunft dabei war. GCN braucht pro CU 4 Threads/Shader um voll ausgelastet zu werden. Bei Vega also ganze 256 und das brauchen Spiele nicht mal Heute.
  • Um wie viel % ist eine Vega 64 bei gleicher GPU-Takt und gleichem Speichertakt schneller als eine Vega 56?
    • Mit demselben Speicher- und GPU-Takt holt die Vega 64 6 % mehr Performance aus 14 % mehr CUs raus.
  • Um wie viel % niedriger liegt die Taktrate der RX6800XT im Vergleich zur RX6900XT?
    • Beide haben dieselbe Frequenz-Settings. AMD schafft es die RX6900XT alleine über die Anzahl der CUs und durch das Binning (Auslese) von der RX6800XT abzugrenzen.
AMD hätte es mit der Vega gar nichts gebracht eine größere GPU auf den Markt zu bringen. Sie hätte gegen die Nvidia-GPUs kein Land gesehen. Und das obwohl Vega mit HBM, die schnellere Speicherschnittstelle hatte.

Was meinst Du wieso RDNA mit maximal 40 CUs erschienen ist?
DevPandi schrieb:
Richtig, wobei es nur eine Funktiob war: MeshShader. Ist jetzt aber auch da.
Es war der Primitive Shader, der für Vega nie aktiviert wurde. So weit ich es verstehe sind Mesh Shader nicht dasselbe wie Primitive Shaders.

Der High Bandwith Cache Controller wurde groß angekündigt, hat aber fast nichts gebracht.

Der Draw Stream Binning Rasterizer brachte nicht den erhofften Effekt.

RPM16 ...

Im Vorfeld wurden die vielen neuen Features von Vega in den Foren heftig diskutiert. Umso größer war die Ernüchterung und der Frust, dass diese teilweise nicht einmal aktiviert wurden oder praktisch keinen Nutzen hatten. Hinzu kam, dass Vega im ersten Jahr nicht gut gereift ist.

DevPandi schrieb:
Vega skalliert im HPC Bereich so gut, weil es recht einfach ist viele Tasks zu öffnen und mit Daten zu füllen, wenn man genug Daten hat. Spiele haben aber endlich viele Pixel und auch endlich viele Tasks - Ampere hat mit ersterem ein Problem.
Genau deshalb sagen viele, dass Vega in erster Linie gar nicht fürs Gaming designed war, sondern als Türöffner fürs GPGPU dienen sollte.

Bei Vega 20 ist es offensichlich. Hier war die Radeon VII nur ein Lückenfüller bis zur Navi. Und verschwand nach dem Release von Navi bald vom Markt. Die Profi- und die GPGPU-Karten waren lange auf dem Markt.

RPM16 (Rapid Pack Math) wurde von AMD auch als Gaming Preformance Boost für Vega angepriesen, war aber offensichtlich für GPGPU vorgesehen. Nur sehr wenige Games haben RPM16 verwendet.


Zur (rhetorischen) Frage ob Raja Koduri nicht auch für RDNA verantwortlich war.
DevPandi schrieb:
Laut Gerüchten: Nein.

Da muss man aber viel spekulieren. Es wird gemunkelt, dass man seinem Vega Team die Ingenieure nicht nur für Zen klaute sondern auch für Navi und bei Navi eher Sony die treibende Kraft war.

Aber alles nur Gerüchte.
Alles keine Gerüchte sondern offensichtlicher Blödsinn.

Raja Koduri war bei AMD Chef der AMD Radeon Technolgie Group und hatte die Verantwortung für alle Aktivitäten bezüglich GPUs. Auch für die GPUs bei SemiCustom. Und an Navi wurde schon zur AMD-Zeit von Raja Koduri entwickelt.

Navi/Navi2 ist IP von AMD, das AMD für Semicustom nutzt. AMD setzt diese IP in APUs ein, die AMD für Sony, Microsoft oder Valve designed.

Du glaubst doch nicht ernsthaft, dass Sony-Ingenieure letztendlich für die XBox gearbeitet haben? Oder dass AMD IP die eigentlich Sony gehört am Damsung lizensieren könnte?

Ich denke die Ursachen zu diesem Gerücht/Blödsinn sind, dass
  • einige den AMD-Ingenieuren nichts zutrauen. Deshalb kann gutes nicht von AMD selbst kommen.
  • einige nicht verstehen was Semicustom macht und glauben Sony hätte die APU in der Playstation entwickelt bzw. mitentwickelt.
Ein Problem für Vega war auch, dass ein großer Teil der ohnehin begrenzten Entwicklungskapazität der AMD Radeon Technolgie Group schon an Navi gearbeitet hat. Aber das Vega- und das Navi-Team gehörten beide zu Raja Koduris AMD Radeon Technolgie Group.

Nach dem Ausscheiden von Raja Koduri wurde die AMD Radeon Technolgie Group aufgelöst, weil niemand mehr da war, der diese Rolle ausfüllen konnte.

Für das Aussscheiden von Raja Koduri selbst gibt es vor allem zwei Erzählmuster:
  1. Er war gefrustet und ging zu Intel, um endlich mal wieder mit ausreichend Entwicklungskapazität arbeiten zu können.
  2. Er wurde gegangen weil Vega eine Entäuschung war.
Nichts genaues weiß man nicht.

andi_sco schrieb:
Naja, der 2500U hatte mit der Vega 8 noch max. 1,1 GHz, der 5500U liegt mit der Vega 7 schon bei 1,8 GHz.
Ist ein stolzer Sprung
Wenn Du so argumentieren willst, dann schau Dir doch bitte an an wie sich die Boostfrequenz über alle APU-Generationen seit Ravenridge verändert hat.

Ein großer Sprung war Renoir, mit dem die Fertigung auf TSMC N7 wechselte. Hier wurde die Vega-Architektur mit einem effizieren Design auf einem erheblich effizenteren Prozess implementiert. Die Boostfrequenzen von Renoir und der knapp 1 Jahr zuvor veröffentlichten diskreten Grafikkarte Radeon VII liegen sehr nahe beieinander. Bei RavenRidge war die Boostfrequenz deutlich kleiner als bei Vega64.

Also gab es zwischen der Radeon VII und Renoir erhebliche Optimierungen im Design.
Und der höhere Takt ist auch zwischen RDNA und RDNA2 ein wichtiger Faktor.

Es gibt die Architektur. Sie beschreibt die logische Funktion einer GPU oder CPU
Es gibt das Design das diese Architektur auf dem Chip implementiert. Beides muss Hand in Hand gehen, sonst kann eine Architektur nicht ihre wahre Leistung auf den Boden bringen. Das bessere Chip-Design war viele Jahre ein entscheidender Vorteil von Nvidia.

Interview anläßlich zur Vorstellung von Renoir:
AnandTech: The rearchitect of Vega for 7nm has been given a +56% performance increase. Does this mean that there was a lot left on the table with the design for 14/12nm? I’m trying to understand how you were able to pull so much extra performance from a simple process node change.

Lisa Su: When we put Vega into a mobile form factor with Ryzen 4000, we learned a lot about power optimization. 7nm was a part of it sure, but it was also a very power optimized design of that architecture. The really good thing about that is that what we learned is all applicable to Navi as well. David’s team put a huge focus on performance per watt, and that really comes out of the mobile form factor, and so I’m pleased with what they are doing. You will see a lot of that technology will also impact when you see Navi in a mobile form factor as well.


Siehe:
https://www.anandtech.com/show/15344/amd-at-ces-2020-qa-with-dr-lisa-su
 
ETI1120 schrieb:
Mit demselben Speicher- und GPU-Takt holt die Vega 64 6 % mehr Performance aus 14 % mehr CUs raus
Hat man das nicht öfters?
 
xexex schrieb:
Nö, der hat ja "nur" 4 GHz, also das, was mit dem Prescott auf Anhieb möglich sein sollte. Kurzzeit-Turbo interessiert nicht...

Hier mal im Einzelnen (hatte ich vor etlichen Jahren gepostet):
IDF Frühling 2002: Prescott: "Damit sollen Taktfrequenzen von 4000 MHz auf Anhieb möglich sein."
Ja, nach 12 Jahren kam dann endlich die 4 GHz Desktop-CPU von Intel (Core i7-4790K Haswell). Der Prescott hingegen erreichte 3,8 GHz, aber mit viel Mühe und noch mehr Kühlung, zumal durfte das Gehäuse nichtmal handwarm werden.

IDF Frühling 2003: Ebenfalls Prescott: "Nach oben sollte in Anbetracht der feinen Strukturen der Weg bis mindestens 5,5 GHz offen sein."
Auf die 5,5 GHz warten wir immer noch...

Quellen der Aussagen von Intel: IDF-Berichte von Tom's Hardware DE

andi_sco schrieb:
Wahrscheinlich waren alle davon überrascht, denn auch AMD hatte Probleme mit der Fertigung.
Naja, AMD wollte den AthlonXP nicht wirklich mit 5 GHz rausbringen (bzw. versprach es nicht heilig) und der Athlon64 war Frühling 2003 erst kurz vor Markteinführung und brauchte auch keine hohen Taktfrequenzen (ca. 1,5fache IPC vom P4).
 
sdo schrieb:
@KlaasKersting @Phoenixxl
Wieso schreibt ihr absichtlich dermaßen ignorant? In eurem Alter sollte euch klar sein, dass Preis ebenfalls eine Rolle spielt und eine Metrik namens Preis-Leistungsverhältnis existiert.

Kann mir doch egal sein was AMD daran verdient.
Als die RX 590 (OC) nur noch 189 € gekostet (inkl. Gratis Game) hat und mit ihren 8 GB RAM lieferte sie mehr FPS als ihr "Gegner" (GTX 1060 6 GB) bei der Customs gerne 100 € mehr gekostet haben.
Ja, die Polaris hat mehr Strom verbraten, aber das juckt die NV´ler HEUTE auf einmal NICHT mehr !
Wem FPS/€ wichtig war/ist, kam an Polaris eigentlich nicht drum rum.
Wer mehr FPS wollte/brauchte, "gerne" Strom spart und der Preis eine untergeordnete Rolle spielt, griff zu Pascal.

MfG Föhn.
 
  • Gefällt mir
Reaktionen: pilzsammler2002 und sdo
Vorweg: Deine Agression ist an der Stelle unnötig, weil ich dich nicht angegriffen habe!

ETI1120 schrieb:
AMD hätte es mit der Vega gar nichts gebracht eine größere GPU auf den Markt zu bringen. Sie hätte gegen die Nvidia-GPUs kein Land gesehen. Und das obwohl Vega mit HBM, die schnellere Speicherschnittstelle hatte.

Was meinst Du wieso RDNA mit maximal 40 CUs erschienen ist?
Eine netter Versuch einer Belehrun, auch von oben herab, ich habe dir aber in meinem Beitrag erläutert, warum Vega als iGPU nicht die selben Probleme hatte wie Vega 56 und Vega 64 und das hat nichts mit HBM zutun und ja, noch größere CPUs mit Vega hätte AMD nicht geholfen.

Die Probleme von GCN allgemein - und diese Probleme gab es auch schon vonher - war die interne Struktur der CU: 4 * Vec16-ALUs bilden eine CU mit 64 Shadern. Die Treiber verarbeiten die Shader in Wave64-Befehlen und das Problem bei GCN war/ist, dass ein Wave64-Befehl nicht in einem Takt pro CU ausgeführt wird - also auf allen Vec16-ALUs, sondern dass ein Wave64-Befehl nur auf einer Alu der CU ausgeführt wird und damit ganze 4 Takte braucht.

Und damit erneut - und ich wiederhole mich: Pro CU braucht man bei GCN 4 Threads/Shader-Programme um eine CU optimal zu nutzen. Bei Vega8 - Vega11 benötigt man also 32 - 44 Threads/Shader-Programme um die GPU optimal zu nutzen. Vega56 und Vega64 benötigen hingegen 224 - 256 Threads/Shader-Programme die zur gleichen Zeit augeführt werden um optimal ausgelastet zuwerden und die ganze Rechenleistung auf die Straße zu bringen. Du kannst dir dafür den Test hier bei CB zu RDNA durchlesen oder erneut dir das AMD-Whitepaper zu RDNA durchlesen.

Bei RDNA hat man die CU drastisch umgebaut und aus diesem Umbau zieht auch RDNA seine Effizient und dieser Umbau ist auch Grund, warum RDNA2 mit weniger Shadern dennoch mit Ampere sehr gut mithalten kann.

Die CU wurde bei RDNA mit einer zweiten CU verbunden - WGP. Dazu wurden die 4 * Vec16-ALUs pro CU durch 2 * Vec32-ALUs ersetzt, so dass nur noch 2 Threads pro CU notwendig sind. Das führt nun dazu, dass ein Wave64-Befehl in 2 statt 4 Takten ausgeführt wird und durch die weniger ALUs auch weniger Threads/Shader-Programme notwendig sind um alles auszulasten. Und ein weiteres Geheimnis von RDNA ist, dass - anders als bei GCN - ein Wave64-Befehl der nur bis zu 32 Werte enthält, auch nur einen Takt benötigt und erst wenn der Wave64-Befehl mehr als 32 Werte hat, er auch 2 Takte benötigt.

Ebenso hat AMD - auch erneut das Whitepaper - angedeutet, dass auch beim Treiber größere Umbauten anstanden bei RDNA und man wohl mit der Zeit auf Wave32-Befehle umgestellt hat/umstellen will/umtellen wollte. Was wiederum anfangs teilweise die Treiberprobleme erklärt.

Und warum man RDNA nur mit 20 WGP oder 40 CU heraus brachte? Relativ einfach und auch AMD hat das durchaus auch angedeutet: Neue Architektur + neue Fertigung. Es gab genug Gerüchte auch über ein "Big-Navi" mit RDNA1-Architektur. Nur wäre AMD bei einer Big-Navi bei RDNA entweder auf HBM angeweisen gewesen oder hätte eine 512-Bit SI umsetzten müssen und letzteres wollte AMD vermutlich um jeden Preis vermeiden, denn mit 512-Bit-SI haben sie schlechte Erfahrungen gemacht.

ETI1120 schrieb:
Es war der Primitive Shader, der für Vega nie aktiviert wurde. So weit ich es verstehe sind Mesh Shader nicht dasselbe wie Primitive Shaders.
Ja, sie nannten sich Primitive Shaders, man kann nicht jede Codenamen im Kopf haben. Ansonsten: "Primitive shaders led to task shaders, and that led to mesh shaders."

Das Ziel und die Möglichkeiten hinter den Primitive-Shadern und heute den Geometry-Shadern ist ähnlich und wenn man der Aussage folgt, dann sind die Geometry-Shader die Folge der Entwicklung der Primitive-Shader.

Es sind die selben Ziele, Geometry-Shader sind dabei eine Evolution der Primitive-Shader und damit zwar nicht dasselbe, jedoch gehören sie zu einer Familie.
ETI1120 schrieb:
Der High Bandwith Cache Controller wurde groß angekündigt, hat aber fast nichts gebracht.
Oh, der HBCC hat schon etwas gebracht, nur war der HBCC zu dem Zeitpunkt eigentlich unnötig, weil kein Spiel damals die 8 GiB-VRAM wirklich gesprengt hat und man damit das, wofür er gedacht war, überhaupt nicht wirklich nachstellen konnte.
ETI1120 schrieb:
Der Draw Stream Binning Rasterizer brachte nicht den erhofften Effekt.
Oh, für AMD hat er den erhofften Effekt gebracht und DSBR wird von AMD auch bei RDNA und RDNA 2 verwendet und entsprechend auch weiter verbessert.

AMD hat damals angeben, dass damit die benötigten Date beim Rendern reduziert werden und hat auch entsprechende Vergleiche gebracht. Das Problem ist da eher die Community - auch besonders hier - und was die dann daraus gemacht haben. Der DSBR ist ein Puzzleteil, mit de man den Datenhunger reduzieren kann und dazu das Bild entsprechend gut in Kacheln einteilen kann, daraus wid aber nicht automatisch ein Geschwindigkeitsschub und erst recht nicht, wenn man die Wave64-Problematik mit den GCN CU im Hinterkopf hat.
ETI1120 schrieb:
Ah ja, die FP16 Sache, auch die hat etwas gebracht, nur - erneut - liegt das Problem hier nicht direkt bei AMD, FP16 macht auch heute genau das, was es damals bereits gemacht hat - Funfact am Rande: in DX12 kann man heute als Shader-Programmierin sogar explizit bestimmen, ob man FP16 oder FP32 nutzen will, genau so kann man seit 6.1? in der ShaderLanguage sogar explizit die Vektorbreite für den Shader anpassen und so von Wave16 - Wave64 gehen.

Das Problem erneut ist die CU von Vega - und GCN allgemein - das Problem. Eine Karte die ohnehin bereits Teile der Rechenleistung ungenutzt verpuffen lässt - 4 Wave64-Befehle pro CU, sonst ist sie nicht optimal ausgelastet - wird nicht unbedint viel schneller, wenn man nun mit bis zu 64 FP16-Werten kommt, die dann auf einer CU laufen, statt 4 Takten dann halt nur 2 Takte. ...
ETI1120 schrieb:
Im Vorfeld wurden die vielen neuen Features von Vega in den Foren heftig diskutiert. Umso größer war die Ernüchterung und der Frust, dass diese teilweise nicht einmal aktiviert wurden oder praktisch keinen Nutzen hatten. Hinzu kam, dass Vega im ersten Jahr nicht gut gereift ist.
Die Features wurden im Vorfeld heftig diskutiert und teile der Features wuden durch Unwissenheit der Diskussionsteilnehmer auch massiv verklärt. Der Tiled-Based-Renderer von NVIDIA wurde als das große Geheimnis der Leistung von Maxwell und Pascal verklärt und damit wurde auch dem DSBR "Wunderkräfte" unterstellt. Die Hauptaspekt von TBR als auch DSBR ist es immer, dass man Bandbreite sparrt, weil man entsprechende verdeckte Polygone verwerfen kann und ebenso dass man die Tiles besser auf die Hardare verteilen kann. Das kann Leistung bringen, muss aber nicht.
ETI1120 schrieb:
Genau deshalb sagen viele, dass Vega in erster Linie gar nicht fürs Gaming designed war, sondern als Türöffner fürs GPGPU dienen sollte.
Macht die Aussage aber nicht richtiger, denn die Probleme von Vega sind keine speziellen Probleme von Vega, sondern es sind allgemeine Probleme von GCN - auch hier verweise ich auf das RDNA Whitepaper von AMD, zu finden auf der Webseite von AMD.

GPGPU unterstützen AMD/ATi-Grafikkarten bereits seit den X1x00-Modellen und ATi war damals sogar noch vor NVIDIA im "Markt". GCN hat aber bereits seit Version GCN1 das Problem mit der CU und dass man 4 Wave64-Befehle pro CU braucht um die Grafikkarte optimal auszulasten. Das Problem ist in den ersten GCN-Versionen nicht wirklich aufgefallen, besser es war damals kein so großes Problem:

GCN1 hatte maximal 32 CU und damit 2048-Shader, macht bei 4 Wave64-Befehlen und damit Verbunden 4-Shader Programme ca. 128 Shader, die eine Engine gleichzeitig abfeuern muss im Bild dass ist damals zwar schon viel gewesen, aber nicht unrealistisch und gleichzeitig konnte damit GCN1 gut altern. GCN2 brachte nun 2816 und damit 44 CU und auch hier stehen am Ende "nur" 176 Thread/Shader pro Bild, aber bereits bei der R290 merkte man, dass die Leistung nicht mehr unbedingt in Relation zu den FPS steht.

Die Radeon Fury - 64 CU - hat aber schon 2015 gezeigt, dass da was nicht passt, besonders wenn man sich den Shader-Count der 980 und 980 Ti ansieht.

Und diese Probleme haben nichts mit einer angeblichen GPGPU-Ausrichtung von Vega zutun, die Probleme waren bereits zu GCN und damit Radeon HD 7000 vorhanden, sie traten damals nur nicht in der Form ans Licht, sondern erst später.

Natürlich wird man jetzt damit kommen, dass ja RDNA alias 5700 XT in Spielen ja schneller ist als Radeon Vega 64 und auch die Vega 7, während diese ja in GPGPU viel schneller ist und das der Beweis dafür wäre, dass ist aber - um deine Wortwahl zu nutzen: Blödsinn! Die RDNA-1 GPUs sind in GPGPU nicht schneller sondern langsamer als Vega 56, Vega 64 und Vega 7, weil ihnen ganz einfach die CUs fehlen und das auch im erwartbaren Maß wie die theoretische Rechenleistung fehlt.

RDNA eigent sich, sobald man seine OpenCL-Programme etwas anpasst, genau so gut für GPGPU wie es GCN tat. Einziger unterschied ist, dass man nun statt bis zu 256-Threads zur gleichen Zeit nur noch - damals - 80 und jetzt bis zu 160. Wenn man entsprechend das weiß und beachtet, dann kann man auf diese Eigenheit optimieren und bekommt auch die zu erwartende Leistung.

NVIDIA hat lange Jahre keine wirkliche Unterscheidung zwischen HPC und Gameing gemacht und später beschränkte sich der Unterschied einfach darauf, dass man FP-DP in dedizierte Einheiten auslagerte und diese Strich.

Die erste wirkliche "Trennung" in HPC und Gaming gab es bei bei NVIDIA in Form von Pascal und Volta, wobei man Turing dann durchaus als Volta für Gamer ansehen kann - 64 FP-Shader pro SM, dazu Tensore-Kerne und eben Raytracing + 64 INT-Shader.

Und auch nun die beiden Ampere-Lösungen sind sich in der Architektur ähnlicher, als man vermuten mag. aber über die HPC-Schwäche von RDNA und woher die "kommt", könnte ich einen ganzen Aufsatz mit den dazugehörigen Pseudocodes erstellen.
ETI1120 schrieb:
Bei Vega 20 ist es offensichlich. Hier war die Radeon VII nur ein Lückenfüller bis zur Navi. Und verschwand nach dem Release von Navi bald vom Markt. Die Profi- und die GPGPU-Karten waren lange auf dem Markt.
Die GPGPU-Karten waren lange auf dem Markt, weil Vega7 alleine von der Rohleistung Navi weit überlegen war, weil mehr CU und damit verbunden ALUs. Ebenso die Tatsache, dass man im HPC-Bereich die Daten ganz anders aufbereiten kann für die GPU und es nicht relevant ist ein fertiges Bild nach X Milisekunden zu haben, sondern am Ende es zählt, wann das Ergebnis fertig ist. Man kann im HPC-Bereich also durchaus auf der CPU erst mal die Daten sortieren und passend auf Threads auf der GPU verteilen. Bei einem Spiel geht das leider halt nicht, da kommt der Shader und der muss entsprechend schnell ausgeführt werden.

Im übrigen kommt in dem Fall bei GCN allgemein und Vega auch etwas weiteres zum tragen: Frag dich mal, warum GCN allgemein und Vega weit stärker von Async-Shadern profitiert hat als NVIDIA und NVIDIA erst mit Turing und nun Ampere auch von Async-Shadern profitiert. Kleiner Tipp: Es hat hat mit dem Aufbau der CU bei AMD zutun und dem heutigen Aufbau der SM bei AMD - mit Turing.

Die Async-Schwäche bei NVIDIA bis einschließlich Pascal hat nicht wirklich etwas mit dem Treiber und dem Treiberschedulign zutun, wei man damals gerne vermutet und die Gaming-Probleme unter DX11 bei GCN und speziell bei Vega auch nichts mit dem Hardware-Scheduler. Ich habe genug Hinweise nun eingebaut, denk mal darüber nach!
ETI1120 schrieb:
RPM16 (Rapid Pack Math) wurde von AMD auch als Gaming Preformance Boost für Vega angepriesen, war aber offensichtlich für GPGPU vorgesehen. Nur sehr wenige Games haben RPM16 verwendet.
RPM16 bringt - genau so wie VSR - nur etwas, wenn die Grafikkarte quasi im Limit läut und man bei RPM16 als auch bei VSR auch genug Daten zusammen bekommt. Ansonsten ist der Nutzen eher gering bis nicht vorhanden.

Bei RPM16 als auch VSR kommt es stark darauf an, wie viele Threads/Shader laufen bereits und wie viele Daten kann ich mit RPM16 oder VSR wirklich einsparren und schaufel ich damit Ressourcen frei, die ich dann auch nutzen kann.
ETI1120 schrieb:
Alles keine Gerüchte sondern offensichtlicher Blödsinn.
Ah, offensichtlicher Blödsinn? Und dass es offensichtlicher Blödsinn sind, kannst du auch beweisen? Also wirklich beweisen. Ich würde dir an der Stelle im übrigen empfehlen, wenn du andere schon schräg anmachen willst dass du auch wirklich richtig liest:

Ich schrieb nicht davon, dass Sony zu AMD Ingenieure schickte und die mit diesen Navi entwickelt haben, sondern das Sony hinter Navi die treibende Kraft war und das kann man sehr vielfältig interpretieren. In der Gerüchteküche schreibt man in dem Fall, dass Sony mit GCN nicht so zufrieden war und man daher doch anregte, dass man die Probleme angehen soll und es tiefgreifende Veränderungen braucht.

Genauso besagen die Gerüchte, dass Navi zum Teil hinter Koduris Rücken entwickelt wurde, während er eben Vega favorisierte und ihm da immer wieder Ressourcen wegenommen wurden. Letzteres hat er selbst wohl in einem Tweet auch angegeben.

Das Problem an den Gerüchten ist, dass man sie genauso wenig beweisen/belegen kann, wie dass man sie wirklich wiederlegen - hier halt als Blödsinn abstempeln kann.

Genau so sind deine Anmerkungen, warum Koduri gegangen ist, nur Gerüchte und man könnte manche mehr oder weniger stark als Blödsinn bezeichnen.

Und wenn du glaubst, dass Koduri, auch wenn er Chef der RTG war, nicht hätte übergangen werden können bei gewissen Projekten auch in seiner Abteilung, dan bist du ganz schön naiv. Ich habe sowas schon oft erlebt, dass Teams auch hinter dem Rücken des eigentlichen Vorgesetzten an Projekten bereits gearbeitet wurden und diese Projekte dann an andere Stelle vorgestellt wurden um den eigentlichen Chef zu deskreditieren.

Und nein, AMD hat die RTG nicht wirklich aufgelöst und die RTG wird sogar noch als Bestandteil von AMD geführt.

Für die Hardware - also GPU-Architektur - ist Martin Ashton zuständig, der von Intel kam und auch vorher durchaus auch an sehr interessanten GPU-Sachen - darunter das Tiled-Based-Rendering und ebenso "PowerVR"-GPUs zuständig war und für die Software ist es nun Andrej Zdravkovic und der direkte Chef der RTG ist David Wang. Und gerade mit der Biografie von Wang solltest du dich in dem Fall beschäftigen, denn einige der legendären ATi-GPUs und AMD sind unter seiner Führung entstanden.
 
  • Gefällt mir
Reaktionen: bad_sign und Onkel Föhn
Nur als Info, es wurde von 2400G zum 3400G auch innerhalb der Vega etwas geändert...Ich habe damals wild durchgetestet mit gleichem festgesetzten CPU-, RAM- und GPU-Takt und in einigen Benchmarks (unigine z.B.) war die 3400G Vega trotz identischer Settings bis zu 8% schneller (Unigine) bei weniger VRAM/RAM usage :)
 
  • Gefällt mir
Reaktionen: Onkel Föhn
pilzsammler2002 schrieb:
Nur als Info, es wurde von 2400G zum 3400G auch innerhalb der Vega etwas geändert...Ich habe damals wild durchgetestet mit gleichem festgesetzten CPU-, RAM- und GPU-Takt und in einigen Benchmarks (unigine z.B.) war die 3400G Vega trotz identischer Settings bis zu 8% schneller (Unigine) bei weniger VRAM/RAM usage :)
Bis zu 8 % ist ja schon heftig.

Es ist ja nicht so dass nach dem Release alles in Stein gemeiselt ist.

Es müssen ab und an neue Masken implementiert werden und hier werden Fehler korrigiert.
Bei einem wechsel neuen Chip zwischen 2400G zum 3400G kann man Fehler im RTL beseitigen oder im RTL kleinere Optimierungen einfliesen lassen. Kleiner in dem Sinne, dass man einzelne ineffiziente Codepartien neu schreibt. Dies sind dann keine Änderungen bei denen man nach außen hin von einer neuen Architektur spricht.

Und es ist halt so viele kleine Änderungen in Summe eine große Änderung ergeben können.
 
Zurück
Oben