News Intel A350M und A370M: Arc-Grafiktreiber „optimiert“ noch immer Benchmarks

ETI1120 schrieb:
Er ist jemand der sich gerne in den Mittelpunkt stellt. Er macht gerne große Versprechungen. Als klar wurde daß Vega nicht das liefert was er suggeriert hat er sich erst verkrochen und ist dann zu Intel verschwunden.

Vega wurde nur deshalb zu einer solchen Enttäuschung weil Raja unrealistische Erwartungen geschürt hatte.
Er ist halt ein ziemlich guter Ingenieur, aber eben keine Führungsperson. Nur leider macht ers nicht mehr darunter. Seine Vita zeigt schon, daß er fachlich sehr wohl etwas drauf haben muss.
 
andi_sco schrieb:
Du vergisst Xe als Stand Alone Karte und als (i)GPU im Notebook lbereich
Ergänzung ()


Nein die vergesse ich nicht, es geht um die Arc dGPUs. DG1 und iGPUs sind eine andere Architektur mit anderen Treibern. Diese Benchmark Optimierung ist nur beim Arc Treiber dabei.
 
Piktogramm schrieb:
Weiter mit meinem GPU Halbwissen. GPUs haben vergleichsweise viele, direkt ansprechbare Register. Es wäre daher sinnvoll, diese auch zu nutzen. Wenn zwei (kleinere, unabhängige) Shader je v0, bis v6 nutzen, die GPU aber v[0..15] hat. Wäre es sinnvoll, die loads beider Shäder möglichst früh einzuplanen und den zweiten Shader derart abzuändern, dass statt v0 bis v6 zu nutzen v7 bis v12. Shader1 wird nicht oder nur minimal beeinfluss, Shader2 hat jedoch keine Wartezeit für sein Load.
Das wäre noch das Simpelste, GPUs sind aber nicht mein Gebiet und ich finde kaum Material, dass mir da ausreichend Einblicke liefert :/
Soweit ich weiß ist so eine teilweise Anlieferung von Daten nicht möglich. Die Shader von GPUs arbeiten nach dem SIMD-Prinzip: Single Instruction, Multiple Data. Es müssen also auf allen Shadern einer Wave64er-Gruppe mit der gleichen Berechnung ausgeführt werden. Nur AMD kann mittlerweile die Wave32-Unterteilung, die entsprechend stark die IPC hat ansteigen lassen. Intel ist noch bei Wave64.

Sobald die Grundstruktur von Shadern abgewandelt wird, können sie ihre Hauptaufgabe nicht mehr ausführen, nämlich sehr viele Daten in kurzer Zeit verarbeiten. Deswegen kann man GPUs mit 5000 Kernen so leicht füttern, weil die Struktur genau dafür ausgelegt ist. Jede Änderung daran kann Probleme machen. Gut möglich, dass Intel an sowas jetzt stolpert.
SV3N schrieb:
Wo ist eigentlich @Colindo wenn man ihn mal braucht? :D
"Sie nennen diese Unsitte 'Week-End'!"
ETI1120 schrieb:
Was mich bei der ganzen Sache so irritiert ist, dass man Hardware und Treiber neu hochzieht und eigentlich weiß wie die Software funktioniert. Erfahrung mit GPU hat Intel schon lange. Sie haben sich Leute von außen geholt. Und sie haben die Mittel um eine gute Zusammenarbeit mit den Gameentwicklern aufzubauen. Als Neueinsteiger orientiert man sich an dem wie es üblich ist.
Entweder gibt es für die gute Hardware noch Patente oder man hat etwas Neues versucht (vielleicht optimiert für Server) was bei Spielen Probleme macht.
 
  • Gefällt mir
Reaktionen: bad_sign, yummycandy, Piktogramm und eine weitere Person
ETI1120 schrieb:
Vor allem würde mich interessieren warum Intel die benchmarkspezifischen Optimierungen ausschaltbar machen muss
Damit man den Unterschied zwischen optimiert und unoptimiert sehen kann.

"This gives anyone the ability to see the top-level Intel Arc hardware potential of a fully optimized workload, as well as general benchmark performance."

Klar kann man das al Betrugsversuch auslegen. Aber Nvidia hat das vor Jahren auch schon gebracht, dort mussten es aber Anwender herausfinden. Während Intel es kommuniziert.
 
Intel hat auch einfach eine Lange Geschichte benchmarks zu Fälschen/Beeinflusse und ein Gerichtliches Urteil/Gerichtliche Urteile dahingehend verloren.


Bei denen glaube ich nicht einen einzigen Benchmarkbalken :-) , das einzige das Zählt sind eine Reihe von echten Spielen (sehr bekannt UND unbekanntere) wo die Performance dann verglichen wird.


Generell sagt man ja traue keinem Herstellerbenchmark, aber bei Intel ist das ganz besonders wichtig, weil die sogar Benchmarks bezahlt haben/ verscheleiert selbst geschrieben haben und in Auftrag gegeben haben, die die Nutzer in die Irre führen.
 
xammu schrieb:
"This gives anyone the ability to see the top-level Intel Arc hardware potential of a fully optimized workload, as well as general benchmark performance."

Klar kann man das al Betrugsversuch auslegen.
Als was sonst?

Wenn ich das volle Potenzial zeigen will hole ich mir ein paar Programmierer und haue ein paar Demos raus. Und Stelle das ganze als Open Source zur Verfügung.
 
Colindo schrieb:
Es müssen also auf allen Shadern einer Wave64er-Gruppe mit der gleichen Berechnung ausgeführt werden.
Die Wavefront kann Intel im Treiber - ähnlich NVIDIA - ja selbst bestimmen. AMD hat von Wave64 auf Wave32 umgestellt.

Bei RDNA war die Umstellung aber nicht der Hauptgrund, warum man plötzlich schneller war - der Umbau war ja damals beim Erscheinen noch in der Umsetzung, was ja auch die massiven Treiberprobleme damals erklärt.

Die Probleme GCN war eher, dass innerhalb einer CU nicht die vier Vec16 an einem Wave64-Befehl arbeiten konnten, sondern nur eine, wodurch man 4 Takte benötigte und ebenso, dass wirklich immer 4 Takte benötigt wurden. RDNA hat mit Vec32 die Zeit halbiert und gleichzeitig auch noch, dass ein Wave64 sogar in einem Takt läuft, sollten nur maximal 32 Werte kommen.

Aber, wo du mich daran erinnerst: Der Xe-Core hat 128 Shader, die sich auf 16 EU verteilt (256-Bit-SIMD). Frage ist, ob Intel es vorsieht, dass mehrere EUs an einem Thread arbeiten und wenn nicht, mit welcher Wavefront Intel wirklich im Treiber fährt. Sollte Intel ein ähnliches Problem wie AMD mit GCN haben, dann ist die Frage, was Intel in den nächsten Versionen macht.

Ich würde Intel noch nicht abschreiben. Intel hat sich in den letzten 2 Jahren einige gute Köpfe geholt für die GPU Entwicklung - neben Koduri. Der ist jetzt auch auf einem anderen Posten, in dem er mehr Verantwortung hat und gleichzeitig weniger direkt in die Entwicklung eingreifen kann.

Xe Alchemist wird nicht wirklich gut werden, aber wenn Intel dabei bleibt und sie die Architektur anpassen und verbessern, kann es durchaus was werden.
 
  • Gefällt mir
Reaktionen: Colindo
Alexander2 schrieb:
Intel hat auch einfach eine Lange Geschichte benchmarks zu Fälschen/Beeinflusse und ein Gerichtliches Urteil/Gerichtliche Urteile dahingehend verloren.


Bei denen glaube ich nicht einen einzigen Benchmarkbalken :-) , das einzige das Zählt sind eine Reihe von echten Spielen (sehr bekannt UND unbekanntere) wo die Performance dann verglichen wird.


Generell sagt man ja traue keinem Herstellerbenchmark, aber bei Intel ist das ganz besonders wichtig, weil die sogar Benchmarks bezahlt haben/ verscheleiert selbst geschrieben haben und in Auftrag gegeben haben, die die Nutzer in die Irre führen.


Das kannst du generell nicht bei Herstellerbenchmarks, AMD war in letzter Zeit sogar schlimmer, weil komplett intransparent bei ihren Vergleichen. Bei Rembrandt haben sie 28W gegen 15W Cezanne verglichen ohne es zu kommunizieren. AMD verrät auch keine Testdetails, während es bei Intel eine dedizierte Performance Index Webseite dazu gibt. Da kann sich AMD eine Scheibe von abschneiden.
 
lntel hat so viel betrogen, das das was du gut findest Gerichtlich vorgeschrieben ist bei Intel.
Wenn die es nicht machen Landen die gleich wieder vor Gericht/bekommen strafen.
 
Alexander2 schrieb:
lntel hat so viel betrogen, das das was du gut findest Gerichtlich vorgeschrieben ist bei Intel.
Wenn die es nicht machen Landen die gleich wieder vor Gericht/bekommen strafen.

Gibt es dazu eine Quelle, wo soll das vorgeschrieben sein? Dann sollte auch AMD so transparent vorgehen wie Intel. Sind sie aber nicht, aber juckt dich anscheinend nicht. Damit machst du nicht unglaubwürdig. Von einem fordern, den anderen betrügen lassen. Doppelmoral nennt man das.
 
mkl1 schrieb:
Gibt es dazu eine Quelle
Ich habe mir jetzt extra die Mühe gemacht das herauszusuchen bei der FTC und mehrere Minuten gelesen, nur für dich :-)

Bitte sei dankbar!

https://www.ftc.gov/sites/default/files/documents/cases/101102inteldo.pdf
Schau mal Seite 17

Edit:
https://www.ftc.gov/legal-library/browse/cases-proceedings/061-0247-intel-corporation-matter
https://www.golem.de/1008/76987.html

Edit:
Hättest du aber auch wirklich selber Finden können, wenn es dich wirklich interessieren würde. Dir ist nur aufgestoßen, das ich nicht gut von Intel rede denke ich :-)

Du darfst gerne über AMD herziehen, solange es die Wahrheit ist. Beide Firmen sind keine Wohltäter/Engel, aber Intel ist der schlimmere von beiden :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign, Ein_Freund, ThePlayer und eine weitere Person
chb@ schrieb:
Macht den Laden so unsympathisch, trotz guter Innovationen.
Finde ich auch, ich "investier(te)" in AMD und werde nur noch AMD CPU's kaufen.
Es gibt noch keine alternative für XPoint, aber das kommt hoffentlich noch.
Ergänzung ()

Fr34k.2 schrieb:
Ich dachte die Zeiten der Treiber-Cheaterei seien vorbei.
Die sind nie mit indirekten API's wie DirectX-3d und OpenGL vorbei, da gibt es immer spezielle routinen...
Ergänzung ()

karamba schrieb:
Stecken nicht in den Grafiktreibern von AMD und NV auch alle möglichen Optimierungen für alle mögliche Software?
Ja
 
Zuletzt bearbeitet:
Crifty schrieb:
Was haben die Avatar Fortsetzungen und Intel Grafikkartentreiber gemeinsam? Alles wird immer wieder verschoben:rolleyes:
Ich war am Samstag in Kino und habe den Avatar Trailer gesehen da stand am Ende diesen Dezember im Kino. Damit kommt der noch vor dem Treiber :D
 
mkl1 schrieb:
AMD verrät auch keine Testdetails,
Quatsch, natürlich tun sie das. Bei Foliensätzen gibts immer einen Vermerk zu einer Folie am Ende oder Webseite mit allen Details zu System, Test, etc.
 
  • Gefällt mir
Reaktionen: Tzk und Colindo
Powl_0 schrieb:
Quatsch, natürlich tun sie das. Bei Foliensätzen gibts immer einen Vermerk zu einer Folie am Ende oder Webseite mit allen Details zu System, Test, etc.

Auf der CES haben sie nichts verraten. Erst später über Umwege wurde bekannt, dass AMD 28W Rembrandt gegen 15W Cezanne verglichen hat. Bis dahin haben sie es verschwiegen. Offiziell gab es von AMD keine Folie dazu, die wurde später in einem Forum gelakt. AMD ist diesbezüglich sehr intransparent, sie verschweigen so einiges. Viele haben das Vertrauen in AMD verloren. Also Marketingslides kannst du bei AMD mindestens genauso wenig vertrauen wie derer von Intel.
 
mkl1 schrieb:
Also Marketingslides kannst du bei AMD mindestens genauso wenig vertrauen wie derer von Intel.
Ich traue keinen von beiden Marketingslides, aber im Vergleich denen von AMD 5 Mal mehr als denen von Intel.
Ja, auch AMD zeigt am liebsten die Benchmarks die am erfolgreichsten aussehen.

Es ist ein ungeschriebenes Gesetzt, das du dich freuen darfst, aber IMMER BEI JEDEM unabhängige Benchmarks abwarten solltest.
 
  • Gefällt mir
Reaktionen: Ein_Freund
mkl1 schrieb:
Auf der CES haben sie nichts verraten.
Warum konnte CB denn dann direkt im Moment der Veröffentlichung ein entsprechendes Update in ihrem Artikel einpflegen, wenn das bei der Präsentation nicht klar kommuniziert wurde?

"Fragwürdige Benchmarks von AMD​

Am Ende schlagen sich diese Optimierungen laut AMD in der Leistung nieder. AMD fährt die Neulinge durchweg mit mehr Takt als noch den Vorgänger. Elf Prozent mehr Leistung im Single-Core-Test beim neuen Ryzen 7 6800U zum Vorgänger Ryzen 7 5800U fußen halt primär darauf, dass der Neuling 300 MHz höher takten darf. Im Mehr-Kern-Einsatz gibt es Leistungssteigerungen um fast 30 Prozent – hier kommen die Effizienzsteigerungen deutlich zum Einsatz, aber auch, dass die U-Klasse nun nominal mit 28 Watt unterwegs ist, während dem Vorgänger laut Test nur 15 Watt zustanden. Im realen Alltag bei gleichen TDPs werden die Unterschiede vermutlich deutlich geringer ausfallen als sie hier suggeriert werden, denn Zen 3 ist immer noch Zen 3."
 
Zuletzt bearbeitet:
Colindo schrieb:
Warum konnte CB denn dann direkt im Moment der Veröffentlichung ein entsprechendes Update in ihrem Artikel einpflegen, wenn das bei der Präsentation nicht klar kommuniziert wurde?

"Fragwürdige Benchmarks von AMD​


Am Ende schlagen sich diese Optimierungen laut AMD in der Leistung nieder. AMD fährt die Neulinge durchweg mit mehr Takt als noch den Vorgänger. Elf Prozent mehr Leistung im Single-Core-Test beim neuen Ryzen 7 6800U zum Vorgänger Ryzen 7 5800U fußen halt primär darauf, dass der Neuling 300 MHz höher takten darf. Im Mehr-Kern-Einsatz gibt es Leistungssteigerungen um fast 30 Prozent – hier kommen die Effizienzsteigerungen deutlich zum Einsatz, aber auch, dass die U-Klasse nun nominal mit 28 Watt unterwegs ist, während dem Vorgänger laut Test nur 15 Watt zustanden. Im realen Alltag bei gleichen TDPs werden die Unterschiede vermutlich deutlich geringer ausfallen als sie hier suggeriert werden, denn Zen 3 ist immer noch Zen 3."


Über inoffizielle Quellen, deswegen ja auch erst per Update :D

Wo siehst du Fußnoten oder dergleichen oder eine Seite wo man die Details sieht? Hat AMD nicht nötig gehabt mit anzugeben. Noch unseriöser ist ihr A370M Vergleich gewesen. AMD hat die A370M nicht einmal selber getestet.
 
mkl1 schrieb:
Über inoffizielle Quellen, deswegen ja auch erst per Update
Eine tolle Behauptung, die du da hast. Wie wäre es eigentlich mal mit einem Beleg, wenn man dir schon jede Quelle mit der Hand füttert?
 
  • Gefällt mir
Reaktionen: Tzk, Alexander2 und Spike S.
Zurück
Oben