News Intel MKL: Matlab R2020a beinhaltet offiziellen AMD-Workaround

Iscaran schrieb:
Deswegen sehe ich hier eben vor allem die Softwareentwickler in der Pflicht solches "einseitiges" De-Optimierungsverhalten öffentlich zu machen und an solchen Stellen einfach als alternative auf was anderes setzen das Intel und andere CPU's "gleich" behandelt. (z.B. openBLAS).

Nein... viel einfacher - und so wird es normalerweise auch gemacht, z.B. bei DNN Frameworks:

Intel CPU / GPU -> DNNL / MKL-DNN als Backend
AMD CPU -> OpenBLAS oder AOCL oder im Falle einer GPU AMD ROCm
Nvidia GPU -> CUDA

Es wird einfach das passende Backend zur jeweiligen Hardware gewählt - falls der jeweilige Hardwarehersteller so etwas anbietet. Kann man als eine Art speziellen Treiber betrachten.

Und noch einmal... diese ganze Geschichte wurde schon vor über 10 Jahren im Zusammenhang mit dem Intel-Compiler von einer zuständigen Behörde in den USA geprüft und Intel darf das so machen. (Das wurde in früheren Threads zu dem Thema alles besprochen inklusive Quellen... da kann jeder selbst nach suchen, ich suche das nicht noch einmal heraus.)

Mein Favorit sind zwar offene Bibliotheken (wie OpenBLAS) und Standards, aber derzeit sind die besten Lösungen eben nicht offen... und man nimmt eben das jeweils passende Backend.

Und da das Ganze für 97% der Kunden irrelevant ist, wird aus der Aufregung mancher auch niemals mehr als ein Sturm im Wasserglas.
 
Zuletzt bearbeitet:
Kannst du genauer erklären was DNN sein soll ? Du spielst doch damit nicht einfach auf dot.net.nuke an oder ?
https://en.wikipedia.org/wiki/DNN_(software)

Das ist ja nur ein Content management system. Das kann zwar meiner Einschätzung nach Entwicklerseitig helfen solche Probleme bei Verwendung z.B. von "nur der Intel-MKL" zu umgehen, ist aber keine wirkliche Lösung für die MKL-Tricksereien an sich.

Aber zumindest wäre das eben eine Stelle wo Entwickler ansetzen können.
 
Iscaran schrieb:
Kannst du genauer erklären was DNN sein soll ?

Na klar, so ist das, wenn man vergisst, dass gewisse Abkürzungen nicht allgemein sind. ;-)

DNN = Deep Neural Networks. Und mit den Frameworks darauf bezogen meine ich Tensorflow, PyTorch, CNTK, etc.

Sowohl Nvidia als auch Intel und AMD bieten für die gängigen Frameworks optimierte Bibliotheken für die eigene Hardware an.
 
ZeroStrat schrieb:
Das hat nichts mit den Kunden zu tun. Intel ist nicht dafür verantwortlich, dass Kunden des Wettbewerbers Produkte nutzen können auf deren CPUs, wofür Intel selbst Millionen investiert hat.
Mein Ironiedetektor komm zu keinem eindeutigen Ergebnis.
 
  • Gefällt mir
Reaktionen: Tzk und Ned Flanders
calluna schrieb:
DNN = Deep Neural Networks. Und mit den Frameworks darauf bezogen meine ich Tensorflow, PyTorch, CNTK, etc.

Sowohl Nvidia als auch Intel und AMD bieten für die gängigen Frameworks optimierte Bibliotheken für die eigene Hardware an.

Also mit anderen Worten - die Entwickler sollen eben die entsprechenden Frameworks auch einbauen statt nur stur Intel MKL und die viel beworbene "Kompatibilität" erledigt den Rest.

Ich sehe hier die Entwickler durchaus in der Pflicht sich ein bisschen zu bemühen. Aber ich denke da ist dann der einfachste Weg wie von NedFlanders vorgeschlagen vielleicht einfach direkt auf openBLAS zu gehen. Dann muss man auch nur 1 Library "pflegen" und supporten. Anstatt derer 3, 4, ....X.
Die supporten AFAIK jede CPU-Variante mehr oder weniger vernünftig.
Und wenn auf Intel CPUs das ganze dann halt 5% langsamer läuft draufgeschissen.

Nur sagen das viele schon seit 20 Jahren, aber die "Masse" der Entwickler ist halt träge...hab ich auch schon oft in anderen ähnlichen Sachen geschrieben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel. und LukS
biohaufen schrieb:
Ich schätze du hast den Artikel nicht gelesen. Dort steht das sie den AMD Code in Ihrem Grafiktreiber unter Linux verwenden und dabei 10% mehr Performance gesehen haben.
Nicht das sie für AMD Hardware optimieren...
[...]
Ups, laut deinem Artikel nutzen sie die aber anscheinend schon ganz gern :freak:
AOC wird von Valve gesponsort und hat vergleichsweise wenig mit AMD zu tun. AOC nutzt viele Sachen von NIR (das ist von Intel) und jetzt ist wurde mal was von AOC zu NIR potiert. Was so alles total in Ordnung ist, da OpenSource und so gewollt.
 
Piktogramm schrieb:
AOC wird von Valve gesponsort und hat vergleichsweise wenig mit AMD zu tun. AOC nutzt viele Sachen von NIR (das ist von Intel) und jetzt ist wurde mal was von AOC zu NIR potiert. Was so alles total in Ordnung ist, da OpenSource und so gewollt.
Du meinst sicherlich ACO ;)
Lies einfach das dazugehörige Zitat, dann sollte klar sein, das ICH nie ausgedrückt habe, das dies nicht in Ordnung sei......
 
Ned Flanders schrieb:
Was mich da halt wundert, ist, dass eine gepatchte mkl, bei der das akzeptierte Ergebnis der Vendor Abfrage auf 'AuthenticAMD' geändert ist korrekt mit AVX2 auf einem Ryzen läuft und korrekt mit AVX auf einem AMD FX. Die Info muss sie ja irgendwo her bekommen wenn's keine Feature Set Abfrage ist.

Ich habe mir den gesamten Thread mal jetzt von vorne bis hinten durchgelesen.
Wie so oft, gibt es mehrere Sichtweisen auf das Thema, welche je nach Perspektive in der einen Richtung richtig und in der anderen Richtung falsch wirkt.

1.Grundätzlich ist kein Programmierer der Welt dazu gezwungen seine Software für irgendetwas zu optimieren.

2.Wenn man optimiert, dann kann man das nach eigenem gutdünken tun - Schließlich beschränkt man durch weglassen von breitgefächerter Plattformunterstützung das eigene Potenzial auf Nutzerzahlen.

3.Nur weil ich für einen Hersteller gezielt optimiere heißt das noch lange nicht, dass ich den anderen Hersteller negativ manipuliere.

4.Es ist im Softwarebereich aufgrund von unwägbaren Supportgegebenheiten Usus, den Einsatzbereich einzuschränken bzw. zu zertifizieren.

Alles in allem sehe ich keinen Grund, warum Intel einen optimierten Codepfad in eine für die eigenen Prozessoren geschriebene Software, für ein Konkurrenzprodukt integrieren sollte, um diese zu beschleunigen oder allumfassend zu unterstützen.
Wie bereits oben erwähnt würde man nämlich auch entsprechende Supportanfragen und einen Pflegeaufwand auf sich ziehen, der außerhalb des eigenen Einflussbereiches liegt (Fremdprozessor).

So wäre es, um bei einem aktuellen Vergleichsbeispiel zu bleiben von Valve in meinen Augen durchweg legitim gewesen, Alyx nur unter dem eigens produzierten Headset lauffähig zu machen.

Dabei darf man mich (ich weiß, dass es einige User gibt, die das wieder mit Gewalt versuchen werden) nicht falsch verstehen.
Aus Usersicht ist das ganze natürlich ein Affenzirkus und eine einseitige Benachteiligung von Fremdanbietern.

Wenn man den Perspektivwechsel durchführt, ist das alles allerdings nicht mehr nicht ganz so klar.

So sehe ich Dinge wie:
Iscaran schrieb:
Deswegen sehe ich hier eben vor allem die Softwareentwickler in der Pflicht solches "einseitiges" De-Optimierungsverhalten öffentlich zu machen und an solchen Stellen einfach als alternative auf was anderes setzen das Intel und andere CPU's "gleich" behandelt. (z.B. openBLAS).
ziemlich kritisch, obwohl ich Iscaran bei vielen seiner Ausführungen beipflichten kann.

Muss jetzt überall ein Sticker hin:Optimiert für Intel/AMD?
Was heisst optimiert?
Bzw. welche Metriken bzw. Vergleichszugewinne müssen angelegt werden, um diesem Prädikat gerecht zu werden?
Was würde es bedeuten, wenn man auf das eine Produkt mehr und auf das andere Produkt weniger optimiert?
Was würde das bedeuten, wenn trotz Optimierung die Software dann trotzdem nicht viel schneller läuft.
Wurde dann nicht "genug" optimiert und der Shitstorm geht von vorn los?

Das ganze ist ein umfangreiches Thema, welches man hier teilweise versucht mit der Keule von Pauschalverurteilungen und Resentiments zu erschlagen.

Um beim Versuch des Perspektivwechsels zu bleiben:
Ihr baut ein Produkt und verschafft diesem Produkt einen Vorteil durch eine eigens programmierte Software.
Wie würdet Ihr darüber denken, wenn Euch dann Tot und Teufel unterstellt wird, weil Ihr die Software nicht für ein sonst vergleichbares Konkurrenzprodukt funktionabel macht und optimiert?

Wieso erheben die nicht- Urheber einer Software einen Anspruch auf die Zweckentfremdung eben dieser (und sei es der Zweck, das eigene Produkt attraktiver zu gestalten)?

Denkt mal darüber nach... Es ist nicht alles schwarz oder weiss...
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Teralios
Hier gehts aber nicht um einen speziell auf Intel hinoptimierten Programm Pfad sondern schlicht um die Nutzung von einheitlichen, standardisierten Befehlssatz Erweiterungen.
Wenn Intel hier zB etwas findet, was die performance auf beispielsweise skylake und auch nur skylake signifikant erhöht, stört sich doch niemand daran, wenns dafür einen eigenen Pfad gibt.
Befehlsatzerweiterungen sollten aber mMn immer wenn möglich genutzt werden, unabhängig vom Hersteller. Damit könnte man sonst fast jegliche Software auf dem Konkurrenzprodukt nahezu unbenutzbar machen und es würde einheitliche Befehlssatz Erweiterungen komplett ad absurdum führen.
 
  • Gefällt mir
Reaktionen: Iscaran
ZeroZerp schrieb:
Denkt mal darüber nach... Es ist nicht alles schwarz oder weiss...
Zero
Grundsätzlich ist nicht alles schwarz oder weiss, ja.

Leider ist die Sachlage so, dass es um seit 10 Jahren definierte Instruktionssätze geht, die zwischen beiden Unternehmen unter Lizenz ausgetauscht werden.

Machen wir mal eine Abstraktion.

Was würde der Kunde wohl sagen wenn in seinem VW ein von Ford konstruiertes Automatikgetriebe mit 5 Gängen via Lizenz/Austausch verbaut wurde?
Grundsätzlich nichts, läuft ja.

Wenn Ford jetzt aber die Logik ändert, dass der VW nur im 1. Gang fährt, damit der Ford schneller ist und weniger Sprit verbraucht ist der Aufschrei wohl gross.
Schlussendlich wird dem Kunden suggeriert, dass der VW schrott ist, trotz gleichem Getriebe.
 
@ZeroZerp

Den Unterschied zwischen Optimierung und Pessimierung haben wir 100x durchgekaut.

Wenn ich auf Telekom Hardware (Netz + Infrastruktur) einen 1&1 DSL Vertrag laufen lasse und die Telekom die 100mbit auf 50mbit einbremst, weil sie keine garantie, Produktpflege für den 1&1 Router übernehmen wollen, dann ist das nachvollziehbar, genauso wie die Stadtwerke dir einen Spannungswandler vor den Hausanschluss klemmen können, weil sie ja die 230V nur aus den eigenen Quellen garantieren können und da keinen Support für geben.

Optimierung verlangt doch wirklich keiner. Pessimierung aber eben auch nicht.

Wechsel doch Mal die Perspektive und Nvidia pessimiert Treiber mit CPU Vendor id Abfrage auf Intel Systemen. Wäre ja deren gutes Recht.... Läuft dann halt nur noch auf AMD CPUs sauber.

Nochmal, wir reden hier nicht über Optimierungen. Haben wir nie...
 
  • Gefällt mir
Reaktionen: Iscaran
Ned Flanders schrieb:
Nochmal, wir reden hier nicht über Optimierungen. Haben wir nie...
Ich wollte nur zum Ausdruck bringen, dass es auch eine andere Sichtweise auf die "Dinge" gibt.

So baut Intel keine "Drossel" im Kompatibilitätsmodus ein oder integriert high priority busy loops.
Somit kann von der hier oftmals angeprangerten Manipulation einfach keine Rede sein. Nur darum geht es mir, weil hier gleich wieder ein par User die Keule ausgepackt haben. -Nicht Ihr Ned, Iscaran. Natürlich ist es nicht "schön".

Die Frage ist, ob man sich vor lauter "fair play", was ja hier immer gefordert wird, wirklich alle Alleinstellungsmerkmale bzw. Bemühungen dazu, diese anzubringen, aus der Hand nehmen lassen muss.

Wie gesagt- Sie haben nur einfach 0 Arbeit darin investiert, andere CPUs mit entsprechendem Featureset anzusprechen/ diese abzufragen und zu nutzen. Da muss die Frage gestattet sein:Wozu auch? Ist ja DEREN Bibliothek für DEREN Produkte.
Ist Intel in irgendeiner Form dazu verpflichtet dem Konkurrenten optimierte Bibliotheken zu liefern oder welche, die Fremdprodukte bis aufs Letzte ausreizen?

Und da besteht eben schon ein erheblicher Unterschied in Auslegung bzw. der zu unterstellenden Attitüde- und nur darum geht es hier.
Intel wird oftmals mit allen Mitteln in die Bad Boy-Ecke gezwungen. Bei AMD drückt man bei ähnlichen Sachverhalten das Auge zu. Emotional zu verstehen. Rational unfair.

Das sind aber auch nur wieder meine persönlichen 2 Cents dazu und erhebt wiederum keinen Anspruch auf Universalgültigkeit.

Dennoch, Ned ->Mission accomplished ->good job!
Ich mag das, wenn man tiefer gräbt.

LG
Zero
Ergänzung ()

Argoth schrieb:
Wenn Ford jetzt aber die Logik ändert, dass der VW nur im 1. Gang fährt, damit der Ford schneller ist und weniger Sprit verbraucht ist der Aufschrei wohl gross.
Schlussendlich wird dem Kunden suggeriert, dass der VW schrott ist, trotz gleichem Getriebe.
Die Analogie stimmt aber insofern nicht überein, als dass eben Intel die Logik nie geändert hat.
Und VW hätte dafür sorgen müssen, dass deren Auto eben nicht nur im ersten Gang fährt oder das Getriebe reklamieren. Das muss denen doch SOFORT auffallen.
Ansonsten sind sie unfähig oder einfach nur unaufmerksam bzw. uninteressiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Piktogramm
ZeroZerp schrieb:
4. Es ist im Softwarebereich aufgrund von unwägbaren Supportgegebenheiten Usus, den Einsatzbereich einzuschränken bzw. zu zertifizieren.
Ich hab auch bis jetzt einige Zeit darüber nachgedacht, mit welcher Sichtweise man auch an das Thema herangehen kann und am Ende kam mir dann auch immer der Support und die manchmal damit verbundenen Garantien in den Sinn.

Intel steht für ihre Bibliothek am Ende gerade und besonders in den USA macht man sich recht schnell angreifbar, wenn etwas nicht so funktioniert, wie es funktionieren soll. Ich kann Intel hier bedingt auch verstehen, wenn sie AVX, AVX2 und AVX512-Code in ihrer Bibliothek nur für eigene Prozessoren freigeben. Denn wenn es zu einem Problem kommt, weil AVX von AMD oder Via nicht ganz so implementiert wurden, wie von Intel vorgesehen, kann es zu Problemen kommen.

Aus Sicht des Supports als auch der Gewährleistung ist die Entscheidung also durchaus verständlich und nachzuvollziehen.

Aber ich musste da auch erst mal in Ruhe darüber nachdenken und mir überlegen: Welchen Grund könnte es abseits dafür geben und welche Gründe kennst du aus deinem Alltag dafür.

ZeroZerp schrieb:
Alles in allem sehe ich keinen Grund, warum Intel einen optimierten Codepfad in eine für die eigenen Prozessoren geschriebene Software, für ein Konkurrenzprodukt integrieren sollte, um diese zu beschleunigen oder allumfassend zu unterstützen.
Hier ist halt die Frage, und ich glaube daran scheitert auch ein Konsens hier in der Diskussion, was man nun als Optimierung auf die eigene Architektur verstehen kann und will und was allgemeingültige Optimierungen sind.

Gerade bei so komplexen Themen wie der Vektorisierung sind da die Grenzen doch recht fließend, vor allem wenn ich mir die MKL mal genauer ansehe und mir die verschiedenen Implementierungen zwischen den einzelnen SSE-Pfaden und dann später AVX, AVX2 und AVX512. Die Unterschiede der einzelnen Pfade ergibt sich oft eher durch die Breite der möglichen Vektoren, der Nutzung von FMA und eben den damit verbundenen Befehle in den Erweiterungen. Nimmt man diese eher deklarativen Unterschiede aus den einzelnen Funktionen heraus, dann sind die Unterschiede zwischen den einzelnen Pfaden eher mit der Lupe zu suchen.

Es ist halt all zu oft, dass man statt zwei SSE-Befehle für Mul und ADD den FMA-Befehl nutzt also - fiktiver Beispiel Code - aus einem vec_add(vec_mul(vector_a, vector_b),vecotrc) wird ein vec_fma(vector_a, vector_b, vector_c) und ebenso wird halt dann oft statt ein Vektor mit 128Bit eben 256Bit oder 512Bit gebildet und dann eben der entsprechende Befehl für die Extensions. (Noch mal, das ist jetzt stark vereinfacht. Wenn ihr Fehler findet, ruhig sagen und ergänzen. ;))

Die eigentliche Arbeit, nämlich die Berechnungen für eine Vektorisierung aufzubereiten wird in jedem Datenpfad vorgenommen und so findet man in jedem Datenpfad auch oft dieselben grundlegenden Optimierungen.

Es fällt in dem Fall echt schwer zusagen, ob es sich um spezielle Optimierungen für Intel-CPUs handelt, oder ob man hier einfach gewisse Funktionspfade den Mitbewerbern vorenthält. Nehme ich mir die meisten Unterschiede zwischen den Pfaden vor, dann würde ich eher sagen, dass man hier einfach gewisse Pfade der Konkurrenz vorenthält, denn es geht am Ende oft nur darum, welcher x86-Befehl genutzt wird, alles bis zu dieser Auswahl ist oft gleich und dann wird im SSE-Pfad der einfachere Weg des AVX-Befehls durch ganze Befehlsketten ersetzt.

Ned Flanders schrieb:
Optimierung verlangt doch wirklich keiner. Pessimierung aber eben auch nicht.
Sieht man sich den Code der MKL genau an, dann muss man in dem Fall den meisten "Krtikern" von Intel in dem Fall zu stimmen. Zu oft sind sich die Code-Pfade zwischen SSE, AVX, AVX2 und AVX512 ähnlich und nur an ganz wenigen Stellen wird wirklich mal was Interessantes für AVX getan und in der Regel bildet man die einfachen AVX-Befehle mit SSE nach, was teilweise sogar komplizierter ist als der eigentliche AVX-Pfad.

ZeroZerp schrieb:
Intel wird oftmals mit allen Mitteln in die Bad Boy-Ecke gezwungen. Bei AMD drückt man bei ähnlichen Sachverhalten das Auge zu. Emotional zu verstehen. Rational unfair.
Na, das lese ich immer wieder von einigen, die hier Intel verteidigen, aber irgendwie fehlt es mir da immer an passenden Beispielen, bei denen AMD entsprechend agierte.

Ansonsten muss ich dir aber zu stimmen. Diese Anfeindungen der User hier unter einander ist das ganze sicher nicht wert. Im Endeffekte ist es auch an AMD, dass sie mal ihren Arsch bewegen. Es nutzt nichts, wenn man gute Hardware hat, aber an der Softwareseite regelmäßig hinten ansteht.

Im Endeffekt kann sowohl Intel als auch nVidia immer wieder AMD nicht durch die bessere Hardware ausstechen, sondern weil sie neben der Hardware auch passende Software-Infrastruktur zur Verfügung stellen und Entwickler auch mit entsprechendem Support versorgen.

Intel ist weniger ein Bad-Boy, als dass sie eben genau das machen, was man in der Wirtschaft macht. Man unterstützt seine eigenen Produkte.
 
  • Gefällt mir
Reaktionen: .Sentinel. und guggi4
Teralios schrieb:
Denn wenn es zu einem Problem kommt, weil AVX von AMD oder Via nicht ganz so implementiert wurden, wie von Intel vorgesehen, kann es zu Problemen kommen.

Mir ist an der Stelle nicht ganz klar warum Intel dafür in irgendeiner Form haftbar oder verantwortlich wäre, wenn Via oder AMD die von Intel lizensierte SIMD Extension fehlerhaft umsetzen. Wenn AVX auf AMD nachweislich nicht vernünftig laufen würde, würde ich annehmen, Intel wäre der erste der sich darüber freuen würde.

Und das mit dem in die schlechte Ecke ziehen ist imho auch Unsinn. Wenn Intel sich normal verhalten würde (im Sinne von keine solchen den Mitbewerb ausschließenden Merkwürdigkeiten verteilen), dann wären sie auch eine Company wie alle anderen auch. Das Argument, das Intel die MKL auf AMD validieren müsste gilt zum einen auch so, denn der SSE Codepfad unterscheidet sich in der Hinsicht ja nicht vom AVX Codpfad, zum anderen gilt das für alle Hersteller von Hardware, aber Intel ist der einzige, der meint einen Vendor Check des Systems durchführen zu müssen. AFAIK gibts das kein zweites Mal. Ich verstehe auch bis heute nicht warum man den Unsinn überhaupt macht. Intel hat AVX512, was sie auf jeder ihrer CPUs freischalten könnten und damit schneller als der Mitbewerb wären, der das bis heute und wohl auch in naher Zukunft nicht bietet. So eine Vendor String Abfrage brauchts doch in diesem Fall garnicht, die sorgt nur für massenhaft negative Presse und mach AMD ohne deren eigenes Zutun zum Robin Hood. Das lohnt sich doch nie!

Einfach AVX512 auf den CPUs freischalten und den Vendor Check der MKL in den Ruhestand schicken. Problem gelöst. Aber die neuesten Gerüchte besagen eher das genaue Gegenteil davon.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Argoth, Teralios und Iscaran
Teralios schrieb:
Ich kann Intel hier bedingt auch verstehen, wenn sie AVX, AVX2 und AVX512-Code in ihrer Bibliothek nur für eigene Prozessoren freigeben. Denn wenn es zu einem Problem kommt, weil AVX von AMD oder Via nicht ganz so implementiert wurden, wie von Intel vorgesehen, kann es zu Problemen kommen.
Da es sich um lizenzierte SIMD Erweiterungen handelt, ist das Argument meiner Meinung nach nicht gültig. Mit der selben Argumentation könnte man ja auch die Nutzung von SSE unterbinden und irgendwann landen wir dann beim 8086 :freak:
Teralios schrieb:
Sieht man sich den Code der MKL genau an, dann muss man in dem Fall den meisten "Krtikern" von Intel in dem Fall zu stimmen. Zu oft sind sich die Code-Pfade zwischen SSE, AVX, AVX2 und AVX512 ähnlich und nur an ganz wenigen Stellen wird wirklich mal was Interessantes für AVX getan und in der Regel bildet man die einfachen AVX-Befehle mit SSE nach, was teilweise sogar komplizierter ist als der eigentliche AVX-Pfad.
Stellt für mich wie es Ned Flanders ausdrückt eine "Pessimierung" dar und damit einen legitimen Grund zur Kritik.
Ergänzung ()

Ned Flanders schrieb:
Das lohnt sich doch nie!
Ich befürchte da muss ich leider widersprechen, jahrelanges "AMD ist scheiße in MATLAB/SciPy etc" ist wohl effektiver als die paar Leute, die jetzt davon erfahren wie das zustande gekommen ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Teralios, Iscaran und Ned Flanders
Na ja, Gründe für Intels Handeln, die werden wohl nie wirklich ans Tageslicht kommen. Alles Spekulation und Ansichtssache ☺

Und meine Ansicht ist vielleicht naiv: Intel will einfach nicht die Verantwortung für fremde CPUs übernehmen. Und damit sie trotzdem laufen, gibts halt den "kleinsten gemeinsamen Nenner".
In der Industrie durchaus eine legale Methode, Kompatibilität herzustellen.

guggi4 schrieb:
Ich befürchte da muss ich leider widersprechen, jahrelanges "AMD ist scheiße in MATLAB/SciPy etc" ist wohl effektiver als die paar Leute, die jetzt davon erfahren wie das zustande gekommen ist.

Ja, aber wie ich schon mal sagte, das ist Matlabs Problem ☺
 
Schattenspender schrieb:
meine Ansicht ist vielleicht naiv: Intel will einfach nicht die Verantwortung für fremde CPUs übernehmen.

Rein interessehalber, würdest Du das auch dann noch so sehen, wenn Intel jetzt mit dem neusten MKL Update den Debug Mode entfernen und damit den Workaround ins Leere laufen lassen würde?

Oder wären dann die Intensionen klarer?
 
Zurück
Oben