Test Intel Arc A380 im Test: Eine Woche zwischen Lachen und Weinen

Ich glaube nicht daran das diese Architektur noch Potenzial haben wird.
AMD und Nvidia bleiben ja nicht stehen, in 2. oder 3. Generationen wird der Abstand nur noch grösser werden.
Für mich ist das jedenfalls nur totes Silizium und Intel sollte die Entwicklung am besten heute, besser als morgen einstampfen damit sie nicht zu viele unnötige Ressourcen dabei verschwenden.
Am besten lassen sie sich ein Design aus dem Baukasten, wie sie es in der Vergangenheit schon mit einer APU getan haben bei AMD fertigen.
Die Fertigung von ausgewachsenen Grafikkarten ist halt nicht für Amateure und sollte den Profis überlassen werden.
Auch was die Treiber anbelangt wird dies nichts mehr werden das ist so gut wie sicher.
 
Mit der Einstellung würde es AMD nicht mehr geben ;)
 
  • Gefällt mir
Reaktionen: Aliosy und Zer0Strat
Palatas schrieb:
P.S. finde es auch klasse das Ihr euch mit IgorsLab und Golem gut versteht / zusammen arbeitet
Ich auch :bussi:
 
  • Gefällt mir
Reaktionen: Palatas, Raptor85, konkretor und eine weitere Person
DevPandi schrieb:
Die R600 ala HD 2900 XT, kam ja auch Anfang Mai 2007 auf den Markt. Gekauft wurde ATi im Oktober 2006. Also ca. 6 - 7 Monate bevor die Karte auf den Markt kam. Selbst wenn man 24 Monate Entwicklung annimmt, hatte AMD bei 25 % der Zeit keinen wirklichen Einfluss mehr darauf.
Schrieb ich etwas anderes?
DevPandi schrieb:
Und das R600 nicht schlecht war, hat ja die 3000er und 4000er Serie gezeigt, die auch TeraScale. R600 hatte ein paar Probleme und eines war auch das Speicherinterface.
Die 3000er Serie war kaum/nicht schneller als die 2000er Serite und hatte entsprechend keine Chance gegen die damaligen Nvidia. Sie war nur ein Shrink, womit man zumindest den hohen Verbrauch in den Griff bekommen konnte und die Ware über den Preis am Markt los wurde. Verdient war da aber erstmal nichts.
DevPandi schrieb:
Das stimmt so aber auch nicht, HBM nutzt AMD und NVIDIA aktuell primär für ihre Servergrafikkarten, weil hier die Marge passend ist.
verdient AMD aber nichts damit. Die Umsätze sind sehr bescheiden. Glaube nicht, dass das die Entwicklungskosten auch nur annährend aktuell deckt. Man weißt die Umsätze hier nicht ohne Grund nicht getrennt aus.
DevPandi schrieb:
Werden sie aber mit der neuen HPC-APU, die kommen soll. ;)
Das muss sich erst zeigen. Eine APU ist dort eigentlich nicht notwendig. Dedizierte Karten sind hier ja in allen Belangen von Vorteil. Wozu also einen Kombi-Chip?
DevPandi schrieb:
also macht AMD genau das, was für sie am meisten Sinn ergibt: ROCm, mit den sie ein Crosscompiler, der CUDA passend umwandelt und dann kann man es verarbeiten.
Nur, dass das nicht an eine native Lösung rankommt. Sowas ist immer mit vielen Nachteilen verbunden.

DevPandi schrieb:
Intel hätte es bei Itanium besser wissen müssen, sind sie doch bei P6 schon auf die Fresse geflogen, als 16 Bit nicht mehr wirklich lief.

Da hat AMD besser aufgepasst.
Intel hätte die Technik wahrscheinlich in den Markt gedrückt und mittelfristig die Oberhand bekommen. x86 Code lief ja auf Itanium auch, wenn auch nur grottenlangsam als Emulation, aber damit hätte man halt notgedrungen leben müssen.
Aber AMD hatte keine Ressourcen für einen eigenen Architektur und hätte damit auch nie Erfolg gehabt. Viel zu klein und unbedeutend im Marktanteil. Da gibts ja immerhin schon sehr viele andere Firmen mit eigenen Architekturen und alle sind bis auf wenige Einzelfälle wie ARM gegen die Wand gefahren.
Insofern war es ein genialer Geistesblitz mit x86_64. Fast kein Risiko und der Markt hat es angenommen.
Des eigentlichen Todesstoß hat Itanium aber dann Microsoft gegeben, als sie entschieden haben, dass Windows nur auf einer der beiden 64-Bit Techniken weiterentwickelt wird und sich für AMD entschieden hat (Klar, musste man ja nicht alles neu entwickeln).
 
ArrakisSand schrieb:
Ich glaube nicht daran das diese Architektur noch Potenzial haben wird.
AMD und Nvidia bleiben ja nicht stehen, in 2. oder 3. Generationen wird der Abstand nur noch grösser werden.
[...] die Entwicklung am besten heute, besser als morgen einstampfen [...]
Ich sehe das anders. Die Karte und deren Treiber sind Rotz das hat jetzt jeder begriffen. Aber die Lernkurve von Intel wird aktuell noch wesentlich steiler sein wie bei AMD und Nvidia.
 
Die ersten richtig guten AV1 Encoding Tests. @24784ds

1658503589214.png

Source
 
  • Gefällt mir
Reaktionen: QuerSiehsteMehr, 24784ds, Tenchi Muyo und 2 andere
ArrakisSand schrieb:
Ich glaube nicht daran das diese Architektur noch Potenzial haben wird.
Abwarten und Tee trinken.

Intel ist sich der Probleme mit Xe ARC bewusst und wird daran auch sicher Arbeiten. Sie haben ein kleines Treibermonster - nicht nur von der Qualität her, auch davon, was sie alles bei Spielen anfassen müssen, damit sie ihre Architektur ausgelastet bekommen.

Es gibt dabei die Arten von Optimierungen, die man auch bei NVIDIA und AMD findet - fett - und es gibt halt auch einen Punkt, den Intel vorsieht - fett & rot - der so aber überhaupt nicht vorkommen sollte, weil dass die Art von Optimierung ist, die tödlich für Hersteller ist: "We are improving our process over time and have developed a collection of techniques that don’t require game updates when the title is no longer in development, but instead can be done solely in the driver. This includes identifying specific application processes and then passing flags to our compiler for efficient memory utilization, optimizations of what type of SIMD instruction is preferred, and even wholesale shader replacements to ensure optimal hardware performance."

Intel nett aber auch den Grund dafür: "The Intel Arc graphics products are a new entrant to the discrete GPU landscape, and a lot of shader programs assumed certain characteristics about the underlying GPU architecture that simply don’t match well with the Xe HPG architecture."

Dieser Satz aus dem einen Interview ist im übrigen auch der Knackpunkt. Intel ist sich bestimmter Probleme bewusst, sie schieben hier den schwarzen Peter indirekt den Spieleentwicklern aber auch NVIDIA und AMD zu, da ja bisher für ihre Grafikkarten entwickelt wurde.

Das Ausmaß der "Optimierungen" reicht dabei von relativ einfachen Sachen, die man heute eigentlich im Compilerbau als guten Ton kennt, bishhin zu komplexen Änderungen.

Man wird sehen müssen, wie Intel hier weiter vorgeht, dass Intel ohne "optimierte" Shader aber ca. 13% an Leistunt verliert - oder eben 15 % gewinnt, je nach Basis - ist nicht unbedint positiv. Denn Intel muss bei jedem Spiel jeden Shader prüfen und auch prüfen, ob ihre "Veränderungen" am Ende wirklich auch das Ergebniss bringen, die die Spieleentwickler vorsehen. Das geht zwar "relativ" gut automatisiert mit entsprechenden Testsuiten, nur muss Intel das theoretisch für jede neue Spiele-Version machen, wenn die Entwickler eine neue Version des Spieles bringen.

rg88 schrieb:
Das muss sich erst zeigen. Eine APU ist dort eigentlich nicht notwendig. Dedizierte Karten sind hier ja in allen Belangen von Vorteil. Wozu also einen Kombi-Chip?
Wie viel hast du denn mit HPC-Berechnungen zutun? Weißt du wo die Probleme von Grafikkarten wie der MI 200 oder NVIDIA A100 liegen bei diesen Berechnungen?

Das was AMD hier vorgestellt hat, dass woran NVIDIA und auch Intel arbeiten, was sie ebenso angeteasert haben, löst so einige Probleme im HPC-Markt und dieses Problem nennt sich Bandbreite und ebenso Latenz um die Daten aus der CPU auf die GPU zu bringen, da man sonst zwar die massive Rechenleistung hat, diese aber nicht effizient nutzen kann.

Es hat einen Grund, warum es auch heute noch Szenarien gibt, in denen es sinnvoller ist die Daten in den SIMD der CPU zuberechnen als an eine GPU auszulagern, weil man eine Treiberschicht hat, die dann das ganze aufbereitet und über PCIe an die Grakkarte schickt, die die Daten verarbeitet und dann zurück schicken muss.

AMDs APU wird einen "Unified Memory"-Ansatz haben. Die CPU bereitet die Daten auf, schreibt sie in den Arbeitsspeicher, meldet der GPU, dass sie arbeiten kann, diese holt sich von dort die Daten, bearbeitet sie, schreibt sie zurück und meldet, dass sie fertig ist und die CPU holt sie sich direkt aus dem Arbeitsspeicher ab.

Der APU-Ansatz steigert hier die Effizienz und kann auch beschleunigend wirken, weil der Overhead der Datenübertragung über PCIe entfällt.
rg88 schrieb:
Nur, dass das nicht an eine native Lösung rankommt. Sowas ist immer mit vielen Nachteilen verbunden.
Hast du Entwicklungserfahrung im HPC-Bereich und weißt du auch wie ROCm arbeitet und wie CUDA in ROCm verarbeitet wird? Es scheint an der Stelle nicht so zu sein.

Natürlich ist ROCm keine "optimale" Lösung, nur versucht ROCm nicht CUDA zu emulieren oder zu simulieren, sondern arbeitet auf Sourcecode-Ebene, in dem CUDA mit einem Transcompiler (HIPIFY) in eine "Metasprache" (HIP, eigentlich METAAPI) überführt wird. AMD selbst gibt an, dass es keinen Einfluss auf die Geschwindigkeit bis einen kleinen Einfluss hat.

HIP wird dann entsprechend beim Compilieren direkt in passenden Code entweder für die AMD-Karte übersetzt oder eben für NVIDIA mit den CUDA-Aufrufen. Deswegen auch keinen Einfluss oder nur einen geringen Einfluss auf die Performance, da höchsten noch Controll-Code dazu kommt, der das Programm etwas aufbläht um zu fragen, ob es "HIP-HIP" ist oder "HIP-CUDA". AMD muss nur mit der Zeit die APIs entsprechend einpflegen in ihre Meta-API und intelligent designen, aber auf der Ebene ist das um ein vielfaches einfacher.
rg88 schrieb:
Die 3000er Serie war kaum/nicht schneller als die 2000er Serite
Sie war nicht schneller, gleichzeitig aber - nicht nur durch den Shrink - deutlich effizienter, da man am Speicherinterface gearbeitet hat und mit HD 4000 weitere Probleme löst.
rg88 schrieb:
Schrieb ich etwas anderes?
Ich habe nur die Daten zu deiner Aussage geliefert, damit man den zeitlichen Abstand hat.
rg88 schrieb:
Glaube nicht, dass das die Entwicklungskosten auch nur annährend aktuell deckt. Man weißt die Umsätze hier nicht ohne Grund nicht getrennt aus.
Also, man weiß die Umsätze nicht, aber du willst dann mit Bestimmtheit das sagen:
rg88 schrieb:
verdient AMD aber nichts damit.
Okay. Kann ich verstehen und vermutlich hast du sogar recht, aber wissen können wir es halt nicht. AMD
rg88 schrieb:
Da gibts ja immerhin schon sehr viele andere Firmen mit eigenen Architekturen und alle sind bis auf wenige Einzelfälle wie ARM gegen die Wand gefahren.
Die meiste Firmen sind mit ihrer Architektur wegen der Softwarekompatibilität gescheitert und x86_64 hat dazu beigetragen das PowerPC, SPARC und Co, besoners nach dem Intel auf den x86_64-Zug aufgesprungen ist.
 
DevPandi schrieb:
Der APU-Ansatz steigert hier die Effizienz und kann auch beschleunigend wirken, weil der Overhead der Datenübertragung über PCIe entfällt.
Ja, das ist der feuchte Traum schon seit AMD Fusion und wird seit der ATI-Übernahme verfolgt. Also bereits seit 15 Jahren mittlerweile (bin grad selbst überrascht wie lange das schon her ist.
In der Praxis sind die Vorteile bisher nicht ausgespielt worden.
Wir sind hier auch wieder genau bei dem Problem, dass das Ganze nur mit hochangepasstem Code funktioniert, außer AMD zaubert eine neue Abstraktionsschicht aus dem Hut, die das selber effizient umsetzt, dass am Ende wirklich ein signifikanter Unterschied raus kommt.
Ich bin was das Thema angeht einfach ziemlich desillusioniert mittlerweile.

DevPandi schrieb:
Hast du Entwicklungserfahrung im HPC-Bereich und weißt du auch wie ROCm arbeitet und wie CUDA in ROCm verarbeitet wird? Es scheint an der Stelle nicht so zu sein.
Nope, will ich mir auch nicht anmaßen. Du schon?
Aber allgemein in Softwareentwicklung. Und ich bin sicher kein Experte was den Bereich HPC oder gar CUDA bzw. GPU-Berechnung allgemein angeht, aber die kochen auch nur mit Wasser und gewissen überzogenen Erwartungen begegne ich immer sehr skeptisch erstmals.
Ich lasse mich gerne vom Gegenteil überzeugen, aber mir ist hier bei dem ganzen etwas zuviel Magie drin. Zu schön um in der Realität dann auch wirklich so zu sein. Lehrt einfach die Erfahrung.
DevPandi schrieb:
Natürlich ist ROCm keine "optimale" Lösung, nur versucht ROCm nicht CUDA zu emulieren oder zu simulieren, sondern arbeitet auf Sourcecode-Ebene, in dem CUDA mit einem Transcompiler (HIPIFY) in eine "Metasprache" (HIP, eigentlich METAAPI) überführt wird. AMD selbst gibt an, dass es keinen Einfluss auf die Geschwindigkeit bis einen kleinen Einfluss hat.
Damit liegt man immer einen Schritt zurück, weil sich solche Frameworks ja auch weiterentwickeln und man permanent nacharbeiten muss, damit diese und jene Erweiterung auch verarbeitet werden kann.
Dann kommt noch dazu, dass man ja auf CUDA-Technik hin entwickelt, also auch auf Eigenheiten die die Chips haben. Das ist ja so hardwarenah mehr als nur das Framework anzuwenden, wenn man das hocheffizient umsetzt.
Was bei einem CUDA-Core dann ein Vorteil ist, kann bei einem AMD-Core ganz anders performen.
Ich bin hier ziemlich skeptisch, dass dieser Ansatz wirklich so gut sein soll, wie es AMD versucht zu kommunizieren. Dass es geht, klar, kein Zweifel. Aber wie gut der Code am Ende ist, der hier transkompiliert wird ist was ganz anderes.
DevPandi schrieb:
Sie war nicht schneller, gleichzeitig aber - nicht nur durch den Shrink - deutlich effizienter, da man am Speicherinterface gearbeitet hat
Man hat das Speicherinterface halbiert. That's all. Mehr wurde da meines Wissens nicht dran gearbeitet. Vielleicht ein paar minimale Korrekturen.
Der R600 war einfach ziemlich unausgewogen designed. Und da man nichts anderes hatte, musste man den eben als Basis nehmen und günstiger fertigen. Deshalb das Speicherinterface verkleinern und shrinken. Damit waren die Kosten zumindest besser.
DevPandi schrieb:
Die meiste Firmen sind mit ihrer Architektur wegen der Softwarekompatibilität gescheitert und x86_64 hat dazu beigetragen das PowerPC, SPARC und Co, besoners nach dem Intel auf den x86_64-Zug aufgesprungen ist.
Ich glaub dem Satz fehlt etwas ;)
 
StevenB schrieb:
Weil bei vielen immer noch in der Birne ist: Intel über alles. Ja das klingt gerade sehr agro und ist es auch.
StevenB schrieb:
Das mit den Treibern kann ich dir nicht beantworten, allerdings kam es schon öfters vor dass die Laborleistung später nicht im Feld abgerufen werden konnte.
Ich verstehe: Das ist also, wie mit den Autos, die im Labor Glanzleistungen vollbringen und im Altag total versagen.
StevenB schrieb:
Und ja - Design kaputt, dass kam auch schon öfters vor. S3, Trident, AMD und es gibt sicherlich noch weitere Beispiele, wo in Hardware gegossene Bugs / Fehler nicht per Software ausgeglichen werden konnten, oder die Funktion komplett im Eimer war und das unter Laborbedingungen nicht entdeckt wurde.
Interessiert mich nicht! Ein glorreicher Hersteller, der Mitarbeiter einstellt, die zuvor bei der Konkurenz unter die Motorhaube schauen konnten, sollte es besser hin bekommen.
StevenB schrieb:
Aktuell scheint ja bei der A380 auch etwas nicht zu stimmen mit dem Board / PCB oder was auch immer.
Siehe Igors Video wo er das Powerbudget analysiert und feststellt, dass eine viel zu große Pause existiert wo die Last schlagartig runtergeht, das macht AMD und Nvidia besser.
Ist mir auch egal. Hier stimmt was nicht und da stimmt plötzlich was nicht. Wie gesagt: Dieser Konzern hat dermaßen viel Geld, da muss er es auch hin bekommen!
 
  • Gefällt mir
Reaktionen: StevenB
Endlich mal ein Produkt mit wenigstens etwas Displayport 2.0. Sprich die Hoffnung das der Knoten bei der Weiterentwicklung des Displaysmarktes endlich beginnt zu platzen. Und das die Rechner besser für die Zukunft der Displays gerüstet sind. Insbesondere solche bei denen sich die Graphikkarten dann nich tauschen lassen ..

Das wär für mich ein Grund so eine Karte zu kaufen - auch wenn die Treiber noch verbesserungswürdig sind .. alles andere liefert aber nur Anschluß an Displays von gestern ..

Zwar nur DP2.0 HBR10, d.h. bis zu ca. 40G:
3840 (4k) bei 16:9 und HDR bis zu 160.75 Hz
3840 (4k+) bei 3:2 und HDR bis zu 135.63 Hz. (Format Huawei mateView 28.4")
5120 (5k) bei 16:9 und HDR bis zu 90.42 Hz (Format Apple 27")
5120 (5k+) bei 3:2 und HDR bis zu 76.29 Hz (vielleicht baut ja Huawei einen weitere 28.4" ?)
6144 (6k) bei 16:9 und HDR bis zu 62.79 Hz (Format Apple PRO XDR 32")
und 7680 (8k) bei 16:9 und HDR bis zu 40.18 Hz (bei 8k mir eigentlich nur DELL ein)
(alles ohne DSC Kompression oder Farbunterabtastung)
(Für natürliche Bilder oder Ballerspiele kann man natürlich gut mit Farbunterabtastung leben - wie auch bei HDMI2.1 für z.B 8k)

Mit dem aktuellen DP1.4 (HBR3 32.4GBit/s) geht wenig davon:
4k bis 130.20 Hz
5k bis 73 Hz
5k+ bis 61,79 Hz
6k bis 50,86 Hz
8k bis 32.55 Hz
(wieder ohne irgendeine Kompression. Mit Farbunterabtastung /2 in hor. und vert. Richtung macht Faktor 4 weniger Farbpixel und dann ziemlich genau die doppelten Frameraten oder auch mal Multimonitorbetrieb über eine Strippe möglich - wenn man mit der reduzierten Farbauflösung leben mag - für Desktops aber nicht so toll)

(Beispiel: 32.4G/7680^2/9x16/30=32.55; 30=3x10bit für R,G,B oder Y,U,V sprich HDR)

Also: selbst aktuelle 60 Hz 6k Displays von Apple bzw. 8k von Dell kann man im Augenblick mit bestenfalls DP1.4 gar nicht standardkonform mit einem Port anschließen .. und das seit vielen Jahren Stillstand auf dem Sektor. Auch bei einem 60 Hz 5k+ (5120x3413.33..) wär's wohl zu eng.

Die Rechnerei ist allerdings nicht ganz koscher - Platz für Audio und Protokolloverhead für z.B. die 128 zu irgendwas Kodierung oder die 1000 vs. 1024 Gretchenfrage ist nicht eingerechnet, die angegebenen Frameraten sind also manchmal einen Tick zu hoch und nicht weit genug abgerundet.

Aber HBR10 hat natürlich auch eine Vorteil - es nutzt nur die normalen USB-C Datenrichtungen (2x20G up und gleichzeitig 2x20G down), sprich feldwaldwiesen USB-C Datenkabel sollten kompatibel sein und auch USB4-Hubs sollten die Signale (theoretisch, wenn die Chips auf dem Stand der Technik - sind) an alle Ports weiterleiten können. Beides geht bei UHBR80 Display-Outputs vom Computer/GPU (wenn sie dann mal kommen) dann sicherlich nicht mehr - sondern dann erst mit USB5 Kabeln und Hubs ..

Da kann man jetzt also wetten was zuerst kommt. DP2.0 HBR80 Monitore (Dell 8k ??) oder USB5 .. Noch hat die Welt also eine Chance von Displayportkabeln mit HBR80 die man mit ihrem USB-C Ende nicht an die USB4 Hubs stecken sollte sondern nur direkt in den Computer/GPU verschont bleibt. Und alles mit Standard USB4 Kabel (oder vielleicht mal ein im Vergleich zum USB-C Kabel doppelt so langes DP HBR40 Kabel) verkabelt wird. Endlich kein Kabelwirrwarr mehr ? Mal abgesehen von den billigen USB-C Ladekabeln und den teuren USB-C/USB4 Datenkabeln.
 
Zuletzt bearbeitet:
ArrakisSand schrieb:
Die Fertigung von ausgewachsenen Grafikkarten ist halt nicht für Amateure und sollte den Profis überlassen werden.
Auch was die Treiber anbelangt wird dies nichts mehr werden das ist so gut wie sicher.
Wenn der Treiber zum Problem werden sollte weil man nicht die Möglichkeiten hart es auf viele Spiele hin zu optimieren gehen die Karten halt ins Rechenzentrum und leisten dort gute Dienste.
 

Anhänge

  • 4-1280.4c931227.png
    4-1280.4c931227.png
    53 KB · Aufrufe: 153
 
Für das Jahr 2022 finde ich den Kommentar "They all suck" zutreffend. Ausser RSS würde ich von den Games da nix zocken wollen so.
 
dermatu schrieb:
Solider Start ? Andere würden sagen wer braucht den Mist ...

Ein gutes hat das allerdings: viel Verbesserungspotential
Ich bin durchaus interessiert. Was spricht deiner Meinung nach dagegen?
 
Die nicht vorhandene Spiele Leistung ... für manche vielleicht interessant aber Im low end Segment brauch ich persönlich nix ...
de- und encoding ist vielleicht ganz nett für einen nas/mediaserver aber ich kann den karten nix abgewinnen ...
 
Artikel-Update: Intel reagiert mit US-Tour auf Tests
Die von Intel nicht erwartete Veröffentlichung von Tests der Arc A380 außerhalb Chinas hat den Hersteller unter Zugzwang gesetzt: Die kritischen Testergebnisse trafen die Presseabteilungen weitgehend unvorbereitet. Seit zwei Wochen statten nun Tom Petersen (Intel Fellow in der Sparte GPUs) sowie Ryan Shrout (GPU-Marketing) US-Publikationen Besuche ab und gewähren Blicke auf die beiden größten geplanten Alchemist-Varianten A750 und A770 – die bereits verfügbare A380 bleibt außen vor. Substanzielle Neuigkeiten zu den beiden Modellen oder der Zukunft von Arc lieferten die Auftritte nicht, dafür ließen einige Aussagen zur gewählten Strategie aufhorchen.

Preis-Leistungs-Sieger in „Tier-1-Spielen“
Als einzige produktspezifische Aussage sorgte die Aussage, dass Intel Arc in Tier-1-Games der Konkurrenz in Sachen Preis/Leistung „keine Chance lassen wird", für Beachtung. Tier-1-Games sind DirectX-12-Spiele, auf die der Arc-Treiber bereits perfekt optimiert wurde. Doch Intel lieferte weder handfeste Performance-Daten noch anvisierte Preise für Arc A750 oder Arc 770, blieb einen Nachweis also schuldig. Auch Termine für den Markstart der größeren Modelle (außerhalb Chinas) nannte Intel weiterhin nicht.

Eine schlechte Strategie
Der Start der beiden größeren Modelle könnte allerdings mit von Intel global verteilten Testmustern begleitet werden. Denn Intel hat die Einschätzung, ein Start der Arc A380 in China würde auf China beschränkt bleiben, rückwirkend als Fehleinschätzung bezeichnet. „Rückblickend war es eine schlechte Strategie", so Petersen als Reaktion auf die von Gordon Mah Ung von PCWorld gemachte Anmerkung, dass auf einmal die zuvor gescholtene Radeon RX 6500 XT gut dagestanden hätte. Besser wäre es gewesen weltweit Muster zu verteilen und Informationen für Tester bereitzustellen, so Petersen.

In der Tat gab es Muster von Intel nur in China, alle Tests in anderen Regionen wurden mit auf eigene Faust importierter China-Ware durchgeführt. Über das Vorhaben informiert, stellte Intel allerdings kurzfristig den so genannten „Reviewer's Guide“ mit allen vom Hersteller zusammengestellten Informationen für Tester auch in anderen Ländern bereit – inklusive Hinweis, dass rBAR zu nutzen ist.

„rBAR off“ war (nicht) das Problem
Dabei gab Petersen in diesem Zusammenhang gegenüber PCWorld zu Protokoll: „Eine weitere große Sache, die wir nicht getan haben, weil wir nicht mit der globalen Presse wie ein paar Redaktionen in Deutschland und ein paar Redaktionen hier in den USA in Kontakt getreten sind, war, dass sie nicht über das ganze rBAR-Thema Bescheid wussten". Die Leute hätte auch deshalb „nicht die richtige Nachricht erreicht".

Sowohl der – nicht direkt genannte, aber gemeinte – Artikel auf ComputerBase als auch der auf Golem und Igor's Lab sowie der Test bei Gamer's Nexus in den USA wiesen allerdings von Anfang an auf die Thematik hin und präsentierten sowohl Benchmarks mit als auch ohne rBAR. Das Fazit wurde mit Blick auf die besseren Ergebnisse mit aktivem rBAR gefällt – und auch dann verlor die Intel Arc A380 in der Regel deutlich gegen die Radeon RX 6500 XT.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]

Ein Start in China „war einfacher und schneller“
Dass der Start zuerst in China erfolgt (ist), hat Intel wiederum damit begründet, dass der Vertrieb der in China gefertigten Grafikkarten aktuell schneller und einfacher möglich gewesen sei als deren globale Verteilung. Darüber hinaus sei der Bedarf an Grafikkarten im Preis- und Leistungssegment der Intel Arc A380 in China höher als in anderen Regionen der Welt. Wie es bei Arc A750 und Arc A770 laufen wird, bleibt abzuwarten. Letzten Gerüchten zufolge könnte der Markstart bis Mitte September erfolgen. Ob direkt global, oder erneut nur in China, dafür aber mit weltweiten Mustern, bleibt abzuwarten.
 
  • Gefällt mir
Reaktionen: species_0001, ComputerJunge, Fresh-D und 9 andere
Zurück
Oben