News Gefloppte CPUs & GPUs: AMD FX, RX Vega, der Pentium 4 und jetzt auch Intel Arc?

Damien White schrieb:
Also ARC als Flop zu bezeichnen ist halt schon hart BILD Niveau.

Ich meine, was war da die Erwartungshaltung? Das Intel aus dem Stand auf dem Niveau von AMD und Nvidia landet oder diese sogar noch überbietet?

Klar, ARC hat einen katastrophal schlechten Start hingelegt, aber hier gleich von einem generellen Flop zu sprechen ... Hat CB es wirklich nötig sich auf so ein niedriges Niveau zu begeben um Klicks zu farmen?
Man kann sich natürlich darüber streiten!
Differneziert würde ich argumentieren, das die Hardware kein Flopp ist, zwar um einiges schwächer als angekündigt, aber kein Flopp für einen Neustart.

Was aber schwierig ist, ist das drumherum mit den Treibern und wie die Hardware reagiert!
Nur rBAR fähige Hardware ist für viele Aufrüster und Nachrüster schon ein K.O Kriterium, die Leistung ohne rBAR ist absolut nicht diskussionswürdig. Dazu kommen die Treiber Probleme. Bei mir persönlich der haufenweise auch ältere Titel spielt und eigentlich hauptsächlich Hoi IV und World of Warships, ist das ganze völlig außer Diskussion.
Wenn ich eine Grafikkarte kaufe, will ich das die funktioniert, sprich der Treiber funktioniert und ich nicht ständig Abstürze habe und wirklich jeder Tester, JEDER, erzählt wie fragil die Treiber sind.
Steve von HUB hat ja 51 Games getestet und er sagt das war kein Spaß.
Insoweit ist die HArdware wohl kein Flopp, die Treiber sind es aber defenitiv, und für mich und wohl auch die absolute Masse an potentiellen Kunden und Käufern, gehört der Treiber und seine Funktion mit zur Grafikkarte.
 
Gerade frisch erspäht bzgl. Arc Alchemist, offenbar scheinen die Arc Alchemist Grafikkarten DX9 nicht nativ ausführen zu können und deshalb muss bei älteren Spielen wie etwa CS:GO eben DX9 via DX12 emuliert werden.
Laut Aussage Microsofts sind beide Lösungen (direkt klassisch über einen Treiber oder über Emulation) gleichwertig:

Microsoft itself states that their DX9On12 solution is just as good as a native DX9 driver implementation.

Das dürfte ziemlicher Marketing-Mumpitz von Microsoft sein, denn eine (vermutlich eher unausgereifte) Emulation ist i.d.R. nie so gut wie die native Lösung.

Das könnte also schon erklären, wieso sich die Arc Alchemist dGPUs so schwer tun in älteren Spielen und natürlich ist der Fokus von Intel auch DX12 und Vulkan (Tier 1) und dann erst DX11 und OpenGL (Tier 2) zu verstehen, zumal man Jahrzehnte an Treiberentwicklung nicht in mehreren Monaten aus dem Hut zaubern kann und irgendwo einen Schnitt ansetzen muss zum Einstieg in dGPUs.

Ich hoffe nur, dass Intel da am Ball bleiben wird und für Gaming-Neueinsteiger und Leute die primär neue Spiele spielen dürften die Alchemist Grafikkarten dann nach wie vor interessant bleiben, da diese preislich am Markt besser angesetzt werden dürften, auch wenn durch die hohen dGPU-Bestände - durch Überproduktion für Kryptominer - die Preise bei nVidia und AMD/RTG noch deutlich sinken dürften, was einen verlustlosen Verkauf der Arc dGPUs von Intel immer schwieriger gestalten dürfte, je später diese auf den Markt kommen.

Sicherlich ist von Intel ebenso auf eine längere Kryptomining-Boomphase geplant und gehofft worden, in welcher sie als (Preisleistungs-)Retter trotz der Treiber-Support/DX9 Defizite hätten hervor gehen können, aber das Blatt hat sich gewendet und Arc ist leider auch deutlich zu spät an den Start gegangen (wohl eben auch wegen der Treiberprobleme).

Ob die zweite dGPU-Halbgeneration (Battlemage) das schon etwas besser hinbekommen, muss man dann auch abwarten und m.E. muss Intel auch in den kommenden Jahren nicht gleich ganz oben von der Leistung her mitspielen.
Es reicht vollkommen aus, wenn man sich als RTX 60er oder RX 600er Serienalternative etablieren kann im Mainstreambereich und besonders darunter, wo nVidia und AMD/RTG ohne Druck durch Intel Arc Alchemist Ankündigung wohl auch gar nicht (ebenso halbgare) dGPUs in den unteren Leistungsklassen mehr aufgelegt hätten, um die (Einstiegs-)Preise künstlich weiter anzuheben und hoch zu halten.

Vor der dritten (Celestial-)dGPU-Halbgeneration erwarte ich aber noch nicht deutlich ausgereiftere dGPUs von Intel in den unteren Leistungsklassen auf AMD/RTG und nVidia-Niveau.
 
DonL_ schrieb:
Was aber schwierig ist, ist das drumherum mit den Treibern und wie die Hardware reagiert!

Auch hier ist die Frage, wieso man bei einem Markstart eines Produktes direkt Perfektion erwartet oder es direkt als "Flop" bezeichnet. In welcher Welt muss man leben, damit es für einen ausschließlich diese zwei Extreme gibt? Bist du auch so privat? Sterilisierst du deine Wohnung, bis das letzte Staubkorn entfernt ist? Oder fängst du überhaupt nicht mit der Reinigung an, weil es ja sowieso keinen Sinn macht, wenn man nicht absolute Perfektion erreicht?

Sind somit für dich alle jemals erschaffenen Werke, egal ob Fiktion oder Realität, direkt "Flops", weil sie keine absolute Perfektion sind?

Falls du keine "absolute Perfektion" forderst, wo ziehst du die Grenze? Wie viele Abstürze pro Stunde darf ein Treiber haben? Selbst AMD/Nvidia sind hier nicht bei Null.
 
In meinem Desktop werkelt nach wie vor eine optimierte Vega 56 von Saphire welche dank FHD für alles noch locker ausreicht. Die Karte hab ich vor ein paar Jahren für 200€ gekauft, für mich ein top P/L Verhältnis.
 
  • Gefällt mir
Reaktionen: chiclet_fanboi
Ich habe damals die Pentium 4 Serie bewusst ausgelassen. Damals war die Gerüchteküche um Intels kommende Core-Architektur schon sehr groß. Ich habe die Zeit damals mit meinem AMD Athlon XP3200+ einfach ausgesessen gehabt und wurde von Intel etwas später auch nicht enttäuscht.
 
Vega war damals für mich die einzige Wahl weil es keine andere gpu gab die freesync fähig war. Nvidia war hier mit gsync keine Option wenn man nicht noch nen Monitor mit Aufpreis holen wollte. Diese Info geht hier völlig unter und war ein Kaufentscheidungs Grund
 
Damien White schrieb:
Das ist doch wirklich ein schlechter Scherz oder?
Du bezahlst als Kunde Geld für die Sache und somit kann man zumindestens erwarten, das sie einigermaßen fehlerfrei läuft.
Ab wievielen Auussaetzern pro Stunde bringst du denn den Rasenmäher oder die Spülmaschine zurück zum Händler zwecks Umtasch?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Lupin III
Ich bin von meiner Sapphire Radeon Vega 64 Liquid Cooling nicht enttäuscht, da ich mich vorher durch Tesberichte informiert habe, was sie leistet.
 
Damien White schrieb:
Ich meine, was war da die Erwartungshaltung? Das Intel aus dem Stand auf dem Niveau von AMD und Nvidia landet oder diese sogar noch überbietet?
Nein, aber dass zumindest 90% der Spiele laufen und nicht sogar einige dazu führen, wenn diese mal laufen, dass sogar das ganze PC-System abschmiert.
Damien White schrieb:
Klar, ARC hat einen katastrophal schlechten Start hingelegt, aber hier gleich von einem generellen Flop zu sprechen ... Hat CB es wirklich nötig sich auf so ein niedriges Niveau zu begeben um Klicks zu farmen?
Aktueller Stand ist ARC für mich und sicherlich für sehr viele ein Flop. Intel schafft es nicht einmal das Gewinnspiel zu beliefern, und gibt nun den Gewinnern CPUs als Alternative. Wann wirklich die ARC-Karten auf dem Markt kommen und zu 99% in Spielen lauffähig ist, scheint zudem auch noch in den Sternen zu stehen.

Wie willst du so etwas nennen, wenn teilweise ein Produkt bedingt lauffähig auf dem Markt geworfen wird? Des Weiteren wird bei Intel intern schon darüber diskutiert, ob es nicht besser ist, alles einzustampfen.
 
DonL_ schrieb:
Das ist doch wirklich ein schlechter Scherz oder?
Du bezahlst als Kunde Geld für die Sache und somit kann man zumindestens erwarten, das sie einigermaßen fehlerfrei läuft.
Ab wievielen Auussaetzern pro Stunde bringst du denn den Rasenmäher oder die Spülmaschine zurück zum Händler zwecks Umtasch?
Unter dem Test zur rembrandt-iGPU schreibt jemand er hat Abstürze welche mit der dGPU nicht auftreten. Was ein Flop! #ARC2.0
Ergänzung ()

.Snoopy. schrieb:
Wie willst du so etwas nennen, wenn teilweise ein Produkt bedingt lauffähig auf dem Markt geworfen wird? Des Weiteren wird bei Intel intern schon darüber diskutiert, ob es nicht besser ist, alles einzustampfen.
Flop aus welcher Sicht? Gilt die RX6400 als Topprodukt, weil die Treiber laufen, die Karte selber aus Gewinninteressen komplett beschnitten ist? Intel hat versucht eine vollwertige Einstiegskarte abzuliefern. Die Treiber schränken die Tauglichkeit für Spiele ein, sie bleibt laut Tests eine gute Multimediakarte mit AV1-Encoding. AMD und Nvidia halten es in ihrem Duopol nicht für nötig RDNA 3 und ADA als Einstiegskarte zu bringen.
 
Zuletzt bearbeitet:
wern001 schrieb:
Also die Radeon VII ist mit ihrem sehr schnellen Speicher exterm gut in OpenCL.
Da kann die mit einer RTX 2060 mithalten
Sollte die nicht gegen eine 2080 antreten? Oder ist das der Joke? :D
 
  • Gefällt mir
Reaktionen: Innocience und Samuelz
Combine schrieb:
Flop aus welcher Sicht?
Aus Intels Sicht, würde ich behaupten, wenn die nicht die Kurve bekommen und ARC letztendlich einstampfen. Denn etwas anderes sagt ein Flop (Misserfolg) für den Hersteller nichts aus.
 
Der Pentium 4 mag eine technologische Sackgasse gewesen sein, aber unterm Strich sicher kein kommerzieller Flop für Intel.
Am Anfang schlugen sie sich dank vergleichsweise hohen Taktfrequenzen und immer noch erträglichem Verbrauch gar nicht mal schlecht. Später hat Intel dann illegale Methoden benutzt, um sicherzustellen, dass die Pentium 4 weiter bei den großen OEMs verbaut werden und AMD vor der Tür bleibt. So haben sie sich dann gut über Wasser gehalten, bis sie mit den Core-CPUs wieder was vernünftiges liefern konnten.

Komplette Flops waren wohl eher der Pentium Pro, der mit der damals noch üblichen 16Bit-Software langsamer lief als ein Pentium.
Noch mehr Itanium, Intels letzter Versuch x86 durch eine modernere 64Bit-Architektur zu ersetzen.
Außer Itanium gabs es schon lange vorher immer wieder gescheiterte Anläufe von Intel, x86 abzulösen. Z.B. der i860, von dem die meisten wohl nie was gehört haben.
 
  • Gefällt mir
Reaktionen: Felix# und DevPandi
ebird schrieb:
Sehe ich genauso. Ich habe fast zeitgleich zwei ähnliche Rechner gekauft, einmal einen Intel zwar ein halbes Jahr später dafür ca. 40% teurer. Der Intel war nur ein Quad Core und einen Bulldozer ein Octa Core. Der AMD war wesentlich schneller, günstiger und wurde wesentlich länger genutzt.

Du verklärst den Bulldozer nachträglich. Von einem Octacore war er damals so weit entfernt, dass AMD den Käufern viele Jahre später wegen irreführender Werbung 12 Millionen Dollar zurückerstatten musste. Aus dem Computerbase-Test damals:

Die Theorie klang sehr gut, doch das finale Produkt fällt vorerst tief: Was AMD aus einem 315 mm² großen und satte 2 Milliarden Transistoren umfassenden Prozessor-Die herausholt, enttäuscht auf nahezu ganzer Linie. Nicht nur, dass die Performance wenig Überzeugungsarbeit leistet, der exorbitante Stromverbrauch, der dazu notwendig ist, schockiert regelrecht.

Beim Preis-Leistungs-Verhältnis war Bulldozer auch nicht konkurrenzfähig, weshalb AMD dann schnell die Preise senken musste. Bei Vishera sah es ein Jahr später nur ein bisschen besser aus:

Nun kann man sich mit den kleineren Quad-Core-Prozessoren vom Typ „Ivy Bridge“ messen, die man in klassischen Anwendungen schlägt, während man in Spielen weiterhin zurückliegt. Um das Paket attraktiv zu gestalten, stimmt am Ende auch der Preis. Ein Manko bleibt jedoch: der Energiehunger.

Auch da waren aber alle Core i5 im Preis-Leistungs-Vergleich noch etwas besser.
 
Zuletzt bearbeitet von einem Moderator:
Chismon schrieb:
Genauso wie AMD/RTG es seit Polaris nicht geschafft haben mit nVidia Treibern in DX11 mitzuhalten, dann waren diese Grafikkarten wohl auch alle Flops gemäß Deiner Sichtweise/Deines Auslegungskriterium.
Die Probleme liegen aber nicht direkt am Treiber, sondern an der Architektur der GCN, die auch sehr viel Zukunftsmusik war und ihre Stärken eigentlich erst mit Mantel/DX12/Vulkan ausspielen konnte.

AMD war bei GCN als auch Bulldozer sehr auf die Zukunft gerichtet und hat die Wette verloren.
Xerxes-3.0 schrieb:
ARC hat zumindest jetzt noch einen Trumpf - den AV1 Hardware-Encoder.
Nicht so wirklich. Der AV1-Encoder wird aktuell sehr stark von gewissen Gruppen verklärt und überbewertet. Da ARC auch noch nicht "breit" verfügbar ist, fehlt es in den meisten Softwarepaketen "noch" für die Unterstützung.

AV1 beim Streaming wird in der Regel zudem erst interessant, wenn man Probleme mit der Bandbreite bekommt. Dafür müssten aber auch die aktuellen Portale auch bereits mit AV1 umgehen können.

Der AV1-Encoder ist aktuell also eher ein rein akademischer Vorteil zum jetzige Zeitpunkt.
der Unzensierte schrieb:
War AMD FX ein Flop?
Bulldozer war technisch gesehen ein Flop, auch wenn AMD die Dinger "los" geworden ist, mussten diese teilweise unter Wert verkauft werden. Wirtschaftlich hat Bulldozer auch AMD fast ruiniert, es war durchaus also vollumfänglich ein Flop.
der Unzensierte schrieb:
Aber wären die Erwartungen (von einem gewissen Herrn Koduri gehyped) nicht so hoch gewesen (poor Volta) würde man die AMD Vega wohl eher nicht in dieser Umfrage sehen.
Ja und Nein, Vega wäre wohl etwas wohlwollender aufgenommen worden, gleichzeitig hätte es dennoch nicht so ganz gereicht.
der Unzensierte schrieb:
Die Netburst-Architektur von Intel war für mich auch nicht unbedingt ein Flop
Wirtschaftlich war Pentium 4 kein Flop, technisch gesehen war es zumindest ein Schritt in die falsche Richtung. Flop ist Pentium 4 eher heute rückwirkend, weil Intel nicht das geschafft hatte, was sie wollten und der P6, der damals als "eigentlich fertig" und nur umständlich "erweiterbar" galt, dann doch der Weg war, den man gehen musste.
CDLABSRadonP... schrieb:
Pentium 4 ist definitiv zu allgemein gehalten, Northwood konnte ja durchaus auch als Gesamtpaket überzeugen. Willamette und Prescott hingegen....
Man müsste hier eher darüber reden, wie man einen Flop "definiert".
Lord_Helmi schrieb:
Xeon Phi ist nur für wenige wirklich greifbar, weil es rein den HPC-Markt betrifft.
Lord_Helmi schrieb:
Wirtschaftlich auf jeden Fall, technisch eigentlich nicht. Nur einfach zu teuer um sich durchzusetzen und zu wenige Vorteile. Während HDDS damals wirklich "lange" brauchten, damit die ersten Daten angekommen sind in der CPU und die SSD eine Offenbarung waren, konnte 3D XPoint nicht wirklich noch mal von den verringerten Latenzen im "Alltrag" profitieren, weil dann eh die ersten CPU eher der Flaschenhals ist.
Lord_Helmi schrieb:
erste In-Order Atoms
Da wird es etwas schwerer, denn so ein wirklicher Flop waren die Prozessoren ja eigentlich nicht, auch wenn man später vom In-Order-Prinzip wieder weggegangen ist. Im Embedded-Bereich waren die durchaus beliebt.
TenDance schrieb:
Vega war, genau so wie Fiji, eine compute-Maschine. Dadurch war die Leistung FPS/Watt nicht so gut wie bei einer GTX 1080, aber compute lief Bombe.
Nein, das ist die heutige Verklärung von GCN und damit auch Vega, dass man sie heute zu "HPC"-Grafikkarten verklärt, die man auch zum Spielen nutze. Auch der Vergleich "Vega" gegen Navi (RDNA1) wird dann zwar gerne angeführt, weil ja die 5700 XT langsamer ist als Vega 56 und 64 in HPC-Benchmarks, das hat aber relativ einfache Gründe: 2560 Shader im Maximum gegen 4096 Shader. Es ist klar gewesen, dass die 5700 XT in der Form überhaupt nicht mit Vega 64 mithalten kann, alleine die Rohleistung ist ein gutes Stück niedriger.

Die Probleme von GCN bei Spielen lag nicht in der "Stärke" bei HPC und dass die Architektur für Spiele nicht so gut geeignet war, sondern die Probleme lagen in der Organisation der CU und dass AMD wieder sehr viel Zukunftsmusik in GCN umgesetzt hat. Deswegen ist GCN auch wesentlich besser gealtert als Kepler, Maxwell und auch zu Teilen Pascal. GCN hatte mit der Zeit ein massives Auslastungsproblem und konnte die Shader nicht mit genug Threads füttern, dazu kam, dass die damals verwendeten Wave64-Fronten immer nur auf einer Vec16 in der CU liefen und gnadenlos immer 4 Takte benötigte, um ausgeführt zu werden.

Die Architektur von GCN, jetzt CDNA, kann im HPC-Bereich Vorteile haben, weil man sehr viele Tasks öffnen kann, gleichzeitig ist Navi im HPC-Bereich nicht wirklich nachteilig, weil man einfach die Vektorlänge beachten muss.
TenDance schrieb:
Der Stromverbrauch war jetzt auch nicht Welten schlechter...
Eine GeForce 1080 liegt bei ca. 180 W TDP, eine Vega 64 bei 295 W TDP und beide waren ungefähr gleich schnell. Pascall lieferte je nach Ausgangsbasis ca. 30 % - 150 % mehr FPS pro Watt, das ist ordentlich gewesen. Erst wenn man Hand anlegt, kann man das alles reduzieren.
CDLABSRadonP... schrieb:
Nur, wenn man durch die falsche Leistungsaufnahme ins Verhältnis setzt
AlderLake ist effizient, gerade im Teillastbereich. Das Problem ist halt MT und dass Intel da einfach mehr Saft reinpumpt. Hier ist das Problem eher Intel, die immer den längsten Balken wollten. AlderLake wird einfach jenseits der Vernunft von Intel und den Boardherstellern betrieben. Eine gute CPU, die einfach nicht gut sein darf. ;)
CDLABSRadonP... schrieb:
Die Grundidee von Bulldozer (im INT-Bereich) ist CMT2: Ein Modul kann sich zusammenschalten und einen Thread schneller bearbeiten oder aufteilen und dann zwei Threads normal schnell bearbeiten.
Nein, gerade das "Zusammenschalten" konnte ja Bulldozer eben nicht. Der L1d sowie die Registerfiles waren bei beiden INT-Kernen getrennt. Auch sonst war bis auf Fetch und Decode quasi alles getrennt, bis auf eben noch die gemeinsam genutzte FPU.

Meine Hoffnung war ja damals, dass beide INT-Kerne entweder an einem Thread zusammen arbeiten können, oder bei Bedarf 2, das war aber nicht der Fall.
Haldi schrieb:
die Fury Karten nicht?
Fury schaffe damals durchaus den Schlag zu Maxwell, auch wenn sie nicht perfekt waren und zuwenig VRAM hatten. :)

Damien White schrieb:
Auch hier ist die Frage, wieso man bei einem Markstart eines Produktes direkt Perfektion erwartet oder es direkt als "Flop" bezeichnet. I
Weil Intel entsprechende Erwartungen geschürt hat über die letzten Jahre. Wenn Intel anhand ihrer "Taten" hätte gemessen werden wollen, hätte Intel einfach etwas zurückhaltender sein sollen.

Understatement war noch nie Intels stärke, jetzt knallt es deswegen auch, vor allem weil sie auch noch Ausflüchte suchen und die Fehler bei anderen, nicht bei sich.

Hätte Intel sich bei Arc "bedeckt" gehalten und klar und offen kommuniziert, dass sie noch einige Hausaufgaben haben, wäre das alles wohlwollender aufgenommen worden und man würde sagen: ein respektabler Einstand mit Problemen.

Intel hat seit Jahren davon gesprochen, dass sie den Treiber deutlich verbessern, dass sie dieses Jahr "Millionen" an dGPUs ausliefern und dass sie mit XeSS und Co direkt auf Augenhöhe mit NVIDIA agieren usw.

Wer große Worte spricht, wird auch an den großen Worten gemessen.
 
DonL_ schrieb:
Man kann sich natürlich darüber streiten!
Differneziert würde ich argumentieren, das die Hardware kein Flopp ist, zwar um einiges schwächer als angekündigt, aber kein Flopp für einen Neustart.
Im Großen und Ganzen ist das was Intel als Weltkonzern, sowohl Leistungstechnisch als auch kommunikativ abliefert einfach lächerlich...
Ja, die Hardware bzw. das Konzept dahinter ist ziemlich gut.
ABER, man hat einen weiteren Punkt - die Fertigung nämlich sowieso schon TSMC überlassen.
Hier verlässt man sich auf die mit Abstand beste Fertigung, weil man es mit der eigenen wahrscheinlich wieder nicht gebacken bekommen hätte.

Somit musste man sich nur noch auf das Design + die Treiber konzentrieren und hier hätte es eben deutlich mehr Vorlauf gebraucht, wie man es aber so dermaßen verkacken konnte ist echt ein Phänomen.
 
Also der P4 Northwood mit HT war schon ok, auch heute z.B. mit dual Channel DDR sowie einer 9800pro eine top Retro CPU, die sich hinter keinem XP 3200+ (non oc) verstecken muss.

Bulldozer ist halt wie guter Wein gealtert (zumindest die x3xx er). So sollte doch mittlerweile bei Multi Core ein FX 6300 in etwa wie ein i5 2500k performen, und der FX 8350 auf dem Niveau eines i7 2600k liegen (in Multi Core Anwendungen wohlgemerkt).

Also als Desktop/Anwendungsmaschine noch gut zu gebrauchen. Mein FX 6300er im Retro PC (für Windows XP) zieht im idle auch nur 50W aus der Steckdose (gesamtes System mit hd7790), ist auch nicht die Welt.
 
bad_sign schrieb:
Wäre schon wenn da noch eine 1080 Ti mir UV dabei wäre.
Meine lief mit 1898MHz@0.912V und 200W, das sind ~150 Mhz mehr, als die Ref 1080 Ti (~1750 MHz) bei weniger Verbrauch.

Vega war einfach in sch* für Gaming, hat aber den Vorteil, RDNA sah dadurch nochmals viel besser aus. RDNA vs Vega 50% bessere Effizienz, dann nochmals 50% mit RDNA2^^
Gtx 1080 ti fe hatte 1800 MHz,

100 MHz drauf sind ca 6%, ich hatte meine gtx 1080 ti mit. 0.825v laufen bei 1780 MHz

Ich konnte alles mit vega spielen



Vega 64 oc vs 1080 ti, die sich natürlich auch um ein gutes Stück übertakten lassen würde
 
DevPandi schrieb:
AMD war bei GCN als auch Bulldozer sehr auf die Zukunft gerichtet und hat die Wette verloren.

Ja, gut moeglich, dass Intel mit der gleichen Person im Fahrersitz (Koduri) einen aehnlich ehrgeizigen Ansatz verfolgt, der dann natuerlich teilweise auf der Strecke bleibt oder bleiben kann, wenn das nicht weg zu optimieren ist, da resultierende Leistungseinbussen an der Hardware und nicht den Treibern alleine haengen.

HBM1 war ja auch sehr progressiv (und hat sich im professionellen Bereich etabliert), nur eben mit 4GB Limit bei den R9 Fury dGPUs nicht vorauschauend gedacht und nach kurzer Zeit stark limitierend und der Nachfolger (HBM2) war im Vergleich zu GDDR-RAM spaeter fuer Gaming-GPUs zu teuer.

XeSS koennte evt. noch ausgefeilter als DLSS sein, aber ob Intel das jemals als Vorzeige-Feature von Arc Karten wird ausspielen koennen, steht in den Sternen (ich hoffe es), nur mit besserem AV1 Encoding hat man gegenueber der Konkurrenz wirklich vorgelegt, aber das duerfte fuer die wenigsten kaufentscheidend sein.

Raja Koduri scheint da wohl dem Grundsatz "no risk, no fun" oder "go big or go home"" zu folgen.

So verkehrt ist das als Neueinsteiger im dGPU-Bereich vielleicht auch nicht, weil er anfaenglich dafuer die Mittel noch bewilligt bekommen hat (jetzt duerfte Gelsinger wohl eher die Ausgabenoptimierung/-bremse eingefuehrt haben fuer alles, welches nicht unbedingt noetig ist bzw. ueber den Standard der Konkurrenz hinausgeht), moegliche Alleinstellungsmerkmale zu entwickeln (aus der an sich guten HBCC Idee bei den Vega dGPUs ist leider auch nicht wirklich das am Ende erhoffte geworden, aber es kann schon als Vorlaeuferidee zum Infinity-Cache angesehen werden und die Idee zu MCM-GPUs hatte Raja ja auch als erster).

Da Grafikkarten-(Halb-)Generationen auf 3-5 Jahre Entwicklungszeit i.d.R. angelegt sind, ist es dann fraglich, ob man bei Arc Battlemage die DX9 Limitierung ohne grossen/kostpieligen Aufschub des Marktstarts noch beheben kann und auch will.

Fuer Arc Celestial sollte es aller Voraussicht nach aber gehen, es sei denn es ist nicht gewollt oder die Architektur muesste moeglicherweise auf anderweitige Kosten in der Leistungsfaehigkeit modifiziert werden.

Als Aussenstehender ist man dahingehend auch viel zu wenig in das Vorgehen bei Intel eingeweiht, um das wirklich beurteilen zu koennen, auch wenn bspw. einige YT-Influencer sich evt. einbilden, das beurteilen zu koennen.

Koennte ich mir vorstellen irgendwann in der Zukunft eine Intel Arc dGPU zu kaufen?

Ja, wieso nicht, solange ich noch eine weitere/auslaufende dGPU von AMD/RTG oder nVidia habe fuer die aelteren Spiele.

Als Zweitrechner-dGPU wuerde sich Arc evt. schon jetzt anbieten, wenn das Preis-Leistungs-Verhaeltnis passt und da wuerde ich im Zweifelsfall den Underdog Intel/die dritte Kraft im Grafikkartenmarkt eher finanziell per Kauf belohnen wollen, als das etablierte nVidia-AMD/RTG dGPU-Duopol der staendig (und z.T. unverhaeltnismaessig) steigenden Preise mit echter Vorliebe/Prioritaet fuer Krypto-Miner und nicht Gamer ;).
 
Zuletzt bearbeitet:
Zurück
Oben