News Intel Arc im 3DMark: Beta-Treiber optimiert Benchmarks jetzt offiziell

Ob Metro jetzt auch bei Igor auf dem PC startet und seinen Frust mindert? ^^
Na ja, jedenfalls habe ich Sorge, dass bei all den Problemen bei aktuellen Top-Titeln die Aussichten bei normalen, alten, Indie - und Casual-Games noch sehr viel düsterer ausschaut.
Ich bin ja mal gespannt, was die Zukunft so bringt und was man in den Foren so hört.
 
S.Kara schrieb:
Meint du ihre iGPUs? Da waren sie wohl nie wirklich hinterher was Treiber angeht.
Denen hat auch einfach die Power gefehlt.
Erfahrung ist Erfahrung. Sie jetzt in Schutz zu nehmen und zu sagen: "Tja, ist halt alles neu für Intel" kann hier nicht gelten.
 
  • Gefällt mir
Reaktionen: gustlegga und Powl_0
S.Kara schrieb:
Meint du ihre iGPUs? Da waren sie wohl nie wirklich hinterher was Treiber angeht.
Denen hat auch einfach die Power gefehlt.
Sogar 30 Jahre.
Es steht übrigens genau das gleiche Schauspiel an.
Die i740 als Steckkarte hatte gegen die direkt folgende Konkurrenzneuauflage absolut Null Chance und war auch mal eben über 50% langsamer.
Dazu dann noch die üblichen Treiberprobleme, was wir auch hier bisher sehen dürfen.
Es sollte die modernste Karte sein, die den AGP-Slot als einzigste Karte auch wirklich sinnvoll nutzt.
Tatsächlich war der Chip für verwöhnte Spieler vergleichsweise nur Kacke und AGP konnte mit der Bandbreite auch nichts retten, wo nichts ist.
Und es hat sich zwischenzeitlich ja nie etwas geändert.
Das ist das, was ich der Weltfirma anprangere.
Da hilft der Suppenkasper Koduri auch nicht bei, der hat AMD auch nur mehr geschadet als geholfen.
Ihr erinnert euch?
"Poor Volta" wurde zu einer heißen Vega, wo man ein Feature sogar ganz deaktivieren musste, wodurch man nur mit roher Gewalt gerade so die 1080 halten konnte.
Es gab ja aber noch eine Ti und Titan, die mal eben 35% mehr raus hauten.
Das passiert, wenn Management und Marketing anfangen zu trommeln, wenn das Produkt noch nicht einmal steht.
Und genau das macht man nun auch bei Intel seit gefühlt 3 Jahren.
Z.B. 20x iGP Leistung wird uns versprochen.
Koduri, im Video. Jeder hats gesehen?
Ihr dürft schon mal die Steine rausholen, das wird lustig.
"Ist Weibsvolk anwesend?" "Nein, nein, nein" ^^ ;-P
 
  • Gefällt mir
Reaktionen: Rockstar85, Traumsucher und Calid
user_zero schrieb:
Oha, das hatte ich noch nicht auf dem Schirm.

Fakt ist, AMD Grafikarten sind auch beim Kunden gereift. Vor allem was die Software angeht. Dasselbe steht Intel und uns nun auch bevor, da sollte man sich keine Illusionen machen.
Anders geht's ja auch kaum. Im sterilen Testlabor kann man vieles simulieren, aber die eigentlichen Probleme tauchen erst beim Kunden auf.
Die Frage wird eher sein wie schnell Intel willens ist entsprechend patches nachzuschieben.
Selbst wenn entsprechende Treiber erst eine Woche oder 2 nach Release größere Spiele verfügbar sind wäre es kein Beinbruch wenn diese dafür anständig laufen.
Dazu kommt auch erschwerend hinzu das viele Spiele auch bei AMD/Nvidia nicht ohne weiteres lauffähig wären würde man die Treiber nicht laufend anpassen.
Ach kommt denen zu gute das sie teils schon sehr lang im GPU Business sind und eine entsprechend lange Historie angepasster Spiele vorweisen können.
Da fällt es wesentlich leichter eine breite Spiele unterstützung zu haben.

Intel muss halt einen langem Atem beweisen und zeigen das sie willens sind für entsprechende Unterstützung zu sorgen.
Das man nicht noch zb dx 7 oder dx9 Optimierungslasten mitschleppen muss, kann vielleicht sogar ein Vorteil sein.
Wenn man ehrlich ist, würde bei einem Treiber Neuanfang von AMD/Nvidia auch radikal sämtliche Unterstützung für vergangene Spiele Epochen fehlen.
Da kannst noch so viele GPU Gurus haben, das holt man nicht mal in ein paar Jahren auf. Das wird sicher auch Intel bewusst sein.
Ergänzung ()


Wenn man das so sieht, dann sieht das erstmal gar nicht so beschissen aus. Zumindest geht es in die richtige Richtung. Trotz aller Startprobleme.
Ergänzung ()


Wenn man sich das so anschaut. Dann scheint zumindest die Hardware der A380 ein rundes Paket für die Leistungsklasse zu sein, insbesondere durch die 6GB VRAM.
Da kann sich AMD oder Nvidia ruhig eine Scheibe von abschneiden.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: user_zero
Die Arc hat ein 50% größeren Chip (zumindest in Hardware Einheiten), doppelter Verbrauch (Gunnier 92W) und schafft es gerade so, mit der gehassten 6400er Karte mitzuhalten?
Die 1650 ist beim Verbrauch ein bisschen außen vor, da nicht in 6nm sondern in 12 produziert.
 
  • Gefällt mir
Reaktionen: Rockstar85, Orok91 und Calid
Ich hoffe, das Intel das mit den Grafikkarten schnell gebacken bekommt. Aber von AMD und Nvidia ist Intel sicherlich noch Jahre, wenn nicht länger entfernt. Bin mal gespannt, ob Intel nicht doch noch irgendwann die Flinte ins Korn werfen wird, wenn ihnen klar werden sollte, das man evtl. doch zu viel Geld für vergleichbar akzeptable Ergebnisse verpulvern tut.
 
dernettehans schrieb:
Was soll das bitte heißen "Benchmark optimierte Treiber" hört sich für mich erst mal nach Beschiss an, oder wurden Bugs behoben?
Die bisherigen Treiber kamen mit Benchmarkbeschiss ab Werk.

Die neuen Treiber deaktivieren nun den Benchmarkbeschiss ab Werk (mutmaßlich damit nicht bei jedem Intel-3D-Mark-Ergebnis groß und bunt dasteht, dass das Ergebnis Resultat von Treiberbeschiss von Intel ist), belassen aber eine Option im Menü diesen - warum auch immer - vom Nutzer wieder aktivieren zu können.
 
  • Gefällt mir
Reaktionen: Traumsucher und dernettehans
@incurable LOL! Also sind die Ergebnisse der Karten noch schlechter als bisher bekannt? Gibts schon neue Ergebnisse mit den "optimierten" Treibern?
 
Die Ergebnisse in echten 3D-Lasten sollten sich durch die neuen Werkeinstellung im Treiber nicht ändern.

Die 3D-Mark-Ergebnisse dürften jetzt ab Werk niedriger ausfallen. (Dafür steht dann beim Ergebnis nicht mehr, dass Intel es sich mit Treiberbeschiss ergaunert hat.)
 
mkl1 schrieb:
Und seit wie vielen Jahren dGPUs
Egal, da die Architektur der GPU selbst sowie alle zu unterstützenden APIs dabei nahezu identisch sind. Ob der Speicher dann shared oder extra ist oder ob ich mit 10 oder 200W arbeiten kann, ist da egal. Was der Treiber drüber können muss, bleibt gleich.

Und selbst wenn, willst du mir erzählen, Intel bekommt sowas nicht hin? Woran scheitert es denn bitte?
Ergänzung ()

mkl1 schrieb:
Intel ist groß, aber nur eine sehr kleiner Teil gehört zur GPU-Treiber Sparte.
Und das ist einzig die Nachlässigkeit von Intel. Dass sie sich nicht richtig drum kümmern, tja, selbst schuld. Wieso sollte ich als Kunde da Verständnis haben?
Ergänzung ()

mkl1 schrieb:
Ohne dGPU kein Fokus auf viele andere Sachen, die bei Nvidia und mittlerweile auch AMD selbstverständlich sind.
Zum Beispiel? Nenn doch mal solche Themen, auf die man erst mit dGPUs nen Fokus haben sollte.

Wirfst mir vor, ahnungslos zu sein, bringst aber selbst auch nichts Handfestes vor.
Ergänzung ()

S.Kara schrieb:
Denen hat auch einfach die Power gefehlt.
Daran liegts nicht. Die Intel iGPUs werden schon immer auch von Spielern mit wenig Budget genutzt. Dann werden halt ältere oder anspruchslose Spiele gespielt.

Dafür hat Intel die iGPUs sogar jahrelang beworben.

Dass sie sich nicht um anständige Treiber gekümmert haben, ist da einfach unverständlich.
Ergänzung ()

Ayo34 schrieb:
Da hat sich keiner Mühe gemacht aus 5 Frames bei Spielen 6 Frames rauszukitzeln.
Auf Intel iGPUs kann man schon seit vielen Jahren "kleine" Spiele bzw zum jeweiligen Zeitpunkt ältere Spiele brauchbar spielen.

Vor allem "Casual" Titel wie Sims, Fifa, kleine Indie Titel, 2D Zeug etc werden viel auf iGPUs gespielt.

Woher kommt dieser Irrglaube, dass da nichts mit mehr als ner Handvoll Frames laufen würde?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Traumsucher

Anhänge

  • 7-1080.162d3cd7.jpg
    7-1080.162d3cd7.jpg
    132,7 KB · Aufrufe: 164
  • 6-1080.a62fefbf.jpg
    6-1080.a62fefbf.jpg
    146,7 KB · Aufrufe: 158
user_zero schrieb:
Fakt ist, AMD Grafikarten sind auch beim Kunden gereift. Vor allem was die Software angeht. Dasselbe steht Intel und uns nun auch bevor, da sollte man sich keine Illusionen machen.
Yep, AMD macht einfach nen mega Job seit sie Zen angekündigt hatten. Das muss man ihnen einfach lassen. Während Intel sich halt auf den Lorbeeren ausruhte und nun ein wenig das nachsehen hat. Aber wenn sie die Menpower die sie nun mal haben einsetzen, sollte das eigentlich kein Problem sein. Es ist halt oft nur das Ego vieler hochrangiger Mitarbeiter, das solchen returns dann im Wege steht. Nicht umsonst ist die Fluktuation auf den großen Positionen der Firmen derzeit so groß wie selten.

Dazu kommt halt, vor allem heutzutage, das Preisargument. Für die einen sind 50-100€ mehr oder weniger verschmerzbar, weil sie ihr System auf lange Sicht rechnen. Für viele ist es aber genau das eben nicht. Die rechnen mit den JETZT Ausgaben. Ich erlebe das halt immer wieder. Diese Leute kannst du auch oft nicht überzeugen. Und da setzt AMD halt gut an. Mit den Ryzen bekommst du nahezu identische Leistung für mitunter deutlich weniger Geld. Wenngleich ein 11400er und die neueren "kleinen" CPUs von Intel das inzwischen auch gut abfedern. Aber dieses Preisleistungsthema und AMD ist halt in vieler Leute Kopf.

Das ist halt das, was auch in diesem Forum hier immer wieder gern übersehen wird. Wir reden von Conumer-Electronics. Der Großteil der Konsumenten beschäftigt sich eben nicht mehrere Stunden am Tag mit dem Zeug, so wie wahrscheinlich 90% der User hier.
 
  • Gefällt mir
Reaktionen: user_zero
dernettehans schrieb:
@incurable LOL! Also sind die Ergebnisse der Karten noch schlechter als bisher bekannt? Gibts schon neue Ergebnisse mit den "optimierten" Treibern?
Alle GPU hersteller machen das.
Anfang der 2000er war das quasi ein Wettbewerb bei Benchmarks zu bescheißen, insbesondere wenn AA zum Einsatz gekommen ist.

Was aber auch stimmt, ist das man dann ein Ergebnis unter Ideal bedingen bekommt.
Das machen leider alle.
Da werden die Treiber für die Benchmarks genauso angepasst wie für neue Spiele.
Diese Krokodilstränen kann man sich daher sparen ;)

Davon ab, ist die ARC A380 billiger als eine gtx 1650 oder rx6400 und bietet 6gb VRAM statt der sonst 4GB VRAM.
Ja sie braucht wohl mehr Saft und die Treiber brauchen noch arbeit. Aber was man so sieht, schaut trotzdem nicht verkehrt aus.
Diese GPU kostet ca 153 us Dollar
Und ist in angepassten Spielen wie in den verlinkten Videos bei sehen kannst deutlich schneller als eine gtx 1650.
Also ganz so beschissen schaute gar nicht aus.
Diese Leistungsklasse als Einstieg gepaart mit fairen 6GB VRAM sollte vielen Casual-Spielern reichen.
Lass diese GPU mal ein 1Jahr im Markt verfügbar sein und im Preis sinken, da kommt derzeit vom Potenzial nichts dran.
Solche entry FHD Karten zu solchen Preisen hat es lang nicht gegeben.
Da kann man dann vielleicht sogar mit den Einschränkungen leben.
Anders als AMD Rx 6400 hat diese GPU auch alle für den HTPC wichtigen Encoder und Decoder an Bord.
 
Artikel-Update: 14 Prozent weniger Leistung ohne Optimierungen
Wie erste Ergebnisse auf Twitter demonstrieren, liefert die Intel Arc A380 ein um mehr als 14 Prozent niedrigeres Ergebnis im 3DMark Time Spy ab, wenn die Advanced Performance Optimizations (APO) deaktiviert werden.

Während die bislang kleinste mobile Grafikkarte der Serie mit ihren 8 Xe-Cores und 1.024 FP32-ALUs in Kombination mit einem Core i7-11700K zuvor ein für die Datenbank ungültiges Ergebnis von 5.757 Punkten in Time Spay erreichen konnte, sind es unter regulären Bedingungen nur noch 4.929 Punkte (-14,38%).

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]

Im 3DMark Port Royal fällt das Ergebnis rund 4 Prozent niedriger aus, wenn die Optimierungen durch APO in Intel Arc Control deaktiviert werden. Statt 1.854 Punkten erreicht die Intel Arc A380 nur noch 1.780 Punkte im Benchmark.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
  • Gefällt mir
Reaktionen: incurable und bad_sign
incurable schrieb:
Treiberbeschiss für Benchmarks bringt keinem Kunden irgendetwas. Es ist herausgeworfenes Geld und verschenkte Zeit. Und man untergräbt gleichzeit die eigene Position jetzt und in der Zukunft.
Natürlich bringt das was. Das zeigt dir wie viel Potenzial in Treiberoptimierungen steckt und genau das findet ja schließlich auch bei Spielen statt.
Viele große AAA Titel werden speziell im Treiber optimiert und jetzt weißt du, dass dadurch im Durchschnitt ca. 14% mehr Leistung herausgeholt werden können.

incurable schrieb:
Für mich ist das alles eine Chose - jeweils Software einzig und allein für den Zweck geschrieben unter bestimmten, zu erkennenden Umständen bessere Werte zu produzieren als unter allen anderen Betriebszuständen.
Die Software produziert nicht einfach bessere Werte um besser auszusehen. Sie schafft es durch angepasste Algorithmen schneller zu laufen. Das ist ganz einfach eine logische Folge dessen was man erreichen kann, wenn man sich explizit auf die Eigenschaften eines ganz speziellen Renderprozesses konzentrieren kann und nicht verallgemeinern muss.
 
Zuletzt bearbeitet:
n3xtrem schrieb:
Alle GPU hersteller machen das.
Intel hat den Treiberbeschiss so weit getrieben, dass UL ihnen auf die Finger klopfen musste.
Ergänzung ()

noxon schrieb:
Natürlich bringt das was. Das zeigt dir wie viel Potenzial in Treiberoptimierungen steckt und genau das findet ja schließlich auch bei Spielen statt.
Es bringt gar nichts:

  • Im 3D-Mark darf man den Beschisstreiber nicht nutzen.
  • Für andere, echte 3D-Lasten hat der Beschiss im 3D-Mark genau gar keine Auswirkungen.
  • Wer am Treiberbeschiss in 3D-Mark arbeitet, kann die Zeit nicht für die dringend notwendige Arbeit an echten 3D-Lasten verwenden.
 
  • Gefällt mir
Reaktionen: Traumsucher
S.Kara schrieb:
Meint du ihre iGPUs? Da waren sie wohl nie wirklich hinterher was Treiber angeht.
Ne, Du hast die nur nie für 3D Beschleunigung eingesetzt. 2D waren die ok, aber 3D hatten wir reichlich Darstellungsfehler in verschiedenen Softwares.
 
incurable schrieb:
Im 3D-Mark darf man den Beschisstreiber nicht nutzen.
Solange alles transparent ist und man es an und abschalten kann darf man alles. Es ist sogar sehr wünschenswert, da man so die Unterschiede erkennen kann. Warum etwas entfernen, was optional ist?

Für andere, echte 3D-Lasten hat der Beschiss im 3D-Mark genau gar keine Auswirkungen.
Was sind für dich "echte" 3D-Lasten?

Wer am Treiberbeschiss in 3D-Mark arbeitet, kann die Zeit nicht für die dringend notwendige Arbeit an echten 3D-Lasten verwenden.
Das lass mal Intels sorge sein. Und du glaubst ja wohl nicht, dass die Optimierungen, die für 3D-Mark vorgenommen wurden nicht auch irgendwo in anderen Spielen und Anwendungen zum tragen kommen. Die Arbeit wird sich schon lohnen.
 
noxon schrieb:
Solange alles transparent ist und man es an und abschalten kann darf man alles.
UL hat Regeln dafür, was Treiber dürfen und was nicht. Der von Intel betriebene Treiberbeschiss fiel in letztere Kategorie.

noxon schrieb:
Was sind für dich "echte" 3D-Lasten?
Produktivsoftware, welche die Grafikkarte verwendet.

noxon schrieb:
Und du glaubst ja wohl nicht, dass die Optimierungen, die für 3D-Mark vorgenommen wurden nicht auch irgendwo in anderen Spielen und Anwendungen zum tragen kommen.
Wenn es sich um allgemeine Optimierungen handeln würde hätte Intel für seinen Treiberbeschiss keinen von UL auf die Finger bekommen.

Und nein, Treiberbeschiss in 3D-Mark bringt für andere 3D-Lasten genau gar nichts.
 
  • Gefällt mir
Reaktionen: Traumsucher
incurable schrieb:
Intel hat den Treiberbeschiss so weit getrieben, dass UL ihnen auf die Finger klopfen musste.
Ergänzung ()

Es bringt gar nichts:

  • Im 3D-Mark darf man den Beschisstreiber nicht nutzen.
  • Für andere, echte 3D-Lasten hat der Beschiss im 3D-Mark genau gar keine Auswirkungen.
  • Wer am Treiberbeschiss in 3D-Mark arbeitet, kann die Zeit nicht für die dringend notwendige Arbeit an echten 3D-Lasten verwenden.
Alle machen das. Nicht nur die GPU hersteller an sich tun das.
Selbst bei Notebooks hast gern.
Wenn ich bei mir den 3D Mark laufen lasse, erreiche ich Taktraten und TDP Werte die ich so vorher nie erreichen würde.
Meine rtx 3070m taktet im 3d Mark mit 1,6 GHz bis 1,7Ghz.
Real liegen aber bei 100% Auslastung im Spiel nur 1,35Gjz bis 1,4Ghz an.
Auch meine 3 Notebooks davor mit
Rx 560,gtx 1060,gtx 1660ti davor haben ein ähnliches Verhalten gezeigt.

Der Beschiss ist weit verbreitet. Das ist egal ob du AMD, Intel oder Nvidia nimmst.
Teilweise wirst sogar bei der Hardware direkt beschissen die auf dem Papier besser ausschaut als sie ist.
Zb RX 6400 4GB und dann nur mit PCI E 4.0 gut nutzbar. Die Speicheranbindung so hart kastriert das selbst die gtx 970 mit ihren 3,5GB +0,5GB Speicher Debakel serios ausschaut.
Oder schau dir die Vega 56 und Vega 64 an.
Im Benchmark wahre Monster und auf der Straße sind das einfach nur noch solide GPUs weit ab von deren Fantasie Scores.
Da muss man halt einfach mal ehrlich sein.
Der Beschiss ist ein Fehler im System an sich! Alle machen es, keiner gibt es zu, aber wenn dann mal einer aus der Reihe tanzt nutzt der Rest ihre Chance um mit dem Finger drauf zu halten ;)

Man muss da einfach das ganze mit Abstand zur Sache sehen und darf dabei keinen Hersteller bevorzugen.
 
Zurück
Oben