News Intel Arc im 3DMark: Beta-Treiber optimiert Benchmarks jetzt offiziell

Booby schrieb:
Im Umkehrschluss waren alle bisherigen 3DMark-Werte unter zugeschalteten Optimierungen entstanden. Heißt 15% abziehen und die ARCs stehen in den Benchmarks genauso schlecht wie in Spielen da.
Ohh no…
 
n3xtrem schrieb:
UL macht Vorgaben, was im Zusammenhang mit 3D-Mark erlaubt ist und was nicht.

Wenn Du Beweise dafür hast, dass von UL validierte Treiber anderer Hersteller gegen diese Vorgaben verstoßen, mach sie öffentlich.
 
  • Gefällt mir
Reaktionen: Wowka_24, Traumsucher und CableGuy82
Salamimander schrieb:
Erfahrung ist Erfahrung. Sie jetzt in Schutz zu nehmen und zu sagen: "Tja, ist halt alles neu für Intel" kann hier nicht gelten.
Genau so siehts aus.
ATI wurde erst 2006 von AMD übernommen; das hat natürlich einige Zeit gedauert mit der Generalsanierung von den grauslichen Catalyst-Treibern. Aber zumindest haben die das hinbekommen.
Ich hatte zu Win9x Zeiten auch mal eine ATI Rage 128 im Rechner; das war des öfteren ein ziemliches Gewürge was die Kanadier damals fabriziert hatten.
Der blaue Ankündigungs-Weltmeister hat seinen Treiber-Rotz aber auch nach 25 Jahren noch nicht im Griff.
Und das waren nicht nur alles IGP-Chips. Die i740 von 1998 war eine AGP-Steckkarte!
Zu Larrabee und Xeon Phi sag ich mal garnichts.....
Bei den aktuell im Einsatz befindlichen Chips dürfte Intel vorn liegen, bei den reinen verkauften Stückzahlen sind die AMD und Nvidia ohnehin um Meilen voraus.
Von einem Marktführer erwarte ich also durchaus "etwas" mehr Kompetenz.
 
Zuletzt bearbeitet: (Typo)
  • Gefällt mir
Reaktionen: Traumsucher und CableGuy82
Simanova schrieb:
Normalerweise verwenden Treiber die APO, um besser auf Bedürfnisse von Anwendungen einzugehen.
Bei Benchmarks ist APO aber kontraproduktiv, weil hierdurch die Vergleichbarkeit von Ergebnissen leidet.
Das heißt demnach im Umkehrschluss dass APO Sinn macht und damit auch das Potential aufzeigt, dass man in Anwendungen oder Spielen herausholen kann wenn man das Programm entsprechend anpasst.

Powl_0 schrieb:
? Intel baut auch seit 20 Jahren GPUs.
Gigantischer Konzern, Know How wie nochwas. Die Fehler der anderen Hersteller gab es, dann hätte Intel aber daraus lernen können, so wie es Nv, AMD, etc auch taten.
Wenn es so einfach wäre hätten wir schon lange GPUs aus China. Man unterstellt ja immer dass die einfach alles kopieren und mit dem Geld des chinesischen Staates müssten sie ja schon lange eigene Spitzenprodukte haben. Die Realität sieht aber immer noch so aus dass die Spitzentechnologie im IT Bereich nahezu ausschließlich von nicht chinesischen Unternehmen stammt.

Auch Intels GPUs waren doch über Jahre außer für die Bildausgabe fast nicht zu gebrauchen. Erst in den letzten Jahren hat man mal etwas optimiert so dass auch Spielen möglich ist. Von Leistungsfähigen dedizierten Grafikkarten war man aber meilenweit entfernt.
Und es gibt in diesem Bereich ja auch kein Knowhow dass man mal so eben hätte einkaufen können.
 
  • Gefällt mir
Reaktionen: pvcf
n3xtrem schrieb:
Wenn man sich das so anschaut. Dann scheint zumindest die Hardware der A380 ein rundes Paket für die Leistungsklasse zu sein, insbesondere durch die 6GB VRAM.
Da kann sich AMD oder Nvidia ruhig eine Scheibe von abschneiden.

Nicht wirklich.

Größer Chip und höhere Verbrauch, hätte das Ding mehr Leistung abgeliefert, dann wäre es garantiert nicht in Konkurrenz zu 1650 oder 6400.

intel hat nur keine andere Wahl, die haben bestimmt keine 6 GB Speicher spendiert, weil die so nett sind.
 
  • Gefällt mir
Reaktionen: Traumsucher und CableGuy82
TigerNationDE schrieb:
Yep, AMD macht einfach nen mega Job seit sie Zen angekündigt hatten. Das muss man ihnen einfach lassen. Während Intel sich halt auf den Lorbeeren ausruhte und nun ein wenig das nachsehen hat.
AMD greift noch tiefer in die Trickkiste.
In den präsentierten Folien ist der Hersteller dieses Mal definitiv zu weit über das Ziel hinausgeschossen und hat falsche Ergebnisse über das Marketing verkauft.
https://www.computerbase.de/2022-03...chnitt_marketingschlacht_auf_unterstem_niveau

3dmark weckt Erinnerungen an Nvidia.
https://techreport.com/review/5226/further-nvidia-optimizations-for-3dmark03/

gustlegga schrieb:
Genau so siehts aus.
ATI wurde erst 2006 von AMD übernommen; das hat natürlich einige Zeit gedauert mit der Generalsanierung von den grauslichen Catalyst-Treibern. Aber zumindest haben die das hinbekommen.
Die moddingszene für AMD/ATI-Treiber ist AFAIK weiterhin aktiv.
Ein Problem ist die willkürliche Einstellung von Treibern anstatt einen sauberen Finaltreiber zu programmieren. Letzte Woche kam nach einem Jahr ein neuer Legacytreiber für die HD7xxx und Rx und Win 7.
 
n3xtrem schrieb:
Alle GPU hersteller machen das.

Davon ab, ist die ARC A380 billiger als eine gtx 1650 oder rx6400 und bietet 6gb VRAM statt der sonst 4GB VRAM.
Ja sie braucht wohl mehr Saft und die Treiber brauchen noch arbeit. Aber was man so sieht, schaut trotzdem nicht verkehrt aus.
Diese GPU kostet ca 153 us Dollar
Und ist in angepassten Spielen wie in den verlinkten Videos bei sehen kannst deutlich schneller als eine gtx 1650.
Also ganz so beschissen schaute gar nicht aus.
Diese Leistungsklasse als Einstieg gepaart mit fairen 6GB VRAM sollte vielen Casual-Spielern reichen.
Lass diese GPU mal ein 1Jahr im Markt verfügbar sein und im Preis sinken, da kommt derzeit vom Potenzial nichts dran.
Solche entry FHD Karten zu solchen Preisen hat es lang nicht gegeben.
Da kann man dann vielleicht sogar mit den Einschränkungen leben.
Anders als AMD Rx 6400 hat diese GPU auch alle für den HTPC wichtigen Encoder und Decoder an Bord.


Die waren vorher auch von der Karte angetan - bis .....
Also gerade einmal knapp 6400, statt locker die 6500Xt weggeputzt.
Immerhin hat die Karte gefühlt 50% mehr Power! Also natürlich auch bei der Stromaufnahme, aber die Tecs eigentlich auch.
Was wir zudem wissen, ist, dass die 6400 arg überteuert ist udn nur wegen dem Minung auf dem Steckkartenmarkt ist.
Dafür ist sie viel zu teuer, eigentich dürfte sie nur 100 maximal kosten.
Wenn man das jetzt in Relation zur ARC setzt mit 150, wäre die AMD Karte selbst mit 120 Euro noch ein Schnapper.
Da der Chip so viel kleiner ist und auch der Verbrauch, die Kühlung und alles drumherum, wird die KArte auch viel günstiger über den Ladentisch gehen können und auch müssen.
Dem wird Intel nicht folgen können, es sei denn, man legt drauf, um in den Markt zu kommen.
Die ARC ist also ein technisch gesehen langsames Produkt udn am Ende geht es nur über den (Kampf)Preis.

Zu deiner Aussage, in 1 Jahr soll man mal gucken, wie toll dann Intel mit der KArte da stehen wird...NEIN!
Bereits in 3 Monaten ist Intel am Arsch, genau wie vor 30 Jahren mit dem i740 Chip, der hochgelobt wurde (also nur von Intel).
Wenn man als "Neueinsteiger" Fuß fassen will, darf man nicht zu spät kommen und nur etwas Mittelmäßiges abliefern, was dann vor der Verbreitung in der MAsse schond ermaßen vom Platz gefegt wird, dass man lieber gleich wieder ganz einpacken kann (so wie damals).
Die Verzögerung um ein ganzes Jahr wird letzendlich Intel das Genick brechen und Koduri erneut den Job kosten.
Der war bei AMD schon die Lachnummer und wird es auch bleiben.
Erst seitdem der da weg ist, geht es AMD gleich viel besser. Was sagt uns das? Zufall?
 
  • Gefällt mir
Reaktionen: Traumsucher
incurable schrieb:
Produktivsoftware, welche die Grafikkarte verwendet.
Genau das ist ja eigentlich keine reine 3D-Last sondern ein Mix aus Grafik-Last und sonstigen Berechnungen, die für die Anwendung bzw. das Spiel aufgebracht werden müssen.
Synthetische Benchmarks sind ja gerade dazu da die Leistung spezifischer Komponenten zu testen um diese vergleichbar gegenüberzustellen. Sie treffen keine direkten Aussagen darüber welche Ergebnisse sie in Produktivsoftware liefern würden. Indirekt kann man es aber natürlich schon einigermaßen ableiten.
Was im synthetischen Benchmark gut läuft wird in Spielen nicht schlecht sein.
 
  • Gefällt mir
Reaktionen: CableGuy82
flappes schrieb:
Nicht wirklich.

Größer Chip und höhere Verbrauch, hätte das Ding mehr Leistung abgeliefert, dann wäre es garantiert nicht in Konkurrenz zu 1650 oder 6400.

intel hat nur keine andere Wahl, die haben bestimmt keine 6 GB Speicher spendiert, weil die so nett sind.
Die Chipgröße allein sagt gar nichts aus.
Davon ab kommt diese GPU tendenziell auch mit weniger Watt aus. Die Gunnar A380 hat 22 Watt drauf gepackt.
Ohne käme die GPU auch ohne zusätzlichen Strom aus.
Und Solang wie wir nicht wissen was wie und wo die RT Einheiten arbeiten die ja vorhanden sein sollen, bringt einem das reiten auf der Chipgröße rein gar nichts.
Und ja die 6GB VRAM sind als absolute Untergrenze für FHD zu sehen.
Zum Vergleich, eine gtx 1650 ist ein bisschen schneller bzw auf einem Niveau mit einer gtx 1060 muss jedoch mit 2GB VRAM weniger auskommen.
Mit der 1060 kannst heute noch anstandslos zocken wenn man nicht alles auf ultra haben muss.
Zeig mir mal eine GTX 1060 die mit unter 100 Watt auskommt?
Die TDP liegt bei ca. 120 Watt.
Nein, UV zählt da nicht.

Ja die Effizienz ist nicht so gut wie bei AMD oder Nvidia, aber auch nicht so weit hinter her das man einen Skandal draus machen könnte.

In dieser Leistungsklasse sind AMD und Nvidia leider keine Option. Mit 4GB VRAM geht absolut nix mehr.
Und die AMD Karte hat so gut wie alle Decoder/Encoder gestrichen bekommen.
Müsste ich einen HTPC bauen, bekäme die Intel GPU den Vorzug weil mehr VRAM und alle notwendigen Decoder/Encoder vorhanden sind.

Die Treiber sind wichtig, damit steht und fällt alles. Otto normal interessiert sich nicht für Chipgrößen, TDP Werte usw.
Und wie ich schon gepostet hatte laufen ja so die typischen Casual-Spiele anscheinend ganz gut. Nicht alle, aber auch nicht so wenige das gar nichts damit geht.
 
  • Gefällt mir
Reaktionen: Terrordrome
Zurück
Oben