News Intel Arc A770 („Alchemist“): Benchmarks in 1080p und 1440p mit XeSS und Raytracing

Wenn die Karte nich auch noch billiger oder mindestens genauso viel kostet wie die 3060 seh ich keinen Grund für teuer Geld Betatester zu spielen.
 
  • Gefällt mir
Reaktionen: GERmaximus und simosh
Weckt mich wenn Karten mit Leistung einer 3080/4080 (ti) auf den Plan treten… und im Optimalfall in allen Spielen gut performen und nicht nur in ausgewählten DX12 spielen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ShadowDragon
Wenn Intel die TDP/TBP ähnlich präzsie einhält wie NV oder AMD, dann ist der Konkurrent der A770 eigtl. die RTX3070 mit ebenfalls ca. 225-230 W TBP, nicht die 3060 mit 175 Watt. Selbst wenn man am Ende wirklich knapp 15% mehr Leistung hätte, wäre das immernoch etwas zu viel.
Falls der Preis den der 3060 erreicht oder knappo unterbietet, könnte man das verkraften, aber nur dann, wenn endlich die Treiber passen. Genau da sehe ich aber weiterhinn schwarz, besonders für Spiele abseits der paar Titel, auf die Intel bereits optimiert hat.
Aber ohnehin alles wenig relevant, denn noch glaube ich nichtmal an ein Release in Europa auf absehbare Zeit. Vllt. sollte Intel die Dinger einfach intern evaluieren und zur Optimierung nutzen, aber erst den Nachfolger oder dessen Nachfolger wieder für die Öffentlichkeit vorsehen. Wäre wahrscheinlich von Anfang das beste gewesen.
 
  • Gefällt mir
Reaktionen: Delirus und karamba
DrFreaK666 schrieb:
Und dass man XeSS nur mit der "High End" Karte zeigt...
das ist letzlich nur logisch.
XeSS ist wie DLSS und FSR ja für eher höhere Auflösungen, also nicht unbedingt "bereits" FHD, geeignet... und für WQHD reicht die Performance der kleinen 300er Arc nicht im Ansatz, als dass man dann noch was mit XeSS was retten könnte
 
Bei RT knapp vor der 3060 finde ich "aus dem Stand" nicht übel - in der Kategorie hinkt AMD ja auch noch etwas hinterher.

Ich fürchte allerdings, dass die Karte zu teuer werden wird, weil ich mir nicht vorstellen kann, dass das Flaggschiff mit 16 GB unterhalb der 6700 XT eingepreist wird. Aber da wird sie der postulierten Leistung nach eigentlich stehen müssen.
 
  • Gefällt mir
Reaktionen: Farcrei und DannyA4
Hat Intel nicht gemeint, der Preis würde nach der DX11 Performance bemessen werden. Also nicht nach DX12 + RT performance?

Falls ja, dürfte der Preis eher überraschend niedrig ausfallen.
 
  • Gefällt mir
Reaktionen: bullit1 und Czk666
Wir sollten Intel noch nicht totreden geben wir ihnen noch etwas Zeit um den Treiber zu optimieren, in einen halben Jahr sieht das wahrscheinlich schon besser aus. Das ganze erinnert mich ein bischen an AMD's Vega da hat es auch einige Zeit gebraucht bis der Treiber halbwegs lief und wenn wir ehrlich sind war RDNA 1 auch noch nicht der große Wurf. Bei Nvidia mitspielen kann AMD erst seit RDNA 2.
Also habt ein bischen Geduld mit Intel das wird schon.:)
 
  • Gefällt mir
Reaktionen: CM286 und Unnu
Das sieht doch erstmal gar nicht sooo schlecht aus. Sicher hat alles ein bisschen länger gedauert und die Treiber werden wohl noch eine Baustelle bleiben.
Aber es ist eine Karte mit der man moderne Spiele in guter Qualität spielen kann.

Interessant wird natürlich der Preis und ob Intel die Performance bei älteren Titeln in den Griff kriegt.
 
  • Gefällt mir
Reaktionen: Schinken42
Vielleicht will Intel das Modell garnicht mehr auf den Markt bringen, und tüftelt schon an der nächsten Generation, oder es gibt einfach zuviele offene Baustellen, sowohl bei Soft als auch bei Hardware.
 
  • Gefällt mir
Reaktionen: Bleikrone
BOBderBAGGER schrieb:
Das ist ca. der preis der für die Asrock A380 in den USA aufgerufen wird.
Plus Steuern, ich meinte inkl.
 
Was bringen einem +xy% werte die hoch sind (je mieser die ausgangswerte desto höher das tolle %.

Beispiel: nvi. Intel
Fortnite2336+ 57%

Toll 57% schneller. Trotzdem nur 13 fps. Und bei einem egoshooter mit 36 fps nicht wirklich spielbar.

Schön dass es besser ist als die vergleichskarte. Bringt aber 0 dort raytracing überhaupt zu vergleichen.

Also nur angegeben um mit hohen % werten zu punkten.
Und dann zu sagen im Durchschnitt 14% besser 😞
 
  • Gefällt mir
Reaktionen: simosh, Col. Jessep, edenjung und 3 andere
Caramelito schrieb:
Wieso hast diese Grafikkarte satte 16GB Vram?
Hätte man da nicht sparsamer sein und so den Preis senken können?

Die 3060 mit 12GB vs 3070 / 3060ti mit 8GB ist mMn. auch sehr komisch. Nicht, dass ich 8GB Grakas bevorzuge, aber P/L dürfte darunter leiden (?).
Pauschal würde ich hier mit nein antworten. Sobald man Raytracing nutzt, sind 8Gb VRAM nicht mehr genug. (Gibt hier einige Tests von Digital Foundry zu 8Gb und RT und während es noch läuft, alleine 2Gb mehr helfen der Performance)

Und dann muss man immer noch schauen, welche compression für Texturen beherrscht Intel und welche Games Supporten das. Wenn es da so aussieht wie beim Rest des Treibers kann ich mir durchaus vorstellen das Intel ein paar GB mehr vram schluckt als die Konkurrenz (für den selben Task).
 
  • Gefällt mir
Reaktionen: PusteBlume0815
Gerithos schrieb:
Dafür sind die neuen von AMD und Nvidia zu nah und der Treiber wird sicherlich eine ganze zeitlang Probleme haben

Es kommen doch immer erst die Top Modelle raus, bis die Einsteiger bis unteres Midrange Bereich drankommen, dauert noch mal Quartale.

Gerithos schrieb:
der Treiber wird sicherlich eine ganze zeitlang Probleme haben

Das hat bis jetzt keinen Hersteller abgehalten, siehe AMDs 5700er Serie, deren Treiber bei Hardwarebeschleunigung wie im Browser Spiele hat abstürzen lassen.
 
nitech schrieb:
Bist du sicher? Gerade bei Nischenspiele wirst du mit Intel riesige Probleme haben, auch alles was nicht DX12/Vulcan ist kann man, Stand jetzt, vergessen.
Eher das Gegenteil ist der Fall. Indie-Entwickler von "Nischenspielen" haben weder das Geld, Ressourcen noch das Renommee weitreichende Partnerschaften mit NVidia oder AMD einzugehen, damit diese ihnen extra Entwickler abstellen und "GameReady"-mäßig spezielle Kniffe in die Engine integrieren und ihre Treiber entsprechend darauf optimieren.

Ein Indie-Entwickler bekommt mangels Bekanntheit diesen Support von den GPU-Herstellern und etwaige Anpassungen/Optimierungen in den Treibern nicht, und muss deswegen sein Spiel so optimieren, dass es ohne treiberseitiges Entgegenkommen, d.h. strikt nach Standard, mit allen aktuellen und künftigen GPUs gut läuft.
Strikt nach Standard ist jedoch gerade das, wo es bei Intel eben nicht hapert. Intels Problem ist, dass viele AAA-Titel, die in der Vergangenheit von NVidia/AMD eine Extrawurst im Treiber sowie tatkräftige Unterstützung bekommen haben, damit sie gescheit laufen, diese individuellen Optimierungen für Intel-GPUs noch nicht haben, sondern dass das die neuen dedizierten Intel-GPUs eben erst in künftigen Titeln mit einbezogen werden. Merkt man ja daran, wenn man heutzutage mal versucht, einen neuen AAA-Titel auf einem Treiber von NVidia/AMD zu starten, der älter ist als ein halbes Jahr, da ist oft Essig.

Genauso jedoch, wie Hans Müllers Wochenendprojekt sich wenig darum schert, auf welcher GPU es läuft, wenn ausschließlich Standardfunktionen verwendet werden, ist das bei Nischenspielen von Indie-Entwickler häufig ebenso der Fall.
 
  • Gefällt mir
Reaktionen: W4RO_DE
Haha, sorry aber die Karte ist gefühlt seit 2 Jahren non-stop in den News.
Bis die rauskommt, sind wir bereits bei der Geforce RTX 5000 bzw. Radeon RX 8000 Serie.
 
  • Gefällt mir
Reaktionen: simosh und boypac007
@tox1c90 dann schau dir den Test zur Arc 380 an, dann weißt du dass man momentan Intel bei nicht DX12 Spielen komplett vergessen kann. Die haben ihre Architektur wie es scheint auf DX12/Vulcan optimiert und wollen alles darunter emulieren - per Treiber. Und du kannst dir ausmahlen wie gut das funktionieren wird, besonders wenn man bedenkt dass sie es momentan nichtmal schaffen, bis auf wenige Ausnahmen die sie dann Stolz präsentieren, Spiele anständig zum laufen zu bringen. Ich wäre da skeptisch.
mfg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: simosh, C16+4, Rockstar85 und 3 andere
Jetzt wo die Preise der Nvidia und AMD Karten täglich fallen, interessiert sich doch kein Mensch mehr für den Intel Quark. Man hätte die Karten fertig auf den Markt werfen sollen als jeder von den überteuerten Preisen völlig abgenervt war.
 
  • Gefällt mir
Reaktionen: Munkman und karamba
Zurück
Oben