News Intel Arc: Produktion der A770 Limited Edition 16 GB eingestellt

Situationskomik schrieb:
Der ist dann hoch, wenn du 4k mit 144hz nutzt... mit4k / 60Hz ca 12W, in FHD bei 60Hz ca 5W. Da CB nur in absurden Auflösungen für diese Leistungsklasse testet, gibt es leider absurde Werte
Es geht hier doch nicht um Zocken in 4K, sondern um den regulären Desktop-Betrieb. Und da sind mehrere Monitore sowie Auflösungen von 1440p oder mehr inzwischen eher die Regel als die Ausnahme.

Ich sehe da auch Intel Arc inzwischen nicht mehr als den schlimmsten Übeltäter, sondern AMDs augenscheinliche Untätigkeit bei RDNA3.

Situationskomik schrieb:
Aber die meisten Artikel stellen die Arc so hin, dass sie immer einen hohen Idle Verbrauch hat, was aber seit vielen Monaten nicht mehr der Fall ist.
Das liegt aber auch an einem Mangel an entsprechenden Testdaten. Liefer doch mal HWiNFO-Screenshots mit verschiedenen Auflösungen und Bildwiederholraten, auf denen man die genutzte Karte und den Verbrauch auf dem Desktop sieht, am besten auch mit Durchschnittswerten über ein paar Minuten. Dann kann man die einfach so in den Raum geworfenen Werte auch endlich mal zitieren.

Und ja, wir wissen, dass der Gesamtverbrauch der Karte etwas über der Telemetrie in der Software liegt.
 
  • Gefällt mir
Reaktionen: meisterkatzen
Kaito Kariheddo schrieb:
Die limitierte 16-GB-Ausführung der Intel Arc A770 GPU erreicht ihr End-of-Life. Damit endet die Produktion des Intel-Designs nach 8 Monaten. Die GPUs selbst werden weiterhin produziert und von Board-Partnern zu Grafikkarten gefertigt.
Hä? Intel hatte doch nur einen Produktionsrun und dann waren die alle EOL und auf Halde. Und dann dauerte es Monate bis die Karten endlich released wurden...
Ich weiß nit, diese Meldung ergibt wenig Sinn imho.
 
Ich hab die Karte jetzt schon seit 10 Monaten verbaut und habe doch schon so einige Stunden damit gezockt.
Die Installation war etwas heikel damals, aber seit dem hat sich wirklich so viel getan in Sachen Treiber, Performance und Fehler...

Zu Anfang war die Karte über den Schnitt auf einem Niveau mit meiner 6650XT und meiner 1080 Ti, inzwischen ist sie beiden Karten in den meisten Games glasklar überlegen und ist eindeutig auf 3060Ti Niveau statt nur 3060 in bestem Fall wie bei Release. Auch vor einer 6700XT brauch sie sich in einigen Games nicht scheuen.

Niemals einen Absturz ingame. Nur der ein oder andere Grafikfehler in Form von flackernden Texturen kam mal vor, das wars. Die Karten sind lang nicht so schlimm, wie ihr Ruf.

Ich hoffe wirklich, dass Intel auch nach Battlemage noch weiter macht.
 
Hier Mal die Werte meiner A750 LE im Hintergrund wird unter Vollbild ein UHD Datei konvertiert.
Habe die Karte jetzt seit 3 Monaten und weder mit Software oder Spielen hab ich Probleme. Bei Warzone 2 werden ab und zu die 8GB eng aber mit 32GB Ram und nen i9-11900KF bei Full HD alles wie Butter.
Aber es ist wie seit vielen Jahren die ist besser das ist besser bla bla .....
Mein Kaufgrund war die gute Leistung bei guten Preisverhältnis und die stetig bessere Performens und eine RX6600 gegen eine A770 16GB zu vergleichen ist ja schon ne Beleidigung selbst meine lässt mittlerweile eine RX6600 nicht gut aussehen .
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    181,3 KB · Aufrufe: 112
  • Gefällt mir
Reaktionen: PegasusHunter
LamaMitHut schrieb:
Intel hat Produkte in diesem Zustand auf den Markt gebracht, wenn man da nicht aus Prinzip ein Zeichen setzt...
Ich muss es jetzt mal fragen. Hast du zufällig eine nVidia-Karte in deinem Rechner stecken?
 
Nixdorf schrieb:
Es geht hier doch nicht um Zocken in 4K, sondern um den regulären Desktop-Betrieb. Und da sind mehrere Monitore sowie Auflösungen von 1440p oder mehr inzwischen eher die Regel als die Ausnahme.

Ich sehe da auch Intel Arc inzwischen nicht mehr als den schlimmsten Übeltäter, sondern AMDs augenscheinliche Untätigkeit bei RDNA3.


Das liegt aber auch an einem Mangel an entsprechenden Testdaten. Liefer doch mal HWiNFO-Screenshots mit verschiedenen Auflösungen und Bildwiederholraten, auf denen man die genutzte Karte und den Verbrauch auf dem Desktop sieht, am besten auch mit Durchschnittswerten über ein paar Minuten. Dann kann man die einfach so in den Raum geworfenen Werte auch endlich mal zitieren.

Und ja, wir wissen, dass der Gesamtverbrauch der Karte etwas über der Telemetrie in der Software liegt.
Mein Fernseher kann offensichtlich nur FHD oder UHD, ist mir bisher gar nicht aufgefallen, da ich den PC nur in FHD nutze...
Aus reiner Langeweile habe ich also ein paar Screenshots...

FHD@60, FHD@50, FHD@120 (viel Strom), UHD@50, UHD@60 sind im Anhang...

Und ein Link zu github, wo z.B. jemand ein Multimonitor-Setup hat.
https://github.com/IGCIT/Intel-GPU-Community-Issue-Tracker-IGCIT/issues/164#issuecomment-1452155973
 

Anhänge

  • Screenshot 2023-06-22 224155.png
    Screenshot 2023-06-22 224155.png
    515,4 KB · Aufrufe: 111
  • Screenshot 2023-06-22 231042.png
    Screenshot 2023-06-22 231042.png
    537,2 KB · Aufrufe: 117
  • Screenshot 2023-06-22 231511.png
    Screenshot 2023-06-22 231511.png
    538,9 KB · Aufrufe: 108
  • Screenshot 2023-06-22 224809.png
    Screenshot 2023-06-22 224809.png
    1.015,8 KB · Aufrufe: 105
  • Screenshot 2023-06-22 225232.png
    Screenshot 2023-06-22 225232.png
    1.018,4 KB · Aufrufe: 120
  • Gefällt mir
Reaktionen: konkretor
Efaniel schrieb:
Ich muss es jetzt mal fragen. Hast du zufällig eine nVidia-Karte in deinem Rechner stecken?
Aktuell gar nichts, nach mehreren Umzügen seit Jahren ohne Daddelkiste.

Zur Zeit Kauf ich auch nicht, können mich mal gerne haben bei den Preisen.
 
Situationskomik schrieb:
FHD@60, FHD@50, FHD@120 (viel Strom), UHD@50, UHD@60 sind im Anhang
Besten Dank! Schön, das inzwischen zumindest UHD@60 sparsam funktioniert.

Situationskomik schrieb:
Und ein Link zu github, wo z.B. jemand ein Multimonitor-Setup hat.
Die Angaben dort zitiere ich hier mal, für direkten Zugriff:
[A770 16GB, Monitors @60Hz]

[Driver] 4091:
Single 2560x1080: 11 W
2560x1080 + 1600x900: 38-40 W

[Driver] 4146:
Single 2560x1080: 7-8 W
2560x1080 + 1600x900: 8-9 W


Situationskomik schrieb:
Mein Fernseher kann offensichtlich nur FHD oder UHD, ist mir bisher gar nicht aufgefallen, da ich den PC nur in FHD nutze...
Hier ist es ein klassischer Monitor. Ich nutze den Desktop in 2160p@120Hz an einer RX 6600. Da nimmt der Chip laut HWiNFO im Idle 4-6 Watt auf. Angehängt ist eine aktuell laufende Langzeitmessung.

Die Leistungsaufnahme des Chips geht auch bei den maximalen 144 Hz des Monitors nicht signifikant nach oben, und der Speichertakt bleibt ebenfalls niedrig. Daher frage ich mich, ob die hohen Messwerte für RDNA2 hier bei ComputerBase für 144 Hz an Regressionen in neueren Treibern liegen, oder ob die RX 6650 XT wirklich so viel schlechter abgestimmt ist.
 

Anhänge

  • RX 6600 - 3840x2160 - 120Hz.png
    RX 6600 - 3840x2160 - 120Hz.png
    319,1 KB · Aufrufe: 81
LamaMitHut schrieb:
Aktuell gar nichts, nach mehreren Umzügen seit Jahren ohne Daddelkiste.
Und dann machst du hier so einen Aufriss obwohl du das eigentlich gar nicht beurteilen kannst, Du plapperst also einfach nur nach, wow.
LamaMitHut schrieb:
Zur Zeit Kauf ich auch nicht, können mich mal gerne haben bei den Preisen.
Dann wirst du so bald auch nichts mehr kaufen, ich denke die Hersteller werden den Verlust verschmerzen könne, allen voran Intel.
 
@sikarr Hast mich überzeugt, ich nehme alles zurück. Bin Dank dir zu der Einsicht gekommen, dass ich als Konsum-Verweigerer keine eigene Meinung haben darf.
 
Eli0t schrieb:
Hä? Intel hatte doch nur einen Produktionsrun und dann waren die alle EOL und auf Halde. Und dann dauerte es Monate bis die Karten endlich released wurden...
Ich weiß nit, diese Meldung ergibt wenig Sinn imho.

Das ist auch mein Kenntnisstand, aber seltsam dass das hier sonst nicht erwähnt wird. Das beweist mal wieder das viel über Halbwissen und Hörensagen geurteilt wird...
Der Tenor wenn man jemanden nach der Meinung zu Intel Arc Karten fragt ist immer der gleiche, wobei vieles nur zum Teil stimmt (hohe Idle Last) oder inzwischen schon verbessert wurde (schlechte Treiber/DX9 Performance).
Auch der Preis ist schon lange kein Gegenargument mehr. 279€ für ne A770 von Asrock, dass ist deutlich weniger als man bei AMD und Nvidia für vergleichbare Leistung bezahlt. Und dass eine Limited Edition nun mal teurer ist...

Ich habe außerdem mal gelesen, dass der Alechemist+ refresh doch nicht mehr kommen soll. Weiß jemand dazu mehr?
 
bad_sign schrieb:
@BAR86

doch, aber das geht nur mit Produkten, die etwas zu bieten haben und das tut ARC nicht.
dann ist dir nicht klar, dass man nicht so einfach mir-nichts-dir-nichts ein gutes Produkt zaubern kann, sondern es dafür Erfahrung braucht, aus Fehlern lernen usw.
Du kannst nicht erwarten, dass man einfach so in den GPU Einsteigt und 30 Jahre Forschung und Entwicklung bei Nvidia und Co aufholt. Wenn das ginge, hätte ichs auch schon gemacht. Und es würde die Frage offenlassen, was Nvidia mit den über die Jahrzehnte investierten/geforschten Milliarden gemacht hat...
Und ganz ehrlich: 95% der User könnte man eine Arc einbauen und die würdens nichtmal merken.
bad_sign schrieb:
Man kann niemand ARC empfehlen. Leute die Spaß am basteln haben ist kein Markt, auf den Intel bauen kann.
war zwar nur übertrieben, aber ja doch das ist ein Markt. Das ist nämlich die Idee hinterm PC Markt.
Und sonst halt der DIY Markt
bad_sign schrieb:
Sie machen große Schritte, aber inzwischen ist die Hardware so dermaßen aus dem Rennen, mehr als hinterherwerfen kann man die Karten nicht.
Was kann man denn auf einer 770-16 nicht spielen?
bad_sign schrieb:
Ich frage mal so, wem würdest du eine ARC empfehlen und warum keine Nvidia oder AMD (oder einfach bei iGPU bleiben)?
jedem der FHD oder 1440p spielt und nicht allerhöchste Ansprüche hat und nicht allzuviele Oldies spielt.
Im Prinzip auch jeden der zu einer Radeon 6600 oder 6700 greifen würde.

Hast du um Nvidia und AMD auch so einen großen Bogen gemacht als die Treiber (verglichen mit Heute) eine Katastrophe waren?
Wir haben die ARC in der Arbeit und sind eigentlich recht begeistert. Ähnlich wie die iGPUs von Intel funktionieren die im Büroalltag einfach. Was nicht selbstverständlich ist, selbst AMD GPUs spinnen manchmal bei so primitiven Dingen wie eine Präsentation (PowerPoint) starten, wenn mehrere Bildschirme im Einsatz sind.
Oder stuttering beim Wiedergeben eines Streams wenn parallel weitere offen sind usw usf

Nochmal: dass die Karte nicht das Gelbe vom Ei ist (Stichwort Idle-Verbrauch, wobei der bei AMD ja auch bei Release schlimm war...), ist schon klar. Dass das Ding aber dennoch schon recht rund läuft ist ein guter Start.
Es ist ein Henne-Ei Problem.

Wenn die Karte nicht auf den Markt kommt, kann sie nicht mit Kundenfeedback verbessert werden. Entwickler können sie beim Entwickeln ihrer Software oder Spiele nicht berücksichtigen. Es kann sich also nichts bessern. Intel kann eben auch nix draus lernen (sowohl was Treiber, als auch was die Architekturoptimierung betrifft).

Man kann in diesem Markt eben nicht eifnach was "fertig entwickeln und dann bringen", es ist ein Lernprozess.
Und wenn Intel keine Arc verkauft hören sie eben auf zu lernen, zu entwickeln, wir haben dann eben keine Alternative zu AMD/Nvidia. Verstehst du es jetzt?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Müritzer und sikarr
Ich kenne zwar die LE nicht, aber mit meiner Acer bin ich mehr als zufrieden.

Intel hat mittlerweile die Treiber gefixt und DX9 auf „Vulkan“ Ebene implementiert.
 
Ich nutze eine 7900XTX in meinen Gaming PC und eine Arx A770 LE 16GB in meiner Workstation. Ich mach auch mal das Gelegenheitsspiel auf der Workstation und starte dann halt nicht das Großkraftwerk nebenan für den "großen". Ich habe Interessenhalber viele ausgestested auf der Intel. Mein Fazit:
Inzwischen ist sie gut benutzbar, im Januar war sie die Katastrophe.
Videoschnitt geht gut, Productivitätsanwendungen laufen gut, dank der 16GB die nun leider eingestellt wurde.

Die A770 16GB war die beste Produktivitätskarte für das Geld. Die nächste Karte die jetzt an die A770 herankommt ist die RX 4060 ti 16GB.
Da kommt es darauf an wieviel Ram hat die Karte und wieviel Tflops in FP32 kann sie pumpen.
Die Arc A770 hat 20Tflops, die RTX 4060 Ti hat 22Tflops. Die RTX 4060 Ti 16Gb wird 500€ minimum kosten.
Dazu hat sie sehr gute Av1 Encoder etc an Board, was die ganzen alten Karten wie zb eine RTX 3080 16Gb nicht hat.

Das sich diese Performance nicht in den meisten Spielen niederschlägt liegt daran das Intel auf Hardwareseitiges DirectX unter 11 verzichtet hat und das per Software laufen muss.
Ich habe mit den alten Spielen seit der Umstellung auf die Proton Treiber die von Valve gepflegt werden keine Probleme mehr, das ich hier 30% Leistung verliere macht sich kaum bemerkbar. Die Idle Probleme sind inzwischen auch schon deutlich besser geworden.

Wie gesagt die Karte steckt bei mir in der Workstation zum Arbeiten nicht zum spielen, dafür bietet sie extrem viel fürs Geld, schade das die 16GB Variante nun aus den Markt verschwindet, da in dieser Preisklasse es ein Alleinstellungsmerkmal war.
 
  • Gefällt mir
Reaktionen: mkjxcb
Zurück
Oben