News Intel Arc: Produktion der A770 Limited Edition 16 GB eingestellt

Ozmog schrieb:
Warum musste ich davon schmunzeln?
Ich finde es eher traurig. Intel hat nicht nur genug auf dem Kerbholz, man weigert sich aktuell noch immer, für einige vergehen Strafe zu zahlen. Lieber beschäftigt man eine Armee von Anwälten und zahlt denen zur not mehr, einfach um ein Zeichen zu setzen.

https://www.computerbase.de/2017-09/europaeischer-gerichtshof-intels-milliarden-strafe/

Das RBAR Anfangs nur mit Intel-CPU ging war natürlich reiner Zufall, im Zweifel für den Angeklagten. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ozmog
Hoffe, dass die aus der Erfahrung einen besseren Nachfolger auf den Markt bringen werden, damit zeigen die auch dem Markt, dass man Intel vetrauen kann und die Sparte nicht wieder eingestellt wird.

Dem GPU Markt würde es auf jeden Fall helfen, wenn ein dritter Anbieter gute Mittelklasse Karten auf den Markt wirft.
 
  • Gefällt mir
Reaktionen: Aquilid
LamaMitHut schrieb:
Ich finde es eher traurig. Intel hat nicht nur genug auf dem Kernholz, man weigert sich aktuell noch immer, für einige vergehen Strafe zu zahlen. Lieber beschäftigt man eine Armee von Anwälten und zahlt denen zur not mehr, einfach um ein Zeichen zu setzen.

https://www.computerbase.de/2017-09/europaeischer-gerichtshof-intels-milliarden-strafe/

Das RBAR Anfangs nur mit Intel-CPU ging war natürlich reiner Zufall, im Zweifel für den Angeklagten. :)
Erst informieren und dann hetzen!

Gericht der EU erklärt Milliardenstrafe gegen Intel für nichtig
 
  • Gefällt mir
Reaktionen: sikarr
Ich bin mit meiner A770 sehr zufrieden.
Am Anfang hätte ich mehr als einmal gegen die Wand klatschen können aber innerhalb von 3 Monaten habe ich bei keinem Titel, die ich spiele, Probleme.
Bei Diablo 4 spielt sie Ihre Leistung super aus und die reicht mir.
 
  • Gefällt mir
Reaktionen: DaBo87, mkjxcb, konkretor und 3 andere
bad_sign schrieb:
Ne, definitiv nicht.
E-Autos haben auch Vorteile, Arc nicht.
äh, das stimmt einfach nicht.
Und ich verstehe nicht, wie man das einfach so behaupten kann, obwohl es genug Gegenbeispiele gibt. Und zwar nicht irgendwo im Netz, sondern in DIESEM THread
bad_sign schrieb:
Das einzige Modell was gut war, A770 16GB, wird eingestampft (400€ ist auch zu teuer dafür)
stimmt auch NICHT
bad_sign schrieb:
Das andere Modell was man empfehlen kann ist die A750, einfach weil sie billig war, aber die RX6600 (XT) ist inwzischen auch hier die bessere Wahl.
auch nicht korrekt
bad_sign schrieb:
Für alles andere als Gaming nimmt man Nvidia
Aha...

Irgendwie ist manchen Leuten nicht klar, wie wichtig es ist, dass sich Alternativen zu diesem Duopol (AMD, Nvidia) bilden... Nvidia gibt selbst zu, dass sie in den letzten Jahren die Preise von diversen Klassen um mehrere Hundert Euro angehoben haben. AMD macht hier natürlich mit, selbst bei gleichbleibenden Marktanteil verdient man dann ja deutlich mehr.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Aquilid, tritratrullala, mkjxcb und 3 andere
Taurus104 schrieb:
Für den Idle Powerdraw gibt es bereits Workarounds.
Kenne nur "Mod" mit dem Asrock BIOS. Gibts da noch mehr inzwischen?
 
Habe hier sowohl die Limited als auch die Acer Predator Karte liegen, sind beides nette Karten, die ich in dem Preis Bereich momentan auch jeder Nvidia und AMD GPU vorziehen würde, die Treiber sind mmn inzwischen wirklich gut. Design technisch ist die Limited für mich die schönste Karten seit Jahren, ähnlich wie die fe Varianten der 4000 Serie, nur bis jetzt reicht die Leistung nicht, um in den haupt oder Arbeitsrechner zukommen.
 
  • Gefällt mir
Reaktionen: 407SW
Manche vergessen hier glaube ich eines, die Limited Edition wird eingestellt, aber nicht die Produktion des Chips, auch nicht der verkauf der Partnerkarten, die Limited Edition ist gleichzusetzen mit der Founders Edition bei Nvidia.
 
  • Gefällt mir
Reaktionen: DaBo87 und sikarr
@IsaacClarke Zumindest ich meinte das auch nur im direkten Vergleich der von Intel selbst verkauften Karten. Für die A750 mit 8GB gab es diese Nachricht der Produkteinstellung ja noch nicht. Vergleicht man aber die zwei Karten, dann reiht sich Intels A750 in ein Meer von 8GB-Karten ein, in dem es wirklich bessere Optionen für potentielle Käufer gibt, wohingegen die A770 mit 16GB zu dem Preis tatsächlich allein auf weiter Flur steht, die Konkurrenz kostet über 100€ mehr.
 
Nixdorf schrieb:
@IsaacClarke Zumindest ich meinte das auch nur im direkten Vergleich der von Intel selbst verkauften Karten.
aber wie relevant ist das wirklich, solange der Verkauf insgesamt weitergeht.
Auch AMD/Nvidia verkaufen ihr Referenzdesign oft nur beschränkt weiter
 
Schrotti schrieb:
LamaMitHut schrieb:
Ich finde es eher traurig. Intel hat nicht nur genug auf dem Kerbholz, man weigert sich aktuell noch immer, für einige vergehen Strafe zu zahlen. Lieber beschäftigt man eine Armee von Anwälten und zahlt denen zur not mehr, einfach um ein Zeichen zu setzen.

https://www.computerbase.de/2017-09/europaeischer-gerichtshof-intels-milliarden-strafe/
Also ich hatte den Beitrag eher so verstanden, dass Intel sich bewusst war, im Unrecht gewesen zu sein und dennoch versucht (und eben mittlerweile auch mit Erfolg!) hat, das Urteil zu kippen. Dabei haben sie auch in Kauf genommen, dass sie natürlich auch ordentlich hätten verlieren können.
 
@BAR86
Irgendwie ist manchen Leuten nicht klar, wie wichtig es ist, dass sich Alternativen zu diesem Duopol (AMD, Nvidia) bilden
doch, aber das geht nur mit Produkten, die etwas zu bieten haben und das tut ARC nicht.
Man kann niemand ARC empfehlen. Leute die Spaß am basteln haben ist kein Markt, auf den Intel bauen kann.
Sie machen große Schritte, aber inzwischen ist die Hardware so dermaßen aus dem Rennen, mehr als hinterherwerfen kann man die Karten nicht.
Klar 10th gen, aber eine Ausrede ist das trotzdem nicht. AMD kann sich auch nicht aus der schlechten Anwendungsperformance reden.

Ich frage mal so, wem würdest du eine ARC empfehlen und warum keine Nvidia oder AMD (oder einfach bei iGPU bleiben)?
 
Also mir juckt das in den Fingern die ARC A770 LE mit meinem alten Pentium G4560 zu testen.
Mit der RX 480 8G lief die Kiste damals nicht schlecht und auch die RX 6700 XT habe ich damit getestet, vielleicht hätte ich das alles dokumentieren sollen aber daran leider erst später gedacht.
Das ist zwar NUR ein 2/4 Prozessor aber was der kleine Giftzwerg immer noch leistet ist nicht von schlechten Eltern, natürlich kein Vergleich zur momentanen CPU Generation.
 
Müritzer schrieb:
Also mir juckt das in den Fingern die ARC A770 LE mit meinem alten Pentium G4560 zu testen.
Laut TechPowerUp verliert die Karte mit PCIe 3.0 und ohne rBAR etwa 30% Performance. Das ist dann immer noch schneller als die RX 480, aber die RX 6700 XT dürfte dann noch deutlicher enteilen.
 
  • Gefällt mir
Reaktionen: Müritzer
BLACKDIAMONT schrieb:
Is halt ne Limited Edition, wa :D
Hab für meine bisher leider noch kein Einsatzzweck gefunden .. fehlender RBAR Support in meiner WS und der hohe Stromverbrauch im Idle, macht die Karte aktuell für mich "uninteressant".

Gut aussehen tut se ja, aber das bringt leider keine fps :D :D
Finds aber gut das Intel weiter am Treiber schraubt ;)
Ach, der Idle Verbrauch...
Der ist dann hoch, wenn du 4k mit 144hz nutzt... mit4k / 60Hz ca 12W, in FHD bei 60Hz ca 5W. Da CB nur in absurden Auflösungen für diese Leistungsklasse testet, gibt es leider absurde Werte, da Intel auf Hardwareseite leider keine internen Stromsparmechanismen eingebaut hat. Wird wohl erst im Refresh gefixt.
Die Werte oben sind aber nur die per HWInfo gelieferten Sensorwerte, Gesamtkarte liegt leicht darüber. Aber entgegen den "Tests" eben nicht bei knapp 40W, sondern eher 8-10W.

Einstellungen im BIOS und Betriebssystem sind sogar bei CB im Artikel beschrieben.

https://www.computerbase.de/2022-10/intel-arc-a770-750-380-verbrauch-leerlauf/

... Und wegen der Diskussion um Sinn oder Unsinn einer Arc... Vor ein paar Monaten, als ich meine A750 für 180€ gebraucht gekauft habe, gab es kaum preislich Alternativen, die nicht irgendwo beschnitten waren. Die Arc hat immerhin Av1 Unterstützung und volles PCI4 Interface.

Und der Schritt von Ryzen 5600G igpu zu A750 Dgpu war deutlich zu spüren. Und mehr als 200€ wollte ich nicht ausgeben.
 
Situationskomik schrieb:
Ach, der Idle Verbrauch...
Der ist dann hoch, wenn du 4k mit 144hz nutzt... mit4k / 60Hz ca 12W, in FHD bei 60Hz ca 5W. Da CB nur in absurden Auflösungen für diese Leistungsklasse testet, gibt es leider absurde Werte, da Intel auf Hardwareseite leider keine internen Stromsparmechanismen eingebaut hat. Wird wohl erst im Refresh gefixt.
Die Werte oben sind aber nur die per HWInfo gelieferten Sensorwerte, Gesamtkarte liegt leicht darüber. Aber entgegen den "Tests" eben nicht bei knapp 40W, sondern eher 8-10W.

Einstellungen im BIOS und Betriebssystem sind sogar bei CB im Artikel beschrieben.

https://www.computerbase.de/2022-10/intel-arc-a770-750-380-verbrauch-leerlauf/

... Und wegen der Diskussion um Sinn oder Unsinn einer Arc... Vor ein paar Monaten, als ich meine A750 für 180€ gebraucht gekauft habe, gab es kaum preislich Alternativen, die nicht irgendwo beschnitten waren. Die Arc hat immerhin Av1 Unterstützung und volles PCI4 Interface.

Und der Schritt von Ryzen 5600G igpu zu A750 Dgpu war deutlich zu spüren. Und mehr als 200€ wollte ich nicht ausgeben.


Was soll an 4k mit 144hz absurd sein? Weil das nicht jeder nutzt? Dann wäre jeglicher Test in jeder Auflösung absurd.
 
Wer 4k mit über 60Hz nutzen will, darf das gerne tun und auch über den sehr hohen Idle Verbrauch informiert werden. Aber die meisten Artikel stellen die Arc so hin, dass sie immer einen hohen Idle Verbrauch hat, was aber seit vielen Monaten nicht mehr der Fall ist.
Im übrigen ist eine Arc ja ohnehin nicht wirklich eine 4K Karte. Ich habe meinen PC im Wohnzimmer am 4K TV und lasse den Rechner auf FHD und 60Hz. Und so spiele ich auch. Da hilft doch kein Test, dass die Karte in 4K 40W zieht, wenn es in FHD nur ca 8W sind. Könnte für manche vielleicht weniger abschreckend sein...

Und bei hoher Spielelast braucht ja jede Karte viel Strom...
 
  • Gefällt mir
Reaktionen: Berliner72
Zurück
Oben