News Alchemist: Intel bestätigt 16 GB für die Arc A770 und 8 GB für die A750

Mich wundert es eigentlich warum es hier bisher noch keine "But can it run Crysis" Sprüche gab - die gleich die Antwort liefert - "No the driver is crashing" ;)

"But can it run Crysis? - No the driver is crashing"
 
  • Gefällt mir
Reaktionen: bad_sign und blubberbirne
estros schrieb:
Da wird gar nichts erarbeitet, denn bislang hat Intel keine Karte im Verkauf. Warte ab zum Release und dann kann man schauen, ob die Karten zu dem Preis brauchbar sind oder nicht.
Ich rede von Arc/Alchemist z.B. der A380.
Die ist kaufbar, zwar nicht hier aber anderswo und die Testberichte hierzu sollten bekannt sein.
Und genau da baut sich dieser Ruf auf.
 
Als wäre nur der Treiber Mist.....
Einfach mal Igor´s Review anschauen. (oder GamersNexus usw...)
Der "Welpenschutz" den manche hier für Intel aufrufen ist lächerlich.
Die machen seit 20 Jahren in GPU, haben sich genug Expertise zusätzlich von Team Grün & Rot eingekauft (wobei man bei Raja mit "Expertise" ja bekanntlich vorsichtig sein sollte ^^) und bekommen nicht mal ein vernünftiges Ref-Design hin. Dann wird so getan als ob Intel irgend eine kleine Hinterhofklitsche wäre die das ja erst mal lernen muss wie Grafik geht, während Intel sich selber aber gerne als Marktführer bei verkauften Grafiklösungen hinstellt.
Und was das Marketinggeschwafel von dem schlumpffarbenen Typen (ehemals Jensen´s rechte Hand) bei LTT angeht da sag ich mal gar nichts zu.....
 
  • Gefällt mir
Reaktionen: Mario2002, cookie_dent, eXe777 und 4 andere
Spielen mit Intel Alchemist ist ein bisschen wie Pferderennen. Nur auf Eseln.
 
  • Gefällt mir
Reaktionen: DiePalme und gustlegga
16 GB für eine Karte die nichts kann. Das ist Ressourcenverschwendung!
 
  • Gefällt mir
Reaktionen: baizer
Verstehe das Kritisieren der 16 Gigabyte RAM Nicht? Bei NVIDIA ist es immer zu wenig bei Intel zu viel. Ich habe Lieber mehr VRAM als zu wenig. Die Roh Leistung mag noch nicht stimmen aber das wird mit sicherheit.
 
  • Gefällt mir
Reaktionen: Gast12345, Kink Monk, icetom und eine weitere Person
cookie_dent schrieb:
Und wie soll man sich dieses "Sprungbrett" vorstellen?
Kurz nachdem Battlemage kommt den Treibersupport von Alchemist deaktivieren.
cookie_dent schrieb:
Die jetzigen Karten sind gerade dabei sich einen denkbar schlechten zu Ruf erarbeiten, sowas bleibt erst einmal in Köpfen hängen.
Der Ruf von Intel im GPU-Bereich ist doch ohnehin schlecht. Xe hat den zwar deutlich aufgewertet, aber eine vernünftige dGPU-Generation würde deutlich umwälzender wirken als einfach eine oder zwei grauenhafte dGPU-Generationen.
 
Onkel Föhn schrieb:
Dachte AMD bei der Vega Frontier Edition vor 5 Jahren (2017) bestimmt auch ... ;)

https://www.pcgameshardware.de/Vega...-Release-AMD-Radeon-Frontier-Edition-1232684/
Nur ist die VRAM Usage seit dem ordentlich gestiegen. Anno 2022 bekomme ich selbst bei bei weitem nicht maximierten oder gar hohen Settings in 3440x1440 häufiger mehr als 8GB meiner 1080 Ti voll. Angenommen, die Karte unterstützt dann noch Raytracing, dann kommt noch mal mehr dazu und angenommen, ich spiele was in 2-3 Jahren, dann werde ich mit Sicherheit noch mal mehr VRAM brauchen.

Treiber (nicht zu verwechseln mit Treiber für die GPU ;) ) für das mehr an VRAM Usage sind a. bessere Engine Technologien, b. mehr Leistung im PC Bereich und c. mehr Leistung sowie Speicher im Konsolen-Bereich. Ergo, sind 16GB Anno 2022 die richtige Wahl, wenn man die Karte länger als nur 1-2 Jahre halten soll.

Auch ist die Vega Frontier doch nie eine Spiele-Karte gewesen oder?
 
  • Gefällt mir
Reaktionen: Onkel Föhn
GUN2504 schrieb:
Was nützen einem 16 GB VRAM beim Top Model, wenn der Chip keine Leistung auf die Straße bringt und der Treiber fürn Ar... ist?

Viel VRAM kann nie schaden, von daher ist deine Frage sehr seltsam. Texturen sind quasi kostenlos, sich über zu viel VRAM zu beschweren finde ich befremdlich. Außerdem sollte man erstmal abwarten, wie schnell die A770 tatsächlich wird. Das ist ist eine ganz andere Hausnummer als die getestete A380.
 
  • Gefällt mir
Reaktionen: Gast12345
GUN2504 schrieb:
Was nützen einem 16 GB VRAM beim Top Model, wenn der Chip keine Leistung auf die Straße bringt und der Treiber fürn Ar... ist?
Mhh 3060 Power mit 16GB ist schon gut, aber wie du sagst kommen die RTX4000er und dann wird Intel nur noch die Leistung einer 7500 und RTX4050 haben, und das sind dann Einsteiger GPU.. Aber vllt wird im Computing die Karte ihre Abnehmer finden, die Rohleistung ist ja da.
Leider ist die karte zu spät und zu durstig.
Ergänzung ()

Zeitwächter schrieb:
Irgendwo muss angefangen werden, und im Jahr 2022 wo Software, Treiber & Co deutlich deulich komplexer sind, als Ende 90er oder Anfang 00er, ist es nun mal leider so, dass die Hersteller zu Release keine super duper Treiber veröffentlichen (können).
Ein halbes Jahr länger die Produkte zurückhalten und an Treiber zu arbeiten wäre auch eine Option, aber das wäre aus wirtschaftlicher Sicht richtig richtig doof.
Intel fertigt seit den späten 1990ern GPU
Doch sie Müssen am Markt eben ausgereifte Produkte bringen, denn dann geh ich eben bei AMD oder Nvidia kaufen.. Solche Aussagen, kommen aber meistens von Leuten, die aus Prinzip nur Firma A kaufen wollen.
Intel hatte 20 Jahre Zeit, eine Treiberkompetenz aufzubauen.. Hat man nicht genutzt. Und von Miesem Marketing eines Ryan Shrout kann ich mir nichts kaufen. Stand heute kannst du ältere Spiele gar nicht mit dem Ding zocken. Ich kann da bei A wie Anforderungen anfangen und Ende bei T wie Treiber. Das Produkt ist nicht mal Beta und sowas muss man sich als Käufer nicht gefallen lassen.. Dagegen sind Treiberprobleme bei AMD und Nvidia nen Witz.
Und wenn ich für mein Kaufen Aktien bekäme, ja dann würde ich Intel auch dafür verteidigen.. Leider gibts keine Aktienpakete als Zugabe.. Aber wäre nötig, so schlecht wie ARC ist.

@mkl1
Die ARC A770 wird irgendwo bei einer 3060 rauskommen. Das ist für das Geld vllt noch gut, aber nicht für die Rechenleistung und vor allem die Die Größe.. Da legt Intel richtig drauf und ich wage zu behaupten, auch eine 399USD ARC A770 wird keinen Gewinn abwerfen. Mal schauen, wie lange die Aktionäre das mitmachen
 
Zuletzt bearbeitet:
Dai6oro schrieb:
Ein Marktteilnehmer, der keine Alternative darstellt (Stand Jetzt) nützt niemandem. Intel hat seit Jahren GPUs und Treiber. Im Moment nehmen sie dem Markt lediglich knappe Ressourcen weg, da sie die Chips nicht selbst fertigen.

Mit Ungeduld kommt man aber auch nicht weiter. Was ist dir lieber ? Gar kein dritter Teilnehmer oder ein dritter Teilnehmer, der sich kontinuierlich verbessern und dann tatsächlich eine ernstzunehmende Alternative sein kann ?

Die entweder 100% oder gar nicht Einstellung ist halt nicht immer realisierbar.
 
  • Gefällt mir
Reaktionen: Gast12345 und Kink Monk
eratte schrieb:
Intel GPUs werden bei TSCM gefertigt - nix eigene Fertigung.
Das stimmt, kann sich aber ändern in den nächsten 5 Jahren, sofern Intel lange genug dran bleibt
 
  • Gefällt mir
Reaktionen: Gast12345
ShiftC schrieb:
Mit Ungeduld kommt man aber auch nicht weiter. Was ist dir lieber ? Gar kein dritter Teilnehmer oder ein dritter Teilnehmer, der sich kontinuierlich verbessern und dann tatsächlich eine ernstzunehmende Alternative sein kann ?

Die entweder 100% oder gar nicht Einstellung ist halt nicht immer realisierbar.
Mit dem Geld und dem Know How und der Zeit die Intel zur Verfügung steht und stand hätte man eine wesentlich besseres Ergebnis erwarten müssen und dürfen. Meine Meinung.

https://www.pcgameshardware.de/Inte...s-Leistungs-Sieger-in-Tier-1-Spielen-1399806/

Hier prahlt Intel sogar noch, dass sie lediglich in einigen wenigen Spielen performen wollen. Kannst dir nicht ausdenken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: baizer
TIMOTOX schrieb:
Verstehe das Kritisieren der 16 Gigabyte RAM Nicht? Bei NVIDIA ist es immer zu wenig bei Intel zu viel. Ich habe Lieber mehr VRAM als zu wenig. Die Roh Leistung mag noch nicht stimmen aber das wird mit sicherheit.
Das wird eher nichts. 16GB sind natürlich schön bringen bei der Karte nur nichts. Dafür ist und bleibt sie einfach zu schlecht. Ggf. kann man mit Intel GPUs in 2-3 Jahren gut fahren, aber bisher ist das nur Verschwendung von Ressourcen.
 
DonDonat schrieb:
Auch ist die Vega Frontier doch nie eine Spiele-Karte gewesen oder?
Keine reine Gamer Karte !
Steht aber auch so in "meinem" Link inkl. Game Benches ...

MfG Föhn.
Ergänzung ()

DonDonat schrieb:
Ergo, sind 16GB Anno 2022 die richtige Wahl, wenn man die Karte länger als nur 1-2 Jahre halten soll.
Heißt im Umkehrschluss, dass Deiner Meinung nach alle RTX 3050 - RTX 3080 User/Besitzer ab Heuer die "Gelackmeierten" sind ?!? :rolleyes:

MfG Föhn.
 

Anhänge

  • Prosumer.jpg
    Prosumer.jpg
    793 KB · Aufrufe: 150
Der einzige Vorteil sind die 16GB.
 
mkl1 schrieb:
Viel VRAM kann nie schaden, von daher ist deine Frage sehr seltsam. Texturen sind quasi kostenlos, sich über zu viel VRAM zu beschweren finde ich befremdlich. Außerdem sollte man erstmal abwarten, wie schnell die A770 tatsächlich wird. Das ist ist eine ganz andere Hausnummer als die getestete A380.
Doch kann es siehe 3090 vs. 3080Ti :D .
 
Was ist eigentlich aus den beliebten Intel Skull geworden!?!?

Stand dieses doch für "Performance" und "High End". Wo also nicht passender als auf den Intel Arc - Grafikkarten. 🤷‍♂️
 
mkl1 schrieb:
Begründen bitte, nicht einfach hinrotzen.
weniger vram mehr saft für die gpu ;) .
Bei einem Game wo die A770 mit 40fps und medium details, 4k texturen nutzen kann wird darum auch nicht besser. Der Radeon VII haben die 16GB nicht wirklich geholfen, da haben auch die 11Gb der 1080Ti bis jetzt gerreicht.
Aber nachdem Vram an das SI gebunden ist bleibt eh nur 8GB evtl zu wenig oder 16Gb und damit evtl overkill und dann nimmt man wohl die 16GB mit obwohl 12GB wohl der gute Mittelweg wären für die A770.
Eine 3080Ti hätte aber statt den 12GB wohl 16GB(optimal) vertragen, 24GB wäre aber overkill, war aber durch das Si leider nicht möglich. Aber als Enthusiast in dem Preisberreich würde ich auch keine 3070TI mit nur 8GB haben wollen.
 
Zurück
Oben