News Gerüchte zu Intel Arc: Xe² HPG „Battlemage“ soll erst Mitte 2024 erscheinen

Oberst08 schrieb:
Im Endeffekt wäre man dann nicht wirklich weiter gekommen und müsste gegen etablierte Karten bestehen, die kurz vor der Ablösung stehen.
Es kommt darauf an, was man vorhat. Wenn es darum geht, den längsten zu haben, dann hinkt Intel sicherlich hinterher. Wenn sie allerdings anstreben, eine (gehobene) Mittelklasse zu vernünftigen Preisen anzubieten, dürfte das ggf. mit Erfolg gekrönt werden. Dieser Bereich wird ja von rot und grün gar nicht mehr angeboten.

Die Frage ist ja auch immer: wo verdient man das meiste Geld? Mit ultraschnellen Karten, die sich kaum jemand leisten kann (oder will) oder doch in der Mittelklasse? Es wird Zeit, dass wir für 300 EUR wieder vernünftige Lösungen bekommen und nicht irgendwas beschnittenes (66xx, 3060 8 GB). Da könnte Intel ansetzen und die A750 ist P/L schon ganz gut dabei.
 
kachiri schrieb:
Wenn ein bald 3 Monate alter Beitrag zitiert wird. lol.

Deine Meinung hat sich doch nich geändert und die News ist wieder auf der Startseite? Inwiefern ist das relevant?

kachiri schrieb:
Was hättest du eigentlich gemacht, wenn in meiner Signatur nicht meine HW-Konstellation stehen würde? Spekuliert?

Noch nicht einmal darauf geachtet - was soll die mir genau sagen, außer dass du einen 5800X3D (Top Prozessor) und ein iPad hast?

Habe Intel, Nvidia und AMD verbaut - je nach Einsatzzweck die dafür passende/beste Hardware. Der 7950X3D wäre für Virtualisierung ein Testballon gewesen, ansonsten wäre dieser bei passenderem Preis auch interessant gewesen.
Für meinen Home-Server war das in meinem Fall eindeutig der 5750G - man mag es kaum glauben, ebenfalls eine AMD CPU - seltsam was du mir hier vorwerfen willst, nur weil ich deine Sichtweise -

kachiri schrieb:
für AMD wäre es nicht schön
- nicht teile bin ich „der echte Fanboy“? Brilliant Sherlock :rolleyes:

Intel MUSS genau denselben Weg wie AMD in der CPU-Sparte gehen, ansonsten wird es nichts. Bei AMD ist auch sehr viel schiefgelaufen, da haben lange Zeit weder Preis noch Leistung gestimmt- da gebe ich Intel doch auch gerne mehr Zeit als eine einzige Generation, aus weshalb auch immer einseitiger Sichtweise wohl schwer zu verstehen :rolleyes:
 
MalWiederIch schrieb:
Als ATI damals mit der 4870 kam sind die Preise ebenfalls gefallen - wenn AMD/Intel also vernünftige Konkurrenz bieten, sinken selbstverständlich auch die Preise.

Das wird nicht wieder passieren.
Günstige Preise von AMD wurden, im Großen beeinflußt durch nvidiafreundlich Seiten wie PCGH, genutzt um preiswerter an Nvidiakarten zu kommen.
Der Preiskampf im Grafikkartenbereich wurde nach mehr als einer Dekade von AMD eingestellt, weil es u.a. auf Grund der Parteilichkeit der "Fachpresse", finanziell keinerlei Vorteil für AMD gebracht hat.
Der Austieg aus dem Preiskampf ist auch der Grund, warum der aktuelle Absturz im GraKaBereich AMD deutlich geringer getroffen hat als Nvidia.

Finde ich das gut? NEIN!

Aber die teils nachweislichen FanBoi-Artikel von PCGH bezüglich ARC zeigen, das dies in die gleiche Richtung gehen wird. (Einige der von PCGH als, auf ARC Karten, toll laufende Games haben in Wirklichkeit u.a. Probleme mit reproduzierbaren!!! Grafikfehlern.)

Wer glaubt denn ehrlich daran, das es zu einem Preiskampf zwischen Nvidia und Intel kommt?
Eher legt Intel noch Geld drauf und "kauft" sich bei einer Konsole (Hallo Microsoft?!) ein.
 
  • Gefällt mir
Reaktionen: Draco Nobilis
Nun ja, es wird ueber (maximal) RTX 4070Ti Leistung bei Intel Arc B(attlemage) spekuliert.

Die Frage ist dann, zu welchem Preis und mit welcher Effizienz wird Intel Arc B am Start sein (bei den in 4nm TSMC gefertigten Karten)?

Wenn man sich anschaut wo Intel Arc A(lchemist) 770 gelandet ist von der Leistung her (nicht bei einer RTX 3060Ti bis 3070), nur bei einer RTX 3060 bisher, waere dann nicht eher eine RTX 4070 realistischer als maximales Leistungsgegenstueck fuer das Intel Arc B 770 (BMG-10 Chip) Flaggschiff?

Bis Mitte 2024 duerfte evt. eine RTX 4070Ti aber ziemlich sicher schon eine RX 7900XT fuer um die 700 Euro zu haben sein (das waere meine Glaskugel-Einschaetzung), und das ist der letztmoeglich sinnvolle Martkstartzeitraum, denn im Spaetsommer kommen schon die RDNA3 und evt. Ada Lovelace Abverkauspreise dazu und noch einmal kann man es sich eigentlich nicht leisten, bei Intel wieder zu spaet dran/auf dem Markt zu sein (das duerfte man ja von Intel Arc A(lchemist) gelernt haben.

Besser waere es, wenn die Arc Battlemage dGPUs schon im Fruehjahr 2024 kommen wuerden, aber Intel ist in den letzten eher dafuer bekannt die Produkte spaeter als auf den Roadmaps geplant auf den Markt zu bringen als zum geplanten Zeitpunkt, geschweige denn davor.

Ob der kolportierte Refresh neue Fertigungsmasken (damit Zusatzkosten) und leicht verbesserte Arc Alchemist Architektur (auch bzgl. der Effizienz) bieten soll, zumindest waere das dann evt. noch interessant fuer einige (im Einsteiger- und Mittelklassebereich) und die zusaeztliche Fertigungserfahrung/-erkenntnisse koennten auch dabei helfen, die der nachfolgenden Gaming-dGPU-Serien (Balltemage, Celestial, und evt. Druid) zu verbessern.
 
Genoo schrieb:
mich erinnern Intel Grafikkarten irgendwie an Windows Mobile

zwei etablierte Player ( iOS und Android / Nvidia und AMD ) dominieren den Markt während ein finanzstarkes Unternehmen ( Microsoft / Intel ) versucht Fuß zu fassen

Am Ende entscheidet die Software über den Erfolg ( App Support / Treiberqualität ) und solange die nicht passt, wissen wir bereits wie es enden wird


Wie meinst du das? Den Vergleich sehe ich so gar nicht. Sicher, Microsoft hat die Entwicklung verschlafen, aber man war mit Windows Mobile gut aufgestellt und hinter Symbian bis Ende 2008 noch die Nummer zwei. Und Windows Mobile hatte eine andere Zielgruppe als Symbian, das ging höchstens in die Richtung dessen, was SE damals mit UIQ geboten hat. Aber ich denke Nokia hat mit S60 den Markt dominiert, was ja doch noch anders war als Windows Mobile oder UIQ.
Sehe jetzt nicht wo Intel seit Ewigkeiten Grafikkarten anbietet, die sich gut verkaufen, nur um dann einen neuen Trend zu verschlafen, im Fall der Smartphones die "Runterverdummung" und "Entsmartphonisierung" durch iOS und Android.


RealRadeonator schrieb:
p.s.: Ich finde es so witzig, alle meckern, weil die GPU Entwicklung derzeit so übermäßig schnell ist und ständig neue auf den Markt geschmissen werden und wenn intel sich Zeit damit läßt, ist das auch wieder falsch. Genauso als das Produkt rauskam: Erst habe alle "Fachleute" geschrieben, wo bleibt ARC und als Sie da war kamen von eben diesen Leuten die Kommentare "Wieso hat man die Karte jetzt schon veröffentlicht. "


Wie bitte? Das findest du "schnell"? Befasst du dich erst seit zwei, drei Jahren mit Hardware?
Früher kamen nicht nur wesentlich häufiger Generationensprünge, auch innerhalb der Generationen gab's andauernd Upgrades.
Von August 2004 bis Januar 2006, also in einem kürzeren Zeitraum als heute eine Generation, gab's z.B. von Ati die X800, danach die X850 mit neuem Chip und mehr Leistung, danach die X1800 und danach noch die X1900 mit neuem Chip und erheblich mehr Leistung. Bei nVidia sah es wenig anders aus.
Und das beste: anders als heute gab's immer mehr Leistung fürs selbe Geld, der Preis stieg kaum.
Insgesamt ist früher gefühlt kein Monat vergangen, ohne das einer der beiden mit einer XT PE Ultra wasweißich wieder versucht hat die Leistungskrone an sich zu reißen, bei der P/L-Krone sah es ähnlich aus. Andauernd gab es irgendwelche überarbeiteten oder geshrinkten Chips und es wurde noch ein bisschen mehr Leistung fürs Geld rausgepresst.
Heutzutage tut sich im Vergleich... gar nichts. Man muss statt ein paar Monaten zwei Jahre warten. Man bezahlt seit ein paar Generationen immer nur das gleiche Geld für gleiche Leistung. Wer ein Limit von 250€ hat konnte seit gefühlten 10 Jahren gar nicht mehr aufrüsten. Damals gab's da schon Karten für, mit denen man wirklich alles mit den maximalen Details spielen konnte, teilweiser auf Jahre. Heute kriegt man da kaum die billigsten Einsteigerkarten für.
Der Grafikkartenmarkt ist so langsam wie nie, und weil man sich nicht mehr leisten kann aufzurüsten fühlt er sich nochmal langsamer an.

Naja, mit den explodierenden Preisen der Grafikkarten, den sinkenden Reallöhnen und dem Erfolg des Steam Deck werden die Entwickler schon darauf achten, dass man auch mit Uralthardware oder iGPUs alles gut spielen kann. Die GPU-Hersteller, zumindest nVidia, schneiden sich damit nur ins eigene Bein. Wenn sie meinen...


Ansonsten habe ich wenig Interesse an Intels Grafikkarten. Die aktuellen sind mir zu langsam, weil ich schon lange vorher ne 6700XT hatte, die nächsten werden zu teuer, sollte der Markt bis dahin nicht implodieren. Auf Letzteres können wir alle nur hoffen.
 
  • Gefällt mir
Reaktionen: Xul und Strahltriebwerk
GreatEvil schrieb:
Das wird nicht wieder passieren.
Günstige Preise von AMD wurden, im Großen beeinflußt durch nvidiafreundlich Seiten wie PCGH, genutzt um preiswerter an Nvidiakarten zu kommen.
Der Preiskampf im Grafikkartenbereich wurde nach mehr als einer Dekade von AMD eingestellt, weil es u.a. auf Grund der Parteilichkeit der "Fachpresse", finanziell keinerlei Vorteil für AMD gebracht hat.
Der Austieg aus dem Preiskampf ist auch der Grund, warum der aktuelle Absturz im GraKaBereich AMD deutlich geringer getroffen hat als Nvidia.

Finde ich das gut? NEIN!

Aber die teils nachweislichen FanBoi-Artikel von PCGH bezüglich ARC zeigen, das dies in die gleiche Richtung gehen wird. (Einige der von PCGH als, auf ARC Karten, toll laufende Games haben in Wirklichkeit u.a. Probleme mit reproduzierbaren!!! Grafikfehlern.)

Wer glaubt denn ehrlich daran, das es zu einem Preiskampf zwischen Nvidia und Intel kommt?
Eher legt Intel noch Geld drauf und "kauft" sich bei einer Konsole (Hallo Microsoft?!) ein.
Schwachsinn, das hast du offensichtlich komplett falsch in Erinnerung :rolleyes:

https://m.winfuture.de/amp/news/43559

ATI war damals bei über 35% Marktanteilen aufgrund guter Konkurrenz und mit der 4870 sah es noch besser aus. Keinerlei finanzielle Vorteile - ich lach mich schlapp :lol:

Der Grund weshalb AMD der Absturz im GPU-Bereich besser verkraftet hat ist einzig und allein folgender:

122727F7-8334-4B05-BC47-A7BECC417C77.jpeg


Und da sollten wir doch als Konsumenten alle hoffen, dass sich das (wieder) ändert.
 
conglom-o schrieb:
Es kommt darauf an, was man vorhat. Wenn es darum geht, den längsten zu haben, dann hinkt Intel sicherlich hinterher. Wenn sie allerdings anstreben, eine (gehobene) Mittelklasse zu vernünftigen Preisen anzubieten, dürfte das ggf. mit Erfolg gekrönt werden. Dieser Bereich wird ja von rot und grün gar nicht mehr angeboten.
Das klappt aber nur, wenn der Chip auch entsprechend klein wird. Und genau daran hapert es ja bei Arc. Und BM klingt nicht unbedingt nach einem kleinen Chip. DG2-512 (A770) ist z.B. grob 20% größer als Navi22 (6700XT), trotz etwas besserer Fertigung. Daher ist er vermutlich grob 50% teurer. Der kommende Navi33 soll laut TPU wie DG2 die 6nm Fertigung nutzen und mit 204nn^2 wäre das Ding grob halb so groß bei vermutlich ähnlicher Leistung. Da ist Arc also mehr als doppelt so teuer (da man weniger als die Hälfte an funktionierenden Chips aus einem gleich großen Waver bekommt). Ähnliches wird man wohl dann auch wieder bei BM haben (zu viel Flächenverbrauch für die angestrebte Leistung). Da ist es dann auch egal, ob man nur 8 Lanes bekommt oder volle 16. Vor allem, weil PCIe 4 ja immer mehr Verbreitung findet und damit 8 Lanes keinen großen Unterschied machen.
Die von mir angesprochene 4070Ti ist z.B. bei 295mm^2 Fläche. Vermutlich wäre da selbst ein DG2-512 in 4nm nicht kleiner, bei erheblich weniger Leistung. Da bezweifle ich, dass Intel eine ähnlich kleine GPU mit ähnlicher Leistung erreichen wird (Fertigung wäre ja grob gleich). Entsprechend hätte Intel hier wieder deutlich höhere Chip Kosten, die sie dann aber wieder nicht an die Kunden weiter geben können.
Und wir sollten schon so realistisch sein, dass Intel nicht bis in alle Ewigkeit bei den GPUs drauf zahlen will. Die wollen über Kurz oder Lang auch Geld damit verdienen.
Klar, Intel ist im richtigen Segment unterwegs. Aber ihre aktuellen XE Cores sind einfach zu groß, um damit Geld verdienen zu können. Die Frage ist, ob man mit BM die Kerne vielleicht kleiner bekommt. Lassen wir uns mal überraschen, vielleicht klappt das ja.
 
  • Gefällt mir
Reaktionen: conglom-o
Die rx 6000er Serie war das beste, was amd seit der hd5000er Serie gebracht hat, und genau die Karten wollte AMD anscheinend nicht in großer Stückzahl verkaufen, sondern lieber auf die Marge sitzen. Die hätte man auch jetzt noch in großer Zahl in dem Markt fluten können, wenn der Preis stimmt, aber AMD hat lieber die Preise für eine rx 7000 serie oben gehalten und jetzt sitzt man auf unverkauftem Inventar.

Die rx7000 hingegen haben wieder massive Probleme in mehreren Bereichen (Stabilität, compute Performance, vr Performance), die mich davon abhalten, diese Karten in bestellten Rechnern zu verbauen. AMD wollte mit aller Gewalt das Weihnachtsgeschäft und jetzt ist dafür die Generation vermurkst. Ich hatte massive Probleme mit instabilen Rechnern mit Navi 10 gpus, und diesen Service Alptraum tue ich mir nicht mehr an. Was bleibt also übrig?

da braucht man sich bei AMD absolut nicht über sinkende Marktanteile wundern - geliefert wie bestellt.

daher ist es auch wichtig und möglich, dass Intel sich als 3. Player etabliert.
 
  • Gefällt mir
Reaktionen: Klever
Muss ehrlich sagen, nach den Problemen aus der Anfangszeit der Intel Grafikkarten entwickelt sich nun immer mehr eine solide Geschichte. Die Geschwindigkeit in der Intel Treiber Updates raushaut mit Verbesserungen und Spielanpassungen kann sich schon sehen lassen. Wenn die so weiter machen bekommen wir den Dreikampf den wir uns wünschen. Vielleicht nicht im Highend Bereich aber in den unteren Bereich ist ne Menge Platz und das kann nur gut sein für uns Kunden.
 
  • Gefällt mir
Reaktionen: konkretor und MiniGamer
ghecko schrieb:
Intel braucht aber für die Zukunft eine GPU-Sparte. Das müssen selbst die BWLer mittlerweile kapiert haben.
Ja schon, aber eben nicht für Gaming.
 
Also wenn eine Intel Battlemage vermutlich gegen eine 3090 Ti kämpfen muss (doppelte 3060 (ti) + allgemeiner Technikplus), und man kommt damit aber vermutlich erst Mitte 2024, dann ist man wieviel Jahre zurück? 4-5? Bald 2 Generationen?
25 bzw. 33 von 100 Leistungspunkte in der GPU-Bestenliste sind für Intel derzeit nicht gerade rosig.
Das ist für mich immer der Zeitpunkt, wo ich nach Jahren über einen Austausch nachdenke, nicht über einen Kauf. lol
Bis Intel dann die weiteren Karten wie jetzt veröffentlicht (China 1 Jahr verfügbar, es fehlen imemr noch die Karten der 500er Serie), dann kündigt nVidia ja schon die 5090 an.
Die 4090 Ti kommt ja noch, udn was die 5090 dann nochmal draufpacken könte, mus smna sich nur mal vorstellen, was dann Intel zertreten wird, noch schlimemr als in den 90ern, was zum Kollaps geführt hat - und wohl jetzt auch wieder.
Sollte man nach dem katastrophalen Start der GPU Neuauflage nicht lieber zusehen, dass man pusht?
Man hatte doch angekündigt nVidia mit der nächsten Generation einzuholen und dick mitzumischen?
Duch die ganzen Verzögerungen geht das ja genau in die falsche Richtung, man wird noch weiter abgehängt.
Ich bleibe bei meiner Meinung: Intel hätte zuerst eine schnelle und gute Rasterkarte entwerfen sollen, die für den Einsteiger und normelen Gamer völlig ausreicht.
Die ganzen zusätzlichen Features wie Raytracing und Upskaling, sind deren Achillesferse und kosten zum Start viel zu viel Manpower und vor allem Zeit und Geld.
Das verdoppelt ja schon die Treiberpflege bei jedem Spiel, was man gerne optimieren möchte.
So etwas entwickelt sich nicht mal eben über Nacht und will auch aufwendig als Produkt mit gepflegt werden.
Niemand kauft sich eine kleine, billige Grafikkarte, um dann damit mit Ekelgrafik unbedingt im Raytracing-Modus bei sehr niedrigen Bildraten zocken zu wollen.
Das ist der krasse Gegensatz zur Realität, wo man schließlich schon von Anfang an die Grafikdetails heraunterschrauben muss, um spielbare Bildraten zu erreichen.
Als erstes stellt man nämlich Raytracing aus, dann geht man von Ultra auf notfalsl Mittel runter, wenn man 60,90 oder sogar 120FPS wünscht.
Da wäre es ja sogar denkbar gewesen, für den Anfang statt 32 gleich 40 oder sogar satte 48 Recheneinheiten auf den Chip zu pressen, was für viel mehr Anklang und Aufsehen bei den Benchmarkergebnissen geführt hätte.
 
Zuletzt bearbeitet:
BxBender schrieb:
Also wenn eine Intel Battlemage vermutlich gegen eine 3090 Ti kämpfen muss (doppelte 3060 (ti) + allgemeiner Technikplus), und man kommt damit aber vermutlich erst Mitte 2024, dann ist man wieviel Jahre zurück? 4-5? Bald 2 Generationen?
Sollte man nach dem katastrophalen Start der GPU Neuauflage nicht lieber zusehen, dass man pusht?
Mal abgesehen davon, dass es sich hier erst mal nur um ein Gerücht handelt, ist es denn viel besser nochmals ein (bestenfalls) halbgares Produkt auf den Markt zu schmeißen, um den Pöbel in Foren wie diesem hier zu belustigen?

Wenn man nicht unbedint gegen die obere Mittelklasse von AMD/Nvidia antreten muss, dann kann man sich erst mal auf die Einstiegs- und untere Mittelklasse konzentrieren. Der Markt hier ist groß genug.
Intel muss erst mal versuchen, sich das Vertrauen der Kunden zu erarbeiten. Im High-End-Segment gibt es momentan nichts zu gewinnen sondern nur zu verlieren.
 
  • Gefällt mir
Reaktionen: Xul
MalWiederIch schrieb:
Schwachsinn, das hast du offensichtlich komplett falsch in Erinnerung :rolleyes:

https://m.winfuture.de/amp/news/43559

ATI war damals bei über 35% Marktanteilen aufgrund guter Konkurrenz und mit der 4870 sah es noch besser aus. Keinerlei finanzielle Vorteile - ich lach mich schlapp :lol:

Oh man, das was du verlinkst gibt mir doch zu 100% Recht. Lesekompetenz ist bei euch von der Generation Z nicht so ausgeprägt, oder?

Trotz der angeblichen 35-40% Marktanteil (JPR Zahlen waren schon immer Schrott und sind es auch jetzt noch, aber das mal außen vorgelassen.) wurde ATI von AMD für lächerliche 5 Mrd (inclusiv aller Patente, welche allein schon damal ein Vielfaches dessen Wert waren) übernommen. Und zwar genau weil die Kampfpreisstrategie von ATI NICHT zu finanziellen Erfolg geführt hat. Auf Grund der schlechten finanziellen Basis konnte sich ATI damals auch nicht gegen die Übernahme durch AMD vorgehen.
 
Generation Z? :lol:

Und selbst wenn es so gewesen wäre, wäre das doch das lächerlichste Argument gewesen :rolleyes: Musste erst mal nachschauen was das sein soll, aber 95‘ geboren wäre man doch schon fast 30?

Und nochmals - deine Erinnerung scheint dich wirklich zu täuschen, zu welcher Generation gehörst du nochmal, dass du schon solche Probleme damit hast?

AMD hat ATI 2006 übernommen - die 4870 von der ich gesprochen habe kam aber erst 2008 zum „Kampfpreis“, da AMD die Grafikkarten weiterhin als ATI verkauft hat.

Aber nette Geschichte …
 
Zurück
Oben