News Termin: Intel stellt Arc-Grafikkarten für Notebooks am 30. März vor

Spannend. Full Blue Pc aus Spaß basteln freu mich darauf.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk und Onkel Föhn
cruse schrieb:
Ich fürchte die Leistung der Desktop Karten wird nicht viel höher sein...
anhand der Wattzahlen geht schon noch Einiges mehr, wenns denn 1:1,x skaliert
(den Idealfall wirds sicher net bei jedem Modell geben, weil höherer Takt dann irgendwann net mehr linear skaliert)
 
370er ist dann das Modell unter dem Top Modell (380) im Mobilen Bereich?

Oder kommt da noch mehr?

Wenn nicht, dann ist das ja direkt DOA...

Leistung der AMD iGPU.
Respekt - NICHT.

Naja mal abwarten. Vielleicht kommt es ja doch anders und wir haben einen Konkurrenten ... Der auch oben mithalten kann. Und das nicht beim Preis.
 
  • Gefällt mir
Reaktionen: Mcr-King
GerryB schrieb:
anhand der Wattzahlen geht schon noch Einiges mehr, wenns denn 1:1,x skaliert
jo einiges...obs die 1070 überholen wird? - ich bin gespannt.... /s
derzeit siehts mau aus. Ich erwarte für den max ausbau vielleicht die leistung einer 1080 (non M) und preislich leicht drüber.
Falls die 370 hier schon "max" ist oder nah dran, dann gg nice try

edit: aber hey - noch sind alles annahmen...
 
Pearce stellt für diese Grafikkarte, die Acer bereits zur CES 2022 im neuen Swift X 14/16 angekündigt hatte, die zweifache Leistung der Xe-iGPU mit 96 EUs im Intel Core i7-12700H in Notebooks im selben Formfaktor in Aussicht.


Das stimmt so nicht ganz. Die iGPU Performance hat Intel mit einem i7-1280P 28W verglichen, das ist das Topmodell aus der 28W serie. Nur das dGPU System lief mit i7-12700H und 40W Total System TDP.


2x performance claim based on average FPS at 1080p Medium with Metro Exodus (DX12) as of March 3, 2022 as the beginning of the disclosure. Intel Arc system: Intel Core i7-12700H processor 14C/20T, 32GB 4800Mhz system memory, Intel Arc A370M graphics, Windows 11 Pro v10.0.22000, Preproduction driver as of March 2022, total system TDP 40W. Intel Core system: Intel Core i71280P 14C/20T, 32GB 4800 MHz system memory, Iris Xe integrated graphics, Windows 11 Pro 21H2 22000.493, Driver version 30.0.101.1029, total system TDP 28W.
 
  • Gefällt mir
Reaktionen: Mcr-King
Draco Nobilis schrieb:
Ob Intel Automotive als Abfallmarkt bezeichnet wird man aber sehen, dafür wird der Markt zu wichtig und groß.

Für wen?

Geld ist eine Sache, die nur dann wichtig ist, wenn man zu wenig davon hat. Für Aktionäre und Spekulanten ist Geld natürlich eine "wichtige" Sache. Die haben aber auch keine Plan, was die Zukunft bringen wird.

Diese Menschen spekulieren. Die anderen wissen.

Wenn man "weis", ist Geld nicht mehr wichtig. :evillol:

Wenn ich bei meinen Vorhersagen für die Zukunft im Bereich "IT" nicht mehr sicher bin, frage ich bei IBM nach, was wirklich, in der Zukunft wichtig ist.

mfg
 
Den Xe zu verdoppeln hyped mich technologietechnisch jetzt nicht so wirklich. AMD hats vorgemacht, Apple gerade frisch mit dem M1 Ultra auch.

Da interessiert mich eher wie XeSS performen wird. Bei nVidia macht DLSS ja schon einen verdammt guten Job.
 
  • Gefällt mir
Reaktionen: Mcr-King
Termy schrieb:
Ich bin ja echt mal gespannt, wie gut das ganze unter Linux läuft. Unter Windows sind die Intel-Treiber ja eher verschrien, unter Linux haben sie dagegen einen ganz guten Ruf.
Kommen denn die Linux Treiber auch direkt von Intel, oder ist das open Source, was da genutzt wird?
Das ist ja ein gravierender Unterschied.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Neodar schrieb:
Kommen denn die Linux Treiber auch direkt von Intel, oder ist das open Source, was da genutzt wird?
Das ist ja ein gravierender Unterschied.
Es ist Open Source, aber großteils direkt von Intel - schließt sich ja nicht im Geringsten aus ;) (auch wenn andere Firmen das nicht verstehen ^^)
 
  • Gefällt mir
Reaktionen: netzgestaltung und Tanzmusikus
Intel hat wohl wirklich massive Treiberprobleme.
Nicht umsonst verschiebt man und verschiebt man und vertröstet alle nur immer wieder neu.
Die DG1 Karten waren schon ein Reinfall wie alles in den 30 jahren davor auch.
Nun kommt DG2, irgendwann, vielleicht, zzzzz, Koduri posaunt wie immer nur herum, jetzt immer weniger, das ist extrem verdächtig.
Jetzt wird letztendlich eine einzige Chipversion zumindest am allerletzten Tag der Zusage doch zumindest präsentiert.
Das sagt vieles.
Es ist also schlimmer als das, was ich immer angenommen habe.
Nein, eigentlich genau so, wie ich es mir vorgestellt hatte, aber es aus purer Zuversicht einfach nur beiseite gedrängt habe, weil auch ich von einem dritten Big-Player mit purzenlden Preisen und hohen Leistungssprüngen geträumt habe.
Aber nach den ganzen Negativmeldungen sehe ich da kaum noch eine positive Trendwende.
Die prognostizierten 4 Millionen Chips von Intel werden den Spielern auch nicht viel helfen können, selbst wenn die Karten gut sind.
Schließlich fehlen diese AMD bei deren Auslieferung, die Knappheit bleibt also bestehen - nein, verschlimmert sich dadurch ja noch, weil Intel den Ka äh Mist einfach nicht liefert und verschiebt, verschiebt, verschiebt.
Wenn man denen Böses will, sind die also sogar Mitschuld an den viel zu hohen Preisen über und nach Weihnachten, da man Monate vorproduziert und der Warenhandel Wochen und Monate dann hinter sich her zieht, ehe der Endkunde das zu Hause hat.
Ich bin irgendwie schon jetzt maßlos enttäuscht, ohne das Produkt in den Händen zu halten.
Intel wird sich auch richtig ärgern, sollten die Preise jetzt noch so extrem nach unten fallen.
Schließlich kann das jetzt noch gut und gerne weitere 3 Monate dauern, bis die wirklich mal was für uns Gamer ins Regal stellen.
Dann ist fast Sommer, und im Sommer braucht man nichts mehr, dann warte ich vor allem so oder so auf die Nachfolgerraketen der Konkurrenz.
Es ist also doppelt schlecht für Intel.
Jeder Tag, der jetzt noch verstreicht, kann denen richtig viel Anteile und Gewinne pro Karte kosten.
Ja, die müssen dicke Probleme haben, sonst würde die jetzt schon liefern, um jeden Preis und egal wie klein die Liefermargen sein mögen.
 
  • Gefällt mir
Reaktionen: Czk666, iSight2TheBlind und Inxession
mkl1 schrieb:
Nur das dGPU System lief mit i7-12700H und 40W Total System TDP.
Und 40W ist verdammt wenig für eine solche Kombo. Wenn man damit schon Rembrandt Niveau schafft wäre sogar recht gut. Die A370 lässt sich ja bestimmt alleine auf 25-40W hochfahren.
 
  • Gefällt mir
Reaktionen: Mcr-King
franzerich schrieb:
Vor allem wenn man sieht zu was die AMD-APU (Radeon 680m) imstande ist.
Na ja also ich warte auf die APU, aber die müssen ja auch erst einmal am Markt ankommen, bisher sieht man davon noch nicht viel. Es bringt mir nichts ein tolles theoretisches Produkt zu haben, wenn es nicht käuflich zu erwerben ist.

Bin kein Apple Fan, aber die Produkte werden angekündigt zum Termin X und da sind die dann auch verfügbar.
Bei AMD ist das erstmal nur Theorie.
 
  • Gefällt mir
Reaktionen: franzerich
Sephiroth51 schrieb:
Na ja also ich warte auf die APU, aber die müssen ja auch erst einmal am Markt ankommen, bisher sieht man davon noch nicht viel. Es bringt mir nichts ein tolles theoretisches Produkt zu haben, wenn es nicht käuflich zu erwerben ist.

Bin kein Apple Fan, aber die Produkte werden angekündigt zum Termin X und da sind die dann auch verfügbar.
Bei AMD ist das erstmal nur Theorie.
Ja, ein grundlegendes Problem letzter Zeit. Wird mal wieder Zeit, dass etwas in Masse verfügbar wird, selbst wenns eine (halbwegs taugliche) iGPU ist.
Saint81 schrieb:
Den Xe zu verdoppeln hyped mich technologietechnisch jetzt nicht so wirklich. AMD hats vorgemacht
In der Tat, als dGPU wirklich nicht besonders prickelnd. Wäre nur als iGPU interessant. Man muss jetzt wirklich keine dedizierten Grafikkarten machen mit 1050Ti Leistung. Dafür ist der Zug schon abgefahren.

Draco Nobilis schrieb:
Was mehr als die (Papierleistung) relevant sein wird sind die Frametimes, Treiber und Leistungsaufnahme.
Der Treiber ist und bleibt Müll bis Intel was anderes beweist,
Ja, die müssen da mal was machen treibermäßig, z.B. hat man öfters gesehen in Benchmarks flackernde Kleidung bei Shadow of Tomb Raider, oder fehlerhafte Darstellung von Laternenlicht bei RDR2, und das bei ihrem iGPU Flagschiff Intel XE G7... Man kriegt die Basics schon nicht gebacken, aber will nach den Sternen greifen... Es ist auch sonst auffällig, dass manchmal die Leistung ihrer XE iGPU erstaunlich gut ist, auf Höhe von AMDs Radeon 680m, aber dann in den (meisten) anderen wieder nur 50% davon. Also da hat man echt den Eindruck, dass da treibermäßig schlecht gewartet wird.
 
  • Gefällt mir
Reaktionen: Sephiroth51
ui nun geht aber aber echt ab.Sollte das stimmen und der Treiber ist vernünftig,dann sehe ich meine gtx 1650 schon langsam fallen.Ich hätte echt nicht gedacht das da so langsam ich überholt werde.Bald muss ich mich echt keine sorgen um mehr leistung zu machen wenn die onbard besser als meine ist.Und dabei noch weniger Strom verbraucht.Bin gespannt ob man die leistung pro watt der 1650 noch weiter schlagen kann.
Denn wenn weniger als 75 Watt und dennoch mehr leistung hat,dann bin ich wirklich dabei.Ich muss weiter noch mehr Strom sparen.
 
Jahrelang haben die Leute hier im Forum ja gefordert "AMD mach hinne, damit meine gewünschte Intel CPU / Nvidia Graka billiger wird."
Ich mach das jetzt auch mal:
"Hey Gelsinger, mach hinne, ich kauf zwar seit über 20 Jahren nichts mehr von eurer kriminellen Bude wenns für mich persönlich ist, aber damit die 6700XT billiger wird, und ich die Palit GTX980 Super Jetstream endlich aus dem Case werfen kann!"

Danke! :daumen:
latiose88 schrieb:
und der Treiber ist vernünftig
Raja has left the chat.
:evillol:
 
Zuletzt bearbeitet: (Typo korrigiert)
  • Gefällt mir
Reaktionen: netzgestaltung
Ich meine egal wie man zu der prognostizierten Leistung steht, ein "neuer" Player im GPU-Markt ist immer spannend und ich traue Intel durchaus brauchbare Treiber zu, freue mich auf den Test.
Dieses Jahr wird wieder richtig aufregend im Hardwarebereich und durch die gestaffelten Releases gibt es kontinuierlich Lesestoff <3
Ergänzung ()

gustlegga schrieb:
Jahrelang haben die Leute hier im Forum ja gefordert "AMD mach hinne, damit meine gewünschte Intel CPU / Nvidia Graka billiger wird."

Jeder hat halt irgendwo seinen Liebling, wobei nvidia einfach Kundenbindung über proprietäre Technologien perfektioniert hat ;)
 
Zurück
Oben