News Intel-Arc-Grafikkarten: Intel deutet Q1-2022-Release für Desktop und Notebook an

RKCPU schrieb:
Merkwürdig, dass Intel nicht erst den Weg der Mittelklasse geht,
Ich dachte immer die x70er Karten wären die Mittelklasse?
Für mich war das immer so: x60 = Mainstream, x70 = Mittelklasse, x80 = Oberklasse, x90 = Spitzenklasse
Ich fürchte, die werden am Ende doch noch irgendwo bei den 3060ern landen.

Das die ihren Termin immer weiter verschieben find ich ehrlich Doof.
Man kann denen einfach garnicht mehr vertrauen. Eine Deathline oder so kennen die wohl nicht mehr.
Ganz im Gegensatz zu AMD. Die waren doch früher diejenigen die ihre Projekte nie fertig bekommen haben. Ich kann es immer noch kaum glauben, vom Saulus zum Paulus. Im gleichen Maße ist Intel immer weiter abgekackt.

Nicht, das ich eine von diesen Karten haben wollen würde. Es wäre aber gut, wenn mal durch mehr Angebot der Druck aus dem Markt genommen würde. Ob die nun an die Miner oder in normale PCs gehen wäre mir da auch noch egal.
PusteBlume0815 schrieb:
wenn wir ehrlich sind hätten wir vor geraumer Zeit auch mal nicht gedacht, daß AMDs RDNA2-Architektur so stark gegen nvidia ist.
Ich schon. Irgendwie war ich längere Zeit die Dooftonne, die nicht rechnen kann. ;)
 
  • Gefällt mir
Reaktionen: Verak Drezzt
Wäre wohl schwer für AMD sonst geworden, wenn sie wieder nur was auf dem Niveau einer 3070/2080Ti gebracht hätten. War da auch zuversichtlich, selbst wenn sie der 3090 wieder nicht die Stirn geboten hätten. Laut den Gerüchten soll ja der stärkste Chip von Intel auf dem Niveau einer 3070/6700XT liegen. Wir werden ja bald sehen was da kommt.

Aber wie gesagt, solang die Kryptokurse soweit oben stehen, wird sich da am Markt, selbst mit Intel als dritter Player im Bunde, nicht wirklich was an den Preisen tun.
 
Summerbreeze schrieb:
Raja´s erste Zeit bei AMD war von 2001 - 2009.
So, ich habe gerade mehr Zeit und man muss an der Stelle schreiben: TechFA hat an der Stelle mal wieder beweisen, dass er gerne andere belehrt, seine Texte aber am Ende nicht wirklich haltbar sind.

Ich geb an der Stelle zu: Mit der Radeon 9700 und "Tesselation" habe ich mich geirrt, da war jemand anderes damals Federführend, da es als TruForm kam - N-Patch - nur leitete Koduri von 2001 - 2006 die Abteilung für "erweiterte Technologien" - Advanced Technology - und hat damit auch maßgeblich seit 2001 die Weiterentwicklung von TruForm und Co verantwortet, da er die Abteilung geleitet hat.

Das ist eben das Problem an der Thematik: Raja Koduri war von 2001 - 2006 leiter der Abteilung, die neue Technologien entwicklen sollten und war primär für Hardware verantwortlich.

Summerbreeze schrieb:
Auch war Fr. Su 2009 noch bei Freescale beschäftigt. 2009 war Dirk Meyer bei AMD CEO.
Zu mal Koduri 2006 von AMD zu einem "Chef" der "RTG" ernannt wurde - weiterhin mit der Aufgabe "neue" Technologien zu entwickeln, während der Kollege - dessen Name ich immer vergesse - der die GPU und deren Architekturen verantwortete der zweite Chef der RTG wurde. Und ich vereinfache das an der Stelle.

Und kam erst 2012 zu AMD und war damals Senior Vice President. Koduri kam 2013 zurück zu AMD bereits in der Position eines Vice President für die Grafik-Abteilung.
Summerbreeze schrieb:
Fr. Su wurde erst im Oktober 2014 Nachfolgerin von Rory Read.
Und damit kommte er Frau Su nicht mal im Ansatz wirklich unter Druck setzten.
Summerbreeze schrieb:
Das Raja nicht der ganz große Zampano ist, als den er sich gerne darstellt, weiß ich auch.
Oh, wenn man sich mal die Interviews und Co mit ihm durchließt, stellt er sich nicht mal wirklich als großen Zampano da, sondern sagt sogar sehr offen, was er bisher gemacht hat und eigentlich scheint er sogar sehr nett und sympathisch zu sein.

Man darf nämlich eines nicht vergessen: Es gab damals noch einen Marketing-Chef Chris Hook und der ist bekannt für das markante Marketing.
Summerbreeze schrieb:
Man muss ihn aber nicht übler darstellen als er eh schon ist.
Er ist ja nicht übel, er war vielleicht einfach nur der falsche für diese Stelle.
 
  • Gefällt mir
Reaktionen: jemandanders
HAse_ONE schrieb:
Ich finds lustig wie hier einige in Intel jetzt den Heilsbringer im Grafikkartenmarkt sehen xD.

Wieso sollten wenn Intel dabei ist plötzlich die Preise sinken?

1. Wird zur Zeit sowieso alles gekauft, sei es von den Gamern oder eben den Minern
2. Warum meint ihr Intel wird hier super günstige Karten bringen? Seit wann ist Intel bekannt dafür besonders günstig zu sein?
3. Um Marktanteil zu bekommen, brauchen die das nicht. Intel ist so ein großer Name und die haben so viele Fanboys, die denen die Karten (sollten sie einigermaßen Konkurrenzfähig sein) aus den Händen reisen werden.
4. Hat Intel auch genug Geld sich bei den Puplishern etc. "einzukaufen" um sie bei den "Optimierungen" für die Karten zu unterstützen.

Also ich geh davon aus, sollten die Karten konkurrenzfähig sein, dann werden die bei der UVP im Bereich von AMD und Nvidia sein. Straßenpreise werden dann aber auch deutlich höher liegen, wie bei den beiden anderen.
Bis auf Punkt 1 traf das auch alles bei Intels letzten beiden Versuchen mit dedizierten Grafikkartrn zu.

Allerdings erwarte ich diesmal keinen Rückzug, dafür wurde es dann diesmal doch viel langfristiger geplant und entwickelt.
 
DevPandi schrieb:
Es gab damals noch einen Marketing-Chef Chris Hook und der ist bekannt für das markante Marketing.
Aha. Den kannte ich nicht. Ja, das Marketing war offensiv.
Ich habe Raja halt oft als Schaumschläger wahrgenommen, indem große Ziele oder Ergebnisse angekündigt aber öfters nicht erreicht wurden.
Na gut, wollen wir wg. einem gewissem Hang zur Selbstdarstellung und Überschätzung nicht den Stab über ihn brechen. Ist halt Menschlich.
DevPandi schrieb:
Oh, wenn man sich mal die Interviews und Co mit ihm durchließt, stellt er sich nicht mal wirklich als großen Zampano da, sondern sagt sogar sehr offen, was er bisher gemacht hat und eigentlich scheint er sogar sehr nett und sympathisch zu sein.
Unsympathisch wurde er mir bei seinem Abgang bzw dem Wechsel zu Intel.
Da hat sich doch jeder etwas die Augen gerieben.

An eine Verschwörung wie sie TechFA beschrieben hat, möchte ich eigentlich nicht glauben. Sauber war das ganze aber wohl auch nicht. Irgendwie hat Intel unter seiner Leitung etwas zu schnell die neuen Chips designt.
Bei AMD ging es zu seiner Zeit nicht wirklich vorwärts und bei Intel stampfen sie in kurzer Zeit ganze Chipgruppen aus dem Boden? Ein wenig zu auffällig.

Ok, AMD war damals nicht gut bei Kasse. Er hätte aber mit besseren Designs zu besseren Einnahmen beitragen können und müssen.
Und Vega war ja die Krönung. Das Navi -so wie die heute aussehen- auf "seinem Mist" gewachsen ist kann ich mir immer noch nicht so recht vorstellen.

David Wang ist mir da viel sympathischer. Unter seiner Leitung wurde die Vega APU direkt auf Effizienz getrimmt. So wie die nachfolgenden Chips.
Ich kann mich noch gut an ein Interview von Fr. Su erinnern, wie begeistert und am Strahlen die war, als sie die verbesserte Effizienz verkünden konnte und wie sie den Wang in den höchsten Tönen dafür lobte.

Edit: In dem Interview damals hab ich >Chang< verstanden. eben hab ich gesehen, das der Leiter der RTG Wang heißt. :rolleyes:
Es gibt aber auch noch einen David Chang bei AMD, könnte sein, das der damals vor dem (Wieder)Eintritt von David Wang den Umbau der Vega APU geleitet hat. Ich weiß es nicht genau.
Sorry
 
Zuletzt bearbeitet: (Korrigiert + Ergänzt)
Summerbreeze schrieb:
Bei AMD ging es zu seiner Zeit nicht wirklich vorwärts und bei Intel stampfen sie in kurzer Zeit ganze Chipgruppen aus dem Boden? Ein wenig zu auffällig.
ich bezweifle, dass die Architektur so besonders ist. Die arbeiten da jetzt auch schon 4 Jahre dran und bisher ist nur ein Flop veröffentlicht worden.
Denke die Basis ist einfach eine aufgebohrte Weiterentwicklung der iGPUs. Komplett von 0 wurde da sicher nichts entwickelt.

Summerbreeze schrieb:
Ich fürchte, die werden am Ende doch noch irgendwo bei den 3060ern landen.
ich glaube, dass sie da nur rankommen mit viel Glück.
Dass es bisher kaum Infos gibt und auch keine wirklichen Ankündigungen ist ein sehr schlechtes Zeichen. Intel ist Ankündigungsmeister. Wenn die nicht mal einen Papiertiger ankündigen der zwar schnell aber kaum lieferbar ist, dann muss da schon was ziemlich im Argen liegen.
PusteBlume0815 schrieb:
Bleibt doch einfach mal festzuhalten, daß es nur positiv sein kann einen weiteren Hersteller für Grafikkarten zu haben.
Nö, eben nicht. Die Kapazitäten bei TSMC sind sehr knapp. Jeder produzierte Intel-Grafikchip bedeutet weniger AMD/NVidia GPUs
 
  • Gefällt mir
Reaktionen: Nore Ply
Tzk schrieb:
Ich meinte auch den Gesamtmarkt und genau um den wird es Intel (vorerst) gehen
Den Gesamtmarkt beherrscht Intel doch seit Jahren schon mit den iGPUs. Laptops mit dGPU sind da nur ein Bruchteil.
 
  • Gefällt mir
Reaktionen: Newbie_9000
Summerbreeze schrieb:
Irgendwie hat Intel unter seiner Leitung etwas zu schnell die neuen Chips designt.
So wirklich neu ist jetzt Xe nicht, wenn man sich mal die Blockdiagramme ansieht und die Eckdaten ansieht. Eine EU besteht schon seit einiger Zeit aus 2 * Vec4-ALUs. Macht also pro EU 8 Shader. Was sich geändert hat in der letzten Zeit, ist die Anzahl an EU pro Subslice (Tile, ShaderArray usw.)

Also von 0 haben sie da nicht angefangen. Man muss da auch ehrlich sagen: auf dem Papier sind die Änderungen von GCN zu RDNA weit gravierender gewesen als zwischen Gen 9 zu Gen 10 zu Gen 11 und nun Gen 12 (Arc).

Man wird aber abwarten müssen.
rg88 schrieb:
Denke die Basis ist einfach eine aufgebohrte Weiterentwicklung der iGPUs. Komplett von 0 wurde da sicher nichts entwickelt.
Wenn man sich die aktuellen Informationen ansieht: Ja. Man kann bei Intel eher von Entwicklungen wie damals von GCN zu GCN 2, GCN 3 und Co sprechen.
 
Ich weis nicht wieso hier alle über die Intel-Treiber für GPUs meckern. Das sind seit 20 Jahren mit weitem Abstand das stabilste und zuverlässigste was ich kenne!

Ja, Bumms haben sie keinen aber das lag an der abgehangenen Hardware. Die Treiber aber waren immer zuverlässig. Unter Windows und Linux.
 
  • Gefällt mir
Reaktionen: Newbie_9000
Crass Spektakel schrieb:
Das sind seit 20 Jahren mit weitem Abstand das stabilste und zuverlässigste was ich kenne!
:freak:
:daumen::evillol::evillol::evillol::evillol::evillol:

YMMD
Du hast damit noch nie zwangsweise gespielt, oder?
Und wenn du noch nie Probleme hattest mit den Treibern, selbst in Office, dann hast du nicht viel mit denen gemacht.

Die Treiber sind nicht besser oder schlechter für die normale Bildausgabe wie die von AMD auch. Auch bei Intel gibts hin und wiedermal nen bösen Bug der zu Darstellungsfehlern führt.
Aber in Spielen sind die Inteltreiber unendlich weit hinten. Bildfehler ohne Ende, da bringt auch eine schnelle Hardware nichts. Da muss sehr viel gemacht werden, wenn man hier Spieletaugliches rausbringen will. Und das aus dem Stand -> sehr unwahrscheinlich
 
  • Gefällt mir
Reaktionen: knoxxi
rg88 schrieb:
:freak:
:daumen::evillol::evillol::evillol::evillol::evillol:

YMMD
Du hast damit noch nie zwangsweise gespielt, oder?
Und wenn du noch nie Probleme hattest mit den Treibern, selbst in Office, dann hast du nicht viel mit denen gemacht.

Die Treiber sind nicht besser oder schlechter für die normale Bildausgabe wie die von AMD auch. Auch bei Intel gibts hin und wiedermal nen bösen Bug der zu Darstellungsfehlern führt.
Aber in Spielen sind die Inteltreiber unendlich weit hinten. Bildfehler ohne Ende, da bringt auch eine schnelle Hardware nichts. Da muss sehr viel gemacht werden, wenn man hier Spieletaugliches rausbringen will. Und das aus dem Stand -> sehr unwahrscheinlich

Kann es sein dass die betroffenen CPUs übertaktet waren? Ich kann nämlich aus eigener Erfahrung berichten dass die IGP der Intel-CPUs deutlich anfälliger fürs Übertakten ist als die CPU selbst.
Ebenfalls früher sehr häufig: Billige Kondensatoren. Die IGP macht dann noch vor der CPU schlappt.

Ich meine das toternst, sowas habe ich reihenweise diagnostiziert und repariert. Ja, ich tauschen Kondensatoren wenns private Rechner sind. Takt runter, neue Kondensatoren drauf, alle Fehler weg. Ich habe hunderte Rechner mit Intel-Grafik erlebt und KEIN EINZIGER der im Rahmen korrekter Parameter betrieben wurde hatte Grafikfehler.
Ergänzung ()

rg88 schrieb:
Die Treiber sind nicht besser oder schlechter für die normale Bildausgabe wie die von AMD auch. Auch bei Intel gibts hin und wiedermal nen bösen Bug der zu Darstellungsfehlern führt.
Aber in Spielen sind die Inteltreiber unendlich weit hinten. Bildfehler ohne Ende, da bringt auch eine schnelle Hardware nichts. Da muss sehr viel gemacht werden, wenn man hier Spieletaugliches rausbringen will. Und das aus dem Stand -> sehr unwahrscheinlich

Was Du meinst sind keine Fehler im Grafikchip sondern sogenannte Race-Conditions. Die Chips sind einfach so langsam dass sie mitten in Operationen abgebrochen werden. Und am Rande kommt dazu dass bisher Spiele selten optimierte Shader für Intel mitliefern wobei sowas heute auf PCs immer on demand compiliert wird, das dürfte kaum noch eine Rolle spielen. Steam liefert das sogar per Update aus.
 
rg88 schrieb:
Nö, eben nicht. Die Kapazitäten bei TSMC sind sehr knapp. Jeder produzierte Intel-Grafikchip bedeutet weniger AMD/NVidia GPUs
Meine Aussage bezog sich ja nicht auf die Verfügbarkeit sondern auf die Tatsache, daß es dem Kunden nur recht sein kann mehr Auswahl an sich zu haben. Eine Marktschwemme erwarte ich allerdings auch nicht.
Bleibt einem ja nichts anderes momentan übrig als abzuwarten in der Hoffnung, daß sich die Lage am Markt irgendwann mal entspannt.
 
Sind die mit den Karten nicht dann schon fast 1 ganzes Jahr im Rückstand?
War nicht mal Ende erste Jahreshälfte 21 oder so im Gespräch?
Oder zumindest in Koduris zumeist ziemlich offenem Mundwerk?
Ist jetzt eigentlich schon durchgesickert, wo man das 20fache der Leistung einer integrierten Grafikeinheit erzielt haben will?
Die harten Fakten sind die uns wohl auch noch schuldig geblieben.
Ergänzung ()

Ayo34 schrieb:
Intel muss einfach eine halbwegs gute Grafikkarte bringen. Das reicht um in den Markt einzusteigen.

Hat in der Vergangenheit aber nie gereicht.
Auch für Intel nicht, siehe 90er Jahre mit dem i740, oder wie der Chip hieß.
Mal ehrlich wenn du im Laden stehst und die Wahl hast, dann nimmst du das, was du kennst, und wem du am meisten vertraust.
Der Rest geht dann nur über den Preis, und das muss weit niedriger sein als das, was du sonst zahlen müsstest.
Selbst bei 400 statt 500 Euro wäre ich noch skeptisch, da es halt viel Geld ist.
Würdest du bei dem Preis z.B. einen Monitor eine Fremdmarke kaufen, die neu am Markt ist?
Ne, siehste, würde keiner von uns ohne Weiteres machen.
Und "Markenname" ist nicht gleich "Markenname".
Wenn an einem Auto Joop steht, kaufe ich den deswegen noch lange nicht zum Vollpreis, wenn ich dafür sonst den Audi bekomme.
Sobald man sich fragt "Häh? Machen die jetzt auch...", dann ist für mich der Drops bei keinem hohen Preisvorteil bereits gelutscht.
Denn man muss bei Grafikkarten davon ausgehen, dass es bei diversen Dingen hapern kann und vielleicht auch wird.
Wenn man unter Umständen bei einem Drittel der Spiele Nachteile in Kauf nehmen muss (Leistung/Stabilität/Featureset), dann wird selbst ein günstigeres Produkt schnell zum Reinfall.
Ich erinnere nur zu gerne an hunderte an Diskussionsthemen in den Foren, wo alleine bei Intel/AMD/NVidia in ihren Kernkompetenzen schon über solche Dinge diskutiert und gestritten worden ist ("aber in dem Spiel unter den und den Umständen, ist dies und das...und deshalb...").
 
Zuletzt bearbeitet:
BxBender schrieb:
Auch für Intel nicht, siehe 90er Jahre mit dem i740, oder wie der Chip hieß.
Und auch mit Larrabee. Der war ja auch als GPU gestartet und wurde dann wegen Chancenlosigkeit ganz schnell zum Rechenbeschleuniger umgewidmet.

BxBender schrieb:
Mal ehrlich wenn du im Laden stehst und die Wahl hast, dann nimmst du das, was du kennst, und wem du am meisten vertraust.
Mal ehrlich, wir paar wenigen Hansel die wir uns eine separate Grafikkarte kaufen sind vermutlich sowohl für NV wie auch AMD wie auch Intel weitgehend uninteressant. Dell, HP, ... machen die Stückzahlen. Wir kriegen das ab was übrig bleibt oder aus taktischen Gründen (Image) für uns reserviert wurde, nachdem "die Großen" bedient wurden.
 
Nore Ply schrieb:
Mal ehrlich, wir paar wenigen Hansel
... sind nicht so unwichtig wie Du denkst.
Von uns lebt ein ganzer Teil dieser Industrie. An wen, wenn nicht uns verkaufen die im Preisvergleich gelisteten Firmen ihren Kram. 10% vom Gesamtmarkt kann man nicht so einfach ignorieren.
 
BxBender schrieb:
Auch für Intel nicht, siehe 90er Jahre mit dem i740, oder wie der Chip hieß.

Der i740 war nicht gut. Nichteinmal ansatzweise. Sogar die damals noch verfügbaren dedizierten GPUs von S3, Tseng, Matrox usw waren besser.

Ein Auto von Joop? Ob das einer kaufen würde?
Naja, Rechner von Apple werden gekauft und das ist genau so absurd.
 
  • Gefällt mir
Reaktionen: TechFA
Zurück
Oben