News Intel DG1: Iris Xe Max jetzt auch als PCIe-Desktop-Grafikkarte

WommU schrieb:
Noch einmal für die, die meinen man brauche so etwas nicht:
Ein Ryzen 9 oder auch ein Threadripper sind ohne Grafikkarte sehr eingeschränkt zu nutzen. Da braucht man eine Karte.
Und weder Nvidia noch AMD bieten geeignete Karten an. Die 1030 ist kastriert und die 550 zu fett. Passiv gekühlt ist da von AMD nichts zu bekommen.
Und Intels Karte läuft nur mit bestimmten Intel CPUs und Chipsätzen.
Also ist die 1030 bei passiven Betrieb die erste Wahl oder eben eine 550 mit Zero-FAN.

Also zusammengefasst: die Intel kann man nicht kaufen und wenn man es könnte würde sie nicht laufen für diesen Anwendungszweck den du dir hier rausgepickt hast.
Also: sowas braucht man nicht.
Ergänzung ()

DerKonfigurator schrieb:
Wer holt sich denn nen i9 und nutzt dann den Boxed Kühler?
Haben die überhaupt noch einen Boxed?
 
DavidG schrieb:
Die High-End Grafikkarte wird wohl das interessanteste Produkt der letzten Jahre sein. Ich freue mich schon riesig auf die. Ich kann mir gut vorstellen, dass man das Niveau der 3090 erreicht. Dann wird das richtig interessant. Bin mal auch gespannt, ob Nvidia dann noch kontern können wird.


Ich freue mich, wie David Intel den Goliaths TSMC, Samsung, Nvidia und AMD einfach den Mittelfinger zeigt und sein Ding macht und ab diesen Jahr wohl in allen Bereichen absolute High-End Ware rausbringt.
In welcher Realität lebst du bitte?
 
  • Gefällt mir
Reaktionen: IBMlover und rg88
borizb schrieb:
Denkt mal jemand darüber nach, dass das vielleicht einfach eine technische Ursache haben
könnte
Die da wäre?
iSight2TheBlind schrieb:
Was spricht dagegen, die CPU-Verkäufe damit zu pushen, dass sie die Grafikkarte nur mit Intel-CPUs laufen lassen?
Weil das niemanden interessiert. Die Karten haben kein Alleinstellungsmerkmal, was sie jetzt besonders machen würde, dass man sie unbedingt haben möchte. Der fehlende Marktanteil hingegen wird für Intel das größte Problem sein, wenn sie Fuß fassen wollen.
Dass AMD oft hinten dran ist, liegt häufig auch an der Optimierung der Spiele für Nvidia, weil die eben den größten Marktanteil haben. Da noch für eine Dritte Plattform die Spiele entwickeln und optimieren, die kaum einer nutzt? Wieso sollte man das als Entwickler machen?

Dann kommt noch dazu, dass Intels Treiber überhaupt nicht auf Spiele optimiert sind. Das ist eine riesige Sache, die sie da erstmal nachholen müssen. Nur für neue Tripple-A Spiele zu entwickeln und vorhandene nur solala darzustellen wird keinen Käufer überzeugen.

Und zu guter Letzt:
Man kann Intel nicht trauen, wenn sie neue Plattformen einführen. Das haben wir bei den Optane speichern gesehen und bei den Kombi-Chips (Kaby-Lake G), welche einfach eingestampft wurden.
Diese Kombi-Chips wurden zudem sogar für Spieler platziert, aber kaum Treiberupdates rausgebracht. Das Produkt war quasi schon bei Release schon eingestampft und hat auch keinen Nachfolger bekommen, geschweige denn Support.
Wer hier blind auf Intel setzt, der ist selber schuld.
Ich sehe da in absehbarer Zeit keinen Grund, warum man das Intel Experiment eingehen sollte, in Anbetracht der Erfahrungswerte aus der jüngeren Vergangenheit
Ergänzung ()

DavidG schrieb:
Ich sehe eben, dass Intel als einziges Unternehmen der westlichen Welt noch Chips selber herstellen kann und sich hier eine übermächtigen Konkurrenz gegenüber sieht, aber doch immer wieder aufs neue tolle Produkte herausbringt.
So ein Quatsch, es gibt genügend andere Hersteller mit eigener Fertigung. Sogar in Deutschland, Infineon.

Intel kann schlicht nicht mehr mit moderner Fertigungstechnik Schritt halten, wie man seit Jahren sieht.
Wie du daraus ableitest, dass gerade von dort "tolle Produkte" kommen sollten, ist mir ein Rätsel.
Viel wahrscheinlicher ist es, dass Intel gerade bei Grafikchips eine Fertigung bei TSMC oder Samsung einkaufen oder beauftragen wird, um überhaupt eine brauchbare Fertigung zu haben und auch Stückzahlen liefern zu können, wenn sie unwahrscheinlicherweise doch einen Fuß in die Tür bekommen sollten.
 
  • Gefällt mir
Reaktionen: ghecko
ghecko schrieb:
Larabee hatte mehr mit Threadripper gemein als mit einer GPU, für den Desktop also nicht brauchbar und das wusste auch Intel.
Da muss ich Dir widersprechen. Larrabee wurde ursprünglich als großer Wurf im Graka-Markt geplant. Erst, als sie merkten, dass sie mit erst mit deutlich über 200W nichtmal Mittelklasse-Leistung würden liefern können - damals war Mittelklasse <=150W -, wurde es ruhig um das Projekt. Erst später fand man dann die Idee toll, das Ding stattdessen als "CPU-Karte" zu vermarkten (was aber letztlich auch in die Hose ging).

Dass der Chip letztlich als extreme-Multicore-Arch geplant wurde, ist richtig. Aber wie gesagt, man war der Meinung, damit Grafikkarten Konkurrenz zu machen. Und für Intel als Herrscher über x86 war natürlich x86 die Wahl des Tages. - Wer nur einen Hammer hat, für den sieht jedes Problem wie ein Nagel aus. ;)

Regards, Bigfoot29
 
  • Gefällt mir
Reaktionen: iSight2TheBlind, Hayda Ministral und rg88
flappes schrieb:
Lol, da hab ich doch glatt 80 Euro statt 80 EU gelesen ;-)
:-)
flappes schrieb:
Aber bei < 100 - 120 Euro trifft meine Aussage zu. Da ist von den anderen im Prinzip nichts lieferbar, außer >3 Jahre alte Kamellen.
Meinst Du nichts lieferbar weil im Moment gerade Lieferknappheit oder meinst Du nichts lieferbar weil AMVIDIA bisher keine Notwendigkeit gesehen haben?
Ergänzung ()

ss5 schrieb:
Schon mal was von Multimedia gehört ?
Dafür ist eine APU mit Ryzen2 oder Ryzen3 deutlich besser geeignet. Geringerer Platzbedarf, geringere Leistungsaufnahme über alles, geringerer Gesamtpreis, bessere Treiber.
 
  • Gefällt mir
Reaktionen: rg88
Bigfoot29 schrieb:
Larrabee wurde ursprünglich als großer Wurf im Graka-Markt geplant.
Nicht so ganz. Aber das hat sicher auch mit der Presse zu tun, die damals natürlich diesen einen Aspekt extrem hervorgehoben haben (entsprechend der Zielgruppe an Lesern).

Unbedingt den Absatz "Why didn't Larrabee fail?" lesen:
https://tomforsyth1000.github.io/blog.wiki.html

That ordering is important - in terms of engineering and focus, Larrabee was never primarily a graphics card. If Intel had wanted a kick-ass graphics card, they already had a very good graphics team begging to be allowed to build a nice big fat hot discrete GPU - and the Gen architecture is such that they'd build a great one, too. But Intel management didn't want one, and still doesn't. But if we were going to build Larrabee anyway, they wanted us to cover that market as well.
 
Kein Netflix HDR, kein AV1 decoding, kein UHD Playback mit Cyberlink, weil seitens CPU kein SGX engine vorhanden, veraltete HDMI 2.0.
Danke für den Tipp. Sorglos Paket für ambiente Multimedia.

Hayda Ministral schrieb:
Dafür ist eine APU mit Ryzen2 oder Ryzen3 deutlich besser geeigne
Jedesmal bei Intel Themen die AMD Walze hat die gleiche Wirkung, wie Apfelgemeinde bei Android Neuvorstellungen.
Ich lese dann nicht mehr weiter.
 
Zuletzt bearbeitet:
Wieder was dazu gelernt, danke.

Was Netflix HDR angeht bin ich allerdings vorsichtig optimistisch. SGX engine ist ein Stück Software (richtig?), AMD APUs erobern sich gerade erst nennenswerte Marktanteile. Das zusammen genommen sagt mir das es eine Frage der Zeit ist bis Netflix zusammen mit AMD eine Lösung bieten muss.
 
Hayda Ministral schrieb:
Wieder was dazu gelernt, danke.

Was Netflix HDR angeht bin ich allerdings vorsichtig optimistisch. SGX engine ist ein Stück Software (richtig?), AMD APUs erobern sich gerade erst nennenswerte Marktanteile. Das zusammen genommen sagt mir das es eine Frage der Zeit ist bis Netflix zusammen mit AMD eine Lösung bieten muss.
SGX ist CPU Hardwareimplementierung(Enklave) u. a. für advance DRM bei Cyberlink progs verwendet.
 
Zuletzt bearbeitet:
24784ds schrieb:
Nicht so ganz. Aber das hat sicher auch mit der Presse zu tun, die damals natürlich diesen einen Aspekt extrem hervorgehoben haben (entsprechend der Zielgruppe an Lesern).

Unbedingt den Absatz "Why didn't Larrabee fail?" lesen:
https://tomforsyth1000.github.io/blog.wiki.html
Du musst den Zeitpunkt von Larrabee aber mit einbeziehen um die Sache richtig zu bewerten.
GPUs als Beschleuniger für Rechenaufgaben (Computing) waren da Grad der heiße Scheiß, und die GPUs von Ati/AMD und auch Nvidia waren dafür hervorragend geeignet. Die von Intel absolut nicht.
Deshalb die Idee einfach Pentium 3 abzustecken und in großer Zahl für Computing anzubieten und das gleichzeitig als Grafikkarte zu vermarkten.
Dieser Doppelwunsch zusammen mit x86 war einfach in beiden Kategorien von Anfang an zum Scheitern verurteilt.
Sie konnten beides nicht schnell und vorallem nicht effizient.
AMD hat sich von der Idee mittlerweile verabschiedet und nimmt die bisherige Computing Plattform aus seiner alten GPU Technik (GCN) und hat für Spiele eine neue Architektur (RDNA) entwickelt.
Zweiteres mit großem Erfolg. Ersteres wird sich zeigen
ss5 schrieb:
Jedesmal bei Intel Themen die AMD Walze hat die gleiche Wirkung, wie Apfelgemeinde bei Android Neuvorstellungen.
Ich lese dann nicht mehr weiter.
Wenn du gerne Tatsachen und Marktverhältnisse ausblendest, dann kannst das machen. Ansonsten ist diese Diskussion durchaus legitim, weil Intel hier in einen neuen Markt eindringen will und dieser schon sehr stark besetzt ist. Und das nunmal von Nvidia und AMD. Ob's dir Persönlich passt oder nicht.
Dein Apple-Vergleich ist hier einfach nur dämlich
 
  • Gefällt mir
Reaktionen: Bigfoot29
Das ist nicht dämlich sondern Fakt. Diskussion verliert Sinnhaftigkeit und verbissene Walzenfahrer überreagieren.
Du hast reingegrätscht in meine Multimedia Unterhaltung mit Hayda Ministral und irrelevante Pentium Geschichten vorgetragen.
Die Themen waren: HDR, SGX, AV1 decoding, HDMI Gen und kein Computing.
Dazu kein Wort aber dämliche Unterstellung.
Der Klassiker mit rote Walze.
 
Zuletzt bearbeitet:
@24784ds : @rg88 bringt es auf den Punkt. Intel wollte eine "Elwms" wie sie nVidia/AMD(ATI) auch hatten. Wäre das Ding als reiner CPU-Beschleuniger ausgewiesen worden, wäre das was anderes gewesen. Aber der Fokus lag auf einem Rundum-Paket.

@rg88 : Meines Wissens nach wurden allerdings P554-Kerne benutzt. Das ist ein Pentium(MMX). Die P3-Basis wurde für die Core-Entwicklung herangezogen. Daher ggf. die Verwechselung? grübel :)
[EDIT] Es handelt sich nicht um einem P55 sondern noch um dessen Vorgänger P54. Details hier.[/EDIT]

Regards, Bigfoot29
 
Zuletzt bearbeitet: (Die Ungewissheit, welcher Prozessorkern verwendet wurde, ließ mir keine Ruhe. :D)
Zum Vergleich, die günstigste, lieferbare Grafikkarte mit halbwegs modernen codecs ist die hier: ASRock Phantom Gaming Radeon RX 550 2G. Schlappe 104,49€.
Nicht nur Gamer haben Probleme mit überteuerten, kaum lieferbaren Karten.
Und komme jetzt keiner mit APUs. Welche guten gibt es denn mit 12-64 Kernen?
Hier wäre eine günstige Intel, die auch für AMD Systeme geeignet und im freien Handel lieferbar wäre, sehr willkommen.
 
  • Gefällt mir
Reaktionen: ss5
WommU schrieb:
die günstigste, lieferbare Grafikkarte mit halbwegs modernen codecs ist die hier:
Die GT1030 kann zusätzlich VP9 und ist ab 90€ lieferbar:
https://geizhals.de/msi-geforce-gt-1030-2gh-lp-oc-v809-2498r-a1625310.html?hloc=at&hloc=de

Aber auch die ist viel zu teuer, die hat mal um die 60€ gekostet. Und jetzt wo Youtube den Großteil seines Materials bereits in AV1 streamt und alle anderen Plattformen den Codec ebenfalls pushen kann man sich weder mit AVC, H265 noch VP9 was kaufen. Das ist nur noch für die Filmesammlung auf dem NAS zu gebrauchen. Wir brauchen AV1 En/Decoder in Hardware. Flächendeckend. Jetzt.

Und soweit ich mitbekommen hab, übernimmt AMD bei Cezanne die Multimediaengine von Renoir unangetastet. Also wieder kein AV1 bei den neuen APUs. Dass AMD hier immer die 2. Geige spielen muss geht mir schon auf den Keks. Ich hoffe die nutzen die Umsatzspritze und pumpen alles in die Entwicklung anstatt es an die Aktiengeier auszuschütten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ss5
ghecko schrieb:
Dass AMD hier immer die 2. Geige spielen muss geht mir schon auf den Keks.
Mir geht's noch mehr auf den Keks Qualcomm Aktivität in der H266 Gruppe und schleppende b. z. w nicht vorhandene SoCs mit AV1.
Dafür High-End Schmiede Realtek hat schon vor einem Jahr SoC mit AV1 geschafft.
 
DavidG schrieb:
Ich sehe eben, dass Intel als einziges Unternehmen der westlichen Welt noch Chips selber herstellen kann und sich hier eine übermächtigen Konkurrenz gegenüber sieht, aber doch immer wieder aufs neue tolle Produkte herausbringt. Auf die Grafikkarten freue ich mich schon sehr.

https://www.zeit.de/politik/deutschland/2021-01/intel-strategiewechsel-produktion-usa-daniel-loeb
ja, aber was genau hat das Intel Bein 10nm Debakel gebracht?
Dein Link deckt sich nicht gerade mit deinen Enthusiasmus.
 
ss5 schrieb:
Qualcomm Aktivität in der H266 Gruppe
Der Zug ist bereits abgefahren Richtung AV1. Wenn Qualcomm nicht möchte, müssen sie irgendwann. Oder eben nicht, dann kommen sie unter die Räder. Mir persönlich ist das Wurst was mit denen passiert. Mehr Platz auf dem Markt für bessere Firmen.
 
Zurück
Oben