News Arc A770 und A750 („Alchemist“): Die GeForce RTX 3070 bleibt weit außer Reichweite

v_ossi schrieb:
Problematisch ist mMn eher, dass AMD und Nvidia die nächste Generation ‘bald‘ nachschieben und Intel dann eher 2 Generationen hinten dran ist.
Und wie lange wird es diesmal dauern, bis es von AMD und Nvidia Einsteiger- und Mittelklassekarten geben wird?
Ja, RDNA3 und Ada stehen vor der Türe, aber erstmal wird Highend bedient werden. Zwischen 3090 und 3060 lag immerhin ein halbes Jahr, wenn Nvidia wirklich erst noch die Lager geleert haben möchte, könnte es diesmal sogar länger dauern.

markox schrieb:
Und dann bedenke, dass die Consumer Karten keine 100% eigene Entwicklung sind, sondern immer irgendwie auch ein Ableger der Serverhardware die noch ganz gewaltig wächst.
Das ist es: Intel hat nicht übersehen, dass der GPGPU-Markt gewaltig am Wachsen ist und investiert auch entsprechend, im Workstation-Segment hat das mit Quicksync begonnen und wird nun mit oneAPI fortgeführt, im Gegenzug zu AMD ist Intel es sich auch nicht zu schade, den Pfad Nvidias zu verfolgen und die eigenen Tools auch für Consumer-Karten freizugeben. Das ist gerade für diejenigen von gewaltigem Vorteil, die sich keine speziellen Grafikkarten leisten wollen/können: Studis, Hobbyisten, StartUps, öffentliche Forschungseinrichtungen, etc. Rein hypothetisch kann man bereits auf einer moderneren Intel-iGPU anfangen zu testen und es dann bei verfügbaren dGPUs deployen.

Wenn Intel am Ball bleibt, können sie in Workstations und Servern in wenigen Jahren auch bei der GPU relevant sein, egal wie sehr der Laden hier belächelt wird.
 
  • Gefällt mir
Reaktionen: GT200b
Patrick.Star schrieb:
Bin mir sicher, dass es in Zukunft noch eine Arc A9xx Serie geben wird, die dann näher an die Highend Karten der anderen Hersteller herankommen wird.
ARC setzt bei der mobilen A770 auf den gleichen Ausbau wie im Desktop.
Blaue CPU mit grüner GPU? Von Anfang an wurde deutlich, dass Intel den grünen Trittbrettfahrer aus dem Notebookmarkt drängen will. AMD kommt hier auch auf keinen relevanten Marktanteil was Intel zugute kommt.
Eine RTX3080m mit nur 6144 Shadern bzw. 5120 Shadern der RTX3070m im Vergleich zu 8960 Shadereinheiten der RTX3080d und 5888 der RTX3070d rückt die Verhältnisse zurecht. Die RTX3060m ist besser ausgestattet als die Desktopvariante wodurch die Zwischenergebnisse entstehen können.

Matthias B. V. schrieb:
Finde ich für die erste Generation nicht so schlecht. Also mehr als ein Achtungserfolg…
Das Ergebnis sehen wir erst 2023 oder 2024.
ARC soll als iGPU in Meteor-Lake wandern. TSMC wird auch die Grafikkerne für ML liefern. Man könnte den Eindruck gewinnen DG2 ist im Desktopbereich das Testfeld damit ML flüssig anläuft. Bis dahin sollten auch die Treiber funktionieren. Intel wäre gezwungen ARC noch zu optimieren.

Die Wechselwirkung zwischen dGPU und iGPU könnte die Leistung der Intel-iGPU anheben, das Entwicklungstempo hochhalten nachdem AMD die Vega-lethargie verlässt. Am Ende stünden vollwertige APU als Gegner zu den mobilen Ryzen und Ryzen G. Das würde auch bedeuten, dass Intel keine Ambitionen pflegt eine Konkurrenz zu den Highenddesktopkarten von Nvidia und AMD zu etablieren.
ARC legt den Fokus bereits auf das Featureset, beispielsweise AV1-Encoding.
 
Ich weiß nicht ob das Bild oben die Karte Zeigt wie sie Optisch aussieht. Auch wenn das für die meisten egal ist muss ich sagen. Meine güte sieht die geil aus.

Leistung finde ich jetzt fürs erste mal GPU basteln Okay. Treiber wird die Zeit bringen nehme ich an.

Die Frage. Funktioniert die Arc reihe auch in einem eGPU gehäuse wie die Nvidia und AMD? Also hat Intel da schon treiber passen für?
 
Jetzt wird's langsam Zeit. Wenn der Hersteller schon sagt 3060 ist das Ziel wird 3070 definitiv aus der Range sein....
 
Cohen schrieb:
Intel ist verschuldet, weil sie ein einziges Quartal keinen Nettogewinn gemacht haben? Sind die 95 Mrd. USD Eigenkapital von der 2021-Bilanz bereits verbraucht?
Intel hat Schulden. Das ist auch normal bei Firmen.
35MRD$ wenn ich mich nicht täusche.
Das mit Eigenkapital einfach so zu begleichen wäre "mutig".
Wieviel davon real rumkommen würde ist auch so eine Sache und auch unmöglich, wenn man den Betrieb gewährleisten will.
Jedoch sind andere Marktteilnehmer deutlich weniger verschuldet.
Es wird relevant, wenn man wie Intel, anfängt zu straucheln.

Und mal ehrlich... das ist schon etwas mehr als straucheln.
Sehe auch keine margeträchtigen Produkte die Intel bringen könnte.
Man will auch die Preise um 20% anheben um die Marge zu erhöhen.
Bei stärkeren Wettbewerb als je zuvor ist auch das "mutig", aber wie man es bei Intel kurzfristig besser machen kann, weiß ich natürlich auch nicht.
 
als ob wir nicht schon alle wissen dass Intel sich viel zu weit ausm Fenster lehnt und/oder luegt...
 
Wenn Intel die Preise unter RTX3060 ansetzt und 16GB anbietet, wird Intel genügend Abnehmer finden, wenn nicht, sieht es schlecht aus, das mit Treiber Probleme kann die Kundschaft auch abschrecken...

Nichts desto trotz, aller Anfang ist schwer, ich drücke Intel die Daumen das die mit Optimierung zügig voran kommen und mit next Gen Konkurrenzfähiger sein werden, denn Konkurrenz belebt den Markt
 
Also ganz ehrlich: ich mag Intel überhaupt nicht und was die sich da gerade für GPUs zusammenstümpern, ist nicht wirklich konkurrenzfähig.
Aber sowas macht man eben nicht von heute auf morgen und wir sollten froh sein, dass sie es versuchen!

Außerdem: wenn die Ihre Treiber in den Griff kriegen, können sich die beiden Platzhirsche ihre vollen Lagerhäuser mit gnadenlos überpreisten Pixelbeschleunigern sonst wo hinklemmen. Dann hole sogar ich mir eine Intel-Graka, untervolte ein wenig um etwas effizienter unterwegs zu sein und bin happy.

Es muss nicht immer das Beste sein. Nicht um jeden Preis.
 
Die Alchemie scheint bei Intel wohl nicht so richtig zum Laufen kommen - das Blei bleibt Blei, von Gold keine Spur. Na, vielleicht "erfinden" sie ja Porzellan dabei. Leider sind die Tests keine gute Nachrichten für uns, die sich mehr Wettbewerb bei Grafikkarten wünschen.
 
Combine schrieb:
Das Ergebnis sehen wir erst 2023 oder 2024.
ARC soll als iGPU in Meteor-Lake wandern. TSMC wird auch die Grafikkerne für ML liefern. Man könnte den Eindruck gewinnen DG2 ist im Desktopbereich das Testfeld damit ML flüssig anläuft. Bis dahin sollten auch die Treiber funktionieren. Intel wäre gezwungen ARC noch zu optimieren.

Die Wechselwirkung zwischen dGPU und iGPU könnte die Leistung der Intel-iGPU anheben, das Entwicklungstempo hochhalten nachdem AMD die Vega-lethargie verlässt. Am Ende stünden vollwertige APU als Gegner zu den mobilen Ryzen und Ryzen G. Das würde auch bedeuten, dass Intel keine Ambitionen pflegt eine Konkurrenz zu den Highenddesktopkarten von Nvidia und AMD zu etablieren.
ARC legt den Fokus bereits auf das Featureset, beispielsweise AV1-Encoding.
Ich sage es mal so: Ich kann mir gut vorstellen dass wir irgendwann Mega-APUs sehen werden wie es Apple beim M1 Pro / Max tut. Dies wird vermutlich effizienter sein was Energie und Plaztbedarf angeht und dank 3D Stacking kein Problem mehr sein.

Evtl. kann man diese iGPUs dann auch noch mit einer dGPU des selben Herstellers kombinieren oder diese im SLI in Gaming (Checkerboardrendering oder gewisse Vorleistungen nutzbar machen] aber vor allem für Videobearbeitung. Bei DG1 ging dies ja für gewisse Anwendungen. Und Ja De/Encoding ist sicherlich ein großes Thema. Das dürfte aber auch ohne dGPUs vorangetrieben werden.

Aber vorerst wird Intel noch eine ganze Weile dGPUs für Desktops liefern solange der Markt hier [noch] groß genug ist. Schon alleine weil man schneller Marktanteile gewinnt und nicht erst OEMs in Notebooks überzeugen muss. Auch hat man hier gewisse Prosumer Bereiche abdecken will: CAD, Developer etc. würden mir hier einfallen. Für Server und ML rechne ich aber mit speziellen Karten hier gibt es ja mit Ponte Vecchio schon Ansätze.
 
Chesterfield schrieb:
Trotz aller Grundsatzdiskussion VRAM etc. in Sachen Effizienz und Leistung ist die 3070 eine tolle Karte.
Naja da ist die RX6800 non XT viel besser und die RX6600er auch die RTX3060ti ist besser und nicht wirklich viel langsamer als die RTX3070.

Zur Intel erst mal echte Test abwarten grade was P/W angeht.
 
Leute, lasst ihnen doch Zeit. Nvidia und AMD und alle anderen hatten auch ihre Probleme am Anfang und in der Mitte und auch heute noch. Das alles hat sich entwickelt und wird sich hier auch entwickeln. Das ist die 1. Generation.
 
750 für 200€ und 770 250€, wirds mehr hättens sie es gleich lassen sollen. keiner braucht nen 3. hersteller mit zu hohen preisen
 
Cohen schrieb:
Intel ist verschuldet, weil sie ein einziges Quartal keinen Nettogewinn gemacht haben? Sind die 95 Mrd. USD Eigenkapital von der 2021-Bilanz bereits verbraucht?
Schulden werden nicht erst dann gemacht, wenn Eigenkapital in Form von etwaigen Rücklagen (ganz davon abgesehen, dass das Eigenkapital nicht nur daraus besteht, ist ja schließlich nicht so, als wäre EK = Bargeld) verbraucht ist, sondern immer dann, wenn das Abschließen von Krediten Vorteile bietet - wenn deren Zinsen etwa extrem niedrig sind. Letzteres war die letzten Jahre ja noch der Fall, das hat die Verschuldung der Privatsektoren vieler Länder nach oben getrieben, ob diese nun profitabel gearbeitet haben oder nicht. Große Rücklagen und hohe Verschuldung schließen sich nicht gegenseitig aus.

Generell ist Verschuldung nicht der Sensenmann, als der sie gerade in Deutschland gerne gezeichnet wird, sondern ein normales Phänomen in einer kapitalistischen Wirtschaft und Gesellschaft. Die Frage ist nur, wie die Marktbedingungen sind und ob das eigene Geschäftsmodell hinreichend tragfähig ist, um die gemachten Schulden auch bedienen zu können. Erst wenn das nicht mehr der Fall ist, werden Schulden "gefährlich".

@topic:

Es ist in keiner Form überraschend, dass Intels erste dGPU-Generation verhältnismäßig schwach ausfällt - dass das passieren würde, wussten wir im Prinzip alle. Hardware und Software brauchen noch Arbeit, zwei bis drei Generationen Durchhaltevermögen wird Intel da schon noch beweisen müssen, bevor man sich wirklich mit den Routiniers bei Nvidia und AMD wird vergleichen können - die bedienen das Segment "echter" GPUs ja immerhin schon seit mehr als einem Vierteljahrhundert, entsprechend weit sind dort Technik und bestehendes Know-How. Wenn man den entsprechenden Markt wirklich für sich erschließen möchte, wird man die resultierenden Kosten hinnehmen.
 
heroesgaming schrieb:
Schulden werden nicht erst dann gemacht, wenn Eigenkapital in Form von etwaigen Rücklagen (ganz davon abgesehen, dass das Eigenkapital nicht nur daraus besteht, ist ja schließlich nicht so, als wäre EK = Bargeld) verbraucht ist, sondern immer dann, wenn das Abschließen von Krediten Vorteile bietet - wenn deren Zinsen etwa extrem niedrig sind. Letzteres war die letzten Jahre ja noch der Fall, das hat die Verschuldung der Privatsektoren vieler Länder nach oben getrieben, ob diese nun profitabel gearbeitet haben oder nicht. Große Rücklagen und hohe Verschuldung schließen sich nicht gegenseitig aus.

Das ist mir schon klar, aber Draco N. hatte mit "anständig verschuldet" größere Liquiditätsprobleme bei Intel suggeriert:

aber jetzt wird das schmerzhaft, Intel ist anständig verschuldet und hat gerade gar keinen profitablen Bereich mehr.

Und der Verschuldungsgrad (bei dem eben das Eigenkapital berücksichtigt wird) von Intel ist nun nicht ungewöhnlich hoch bei einer Firma dieser Größenordnung.
 
Da hätte ich jetzt keine solche Implikation herausgelesen, wobei ich auch nicht unterschreiben würde, dass es für Intel zeitnah "schmerzhaft" wird. Die Profitabilität wird zurückkehren, da kann man sich sowieso ziemlich sicher sein. AMD hat es auch geschafft und deren Ausgangsposition war bei weitem schlechter.

Bei Punkt 2 stimme ich dir zu, darauf wollte ich unter anderem auch hinaus: Intels Verschuldung ist völlig im Rahmen.
 
Hey, cool, in Sachen Effizienz schlägt Intel mit Glück die alte GTX 1000 Generation.
In den gut optimierten Titeln natürlich, CSGO mit DX9 z.B. läuft natürlich unterirdisch schlecht.
 
Chesterfield schrieb:
Trotz aller Grundsatzdiskussion VRAM etc. in Sachen Effizienz und Leistung ist die 3070 eine tolle Karte.
Kann ich nur zustimmen.

Mcr-King schrieb:
Naja da ist die RX6800 non XT viel besser und die RX6600er auch
Wieviel ist bei Dir...viel besser? Wenn Raytracing ins Spiel kommt ist es dann auch vorbei mit besser.
Alles unter einer RX 6800 hat gegen eine RTX 3070, in Sachen Performance/Watt, keinen Auftrag. Um es mal provokant zu formulieren.

Edit:
Allen Unkenrufen zum Trotz bin ich auf die Performance und vor allem auf die Treiber gespannt.
Der Farbenvielfalt zu liebe würde ich gerne meine GTX 980 mit einer blauen Karte ersetzen :).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chesterfield
DaHell63 schrieb:
Alles unter einer RX 6800 hat gegen eine RTX 3070, in Sachen Performance/Watt,
Stimmt nicht ganz und vom Preis her ist die RX6800 sogar besser alle AMD Karten sind besser was P/L angeht.

Zu RT da dürfte es die RTX3070 in Zukunft auch schwerer haben mit ihrem 8GB und da sind 12 und mehr auf jeden Fall besser. 😉
 

Anhänge

  • Screenshot_20220910_101543_com.microsoft.emmx.jpg
    Screenshot_20220910_101543_com.microsoft.emmx.jpg
    483,7 KB · Aufrufe: 119
Zurück
Oben