News Intel Arc A380 („Alchemist“): Erste Benchmarks im Vergleich mit Ampere, Turing und Navi

Ich bin zwar sehr für eine dritte Partein im GPU Markt (auch wenn es die nette Intel ist 😁). Aber die TSMC N6 würde ich schon gerne bei AMD sehen...
 
SV3N schrieb:
...Spielen wird noch einmal eine ganz andere Sache, aber da werden wir wohl auch bald die ersten Eindrücke haben.

Es bleibt definitiv spannend.
War da nicht mal was mit Spielen?
Vega? Da konnte Koduri die vorhandene Rechenleistung nicht in Spieleleistung umsetzen.
Wollen wir hoffen, im Interesse des Wettbewerbs, dass es diesmal besser klappt.
 
Irgendetwas stimmt mit SiSoftwares Angaben nicht.

Einerseits reden sie von "A300 series 6GB GDDR6 96-bit 14Gbit/s ~192GB/s" (was schon nicht aufgeht)
aber reden dann von "6GB DDR6 96-bit" was dann "192GB/s" Bandbreite für die A380 ergeben soll.

Also entweder hat die A380 6GB DDR6 96-bit mit 16Gbit/s und somit 192GB/s Bandbreite oder
die A380 hat 6GB DDR6 96-bit mit 14GBit/s und somit 168GB/s Bandbreite.
 
Logarithmus ist für 2 Sachen wirklich gut:
  • Schüler und Studenten verwirren
  • Leser von Diagrammen verwirren

Natürlich gibt es da noch mehr, aber das ist wie die 5. Stelle hinterm Komma.

Aber zur Leistung, die ist wirklich ansehnlich. Bei entsprechender Skalierung des größten Arc sollte die angestrebte Zielgruppe locker eingenommen werden, wobei diese CUDA Schnittstelle schon ein hartes Brett zum Bohren ist. AMD ist auf jeden Fall kein Risiko.
 
  • Gefällt mir
Reaktionen: Sly123 und ComputerJunge
Kann ja in wenigen Jahren werden. Blackberry war auch hochmütig wie Nokia.
 
Wenn wir jetzt mal den Preis dazu nennen und in Klammern schreiben und die Verfügbarkeit in Rot, Gelb und Grün farblich dazu geben haben wir einen guten Eindruck welche Karte wie einzuschätzen ist im "Einsteigersegment".

Natürlich wissen wir das bei Intel nicht. Das mit 6GB allerdings im Bereich der 6500XT zu erwarten ist läßt sich logisch ableiten woher Intel diese GPU hat. Aus dem mobilen Bereich.

Wir können so grob die Leistung sehen. Mehr aber auch nicht. Zum Vergleich wäre auch eine APU von Intel und AMD gut gewesen.
 
  • Gefällt mir
Reaktionen: AlanK
NguyenV3 schrieb:
Ist mir schon klar. Dennoch hat man sich wohl bewusst dafür entschieden um Intel in einem besseren Licht dastehen zu lassen, fällt dann ja nicht wirklich auf wenn man beträchtlich zurückliegt
 
Auch wenn es erst mal schön ist, dass da ein neuer Mitspieler auf dem Grafikkartenmarkt auftaucht, verstehe ich manche hier nicht. Gerade bei den Grafikkarten hat das Duopol in der Vergangenheit doch recht gut funktioniert. Wenn der Chip mal nicht überzeugt hat, war dennoch Hoffnung, dass die nächste Generation alles wieder gerade biegt. Es war genug Platz auf dem Markt, dass auch mal eine Durststrecke überwunden werden konnte. F&E verschlingt nicht gerade wenig. Der Preiskampf war dennoch da.
Wenn Intel jetzt AMD das Wasser abgräbt, könnten wir am Ende mit zwei Krücken und einem Champion, der die Preise diktiert, dastehen. Was dann? Konzentriert sich AMD auf OEM und Konsolen? Wird Intel seine tiefen Taschen nutzen oder fokussiert es sich auf den Notebook-Sektor? Auch wenn ich den frischen Wind durch Intel begrüße, kann es ebenso der Anfang vom Ende sein. Mehr ist nicht zwangsweise besser. Ich will nicht den Teufel an die Wand malen, aber es wäre naiv derlei nicht im Hinterkopf zu behalten.
Mag sein, dass Intel der Heilsbringer ist - wir alle wollen es hoffen. Dennoch: Das eigentliche Problem sind nicht nVidia und AMD, sondern der Mining-Markt. Es ist der Grund warum wir keine Chips auf dem Markt haben und es ist der Grund, warum Intel mitmischen will. Bricht der Mining-Markt mal weg, was ist dann?
 
  • Gefällt mir
Reaktionen: kachiri
WommU schrieb:
Vega? Da konnte Koduri die vorhandene Rechenleistung nicht in Spieleleistung umsetzen.
Der Einfluss von Leuten wie Koduri, Keller & Co. wird immer viel zu hoch gehangen.

Was er mit Vega gemacht hat, mal ganz davon abgesehen, dass er für Vega gar nicht die Grundlagen gelegt hatte, hat nichts mit Xe/Alchemist zu tun.

Die für Spieler relevante DG2-512EU als Intel Arc 700-Serie wird voraussichtlich zwischen 3060 und 3060 Ti landen, wenn Intel diese dann im Preis leicht unterbieten kann, wird die Karte ihre Abnehmer finden.

Oben angreifen wird man erst mit der 2. oder 3. Generation, zumindest realistisch gesehen.

Wir dürfen gespannt sein.
 
Also wenn sich die TDP auch in der Effizienz wiederspiegelt, dann wird die Intel vielleicht nicht die schnellste Lösung, könnte aber eine sehr effiziente werden.
Was dann bei den Games auch noch wichtig ist, wie gut XeSS von der Leistung als auch der Qualität ist.

Aufgrund von RT (wenn auch nur in minecraft quake und älteren anspruchslosen games) und 8gb vram, würde ich die RTX 3050, die ungefähr auf GTX 1080/rtx 2060 niveau liegt, derzeit aber noch leicht vorne sehen, wenn Intel nicht auch beim Preis überrascht.

Auf jeden Fall bin ich durchaus interessiert was Intel da auf dem Markt wirft.

Straputsky schrieb:
Wenn Intel jetzt AMD das Wasser abgräbt, könnten wir am Ende mit zwei Krücken und einem Champion, der die Preise diktiert, dastehen. Was dann?
Könnte mir vorstellen, dass im schlimmsten Fall, AMD ihre GPU Sparte an NV verscherbelt und dann eben Intel und NV sich den Markt aufteilen.
 
Onkel Föhn schrieb:
Die Leistung gegenüber den Konterfeis ist mehr wie respektabel !
Und vor allem bei 75 Watt

Bekommst du bei Nvidia auch, nennt sich rtx a2000 mit 6/12GB RAM low Profil Format , ist halt extrem überteuert. Hat die Leistung einer rtx3050.

Wenn die Hersteller wollen, dann können sie auch. Aber sie wollen einfach nicht.
 
  • Gefällt mir
Reaktionen: aklaa, Innocience und Onkel Föhn
am ende entscheidet der Preis/Leistung bei den OEM´s
Intel & AMD beide TSMC 6nm somit kommt es auf die die size an wer mehr verdient
Nvidia 1660TI ist TSMC12nm mit 284mm² extrem groß dürfte kaum in der selben Liga mit der 6500XT spielen
3050 GA106 276mm² Samsung 8nm aber soll ja der GA107 folgen aber sicher auch nicht kleiner wie 150mm²
und Nvidia ist ja für Top Magen bekannt.
Intel & AMD wollen hingegen Marktanteile holen und geben sich sicherlich beide mit weniger Marge wie Nvidia ab
 

CUDA schlägt OpenCL in allen Bereichen​

Wie die Tester von SiSoftware abschließend feststellen, ist es insbesondere im GPGPU-Bereich für Nvidia dank CUDA problemlos möglich, die Konkurrenz von AMD und Intel in den Schatten zu stellen.

Wer nutzt den schon OPENCL ? Selbst AMD hat auf HIP umgesattelt.

Und das geht echt ab unter Blender. Ist eine Verarbeitung von CUDA Befehlen in AMD Grafikkarten fähige form.
 
Bulletproof_Van schrieb:
Wer nutzt den schon OPENCL ? Selbst AMD hat auf HIP umgesattelt.
Alle die Boinc benutzen. :daumen:
 
SV3N schrieb:
Der Einfluss von Leuten wie Koduri, Keller & Co. wird immer viel zu hoch gehangen.
Man muss an der Stelle auch so fair sein: Die Probleme der Auslastung - 4 Threads pro CU, 4 Takte pro Wave64 - hatte GCN ja auch nicht erst seit Vega, sondern auch bereits davor gehabt.

Ich denke, das primäre Problem bei Koduri war oder ist immer noch, dass er etwas zu Dick aufträgt und damit sich selbst auch in Teufelsküche begibt.
SV3N schrieb:
Was er mit Vega gemacht hat, mal ganz davon abgesehen, dass er für Vega gar nicht die Grundlagen gelegt hatte, hat nichts mit Xe/Alchemist zu tun.
Wenn man sich Xe ansieht und das mit den vorherigen Gens vergleicht, dann ist Xe auch keine wirklich vollständig neue Architektur - wie man vor einigen Jahren andeutete - sondern man bedient sich immer noch dem grundlegenden Aufbau, den man damals mit Gen 6 bei SandyBridge einführte: 1 EU besteht aus 2 * Vec4.

Die Grundstruktur ist also vorhanden und Xe erbt all die Schwächen und Stärken seit Gen 6. Das kann Vor- und Nachteil sein, aber es kommt auch auf das Treiber-Team an und eines kann Intel: Software.
 
edenjung schrieb:
Das kann Intel gerne versuchen. Aber spätestens der Handel legt da +300€ drauf. Oder die Board-Partner.
Intel kann die Preise am Markt nicht diktieren.
Wird es denn Partnerkarten geben? Bisher habe ich dazu noch nichts gelesen. Intel kann ja auch bei Partnern fertigen lassen und trotzdem selber verkaufen, dann könnte nur noch der Händler den Preis hochtreiben.

Je nachdem welche Ziele Intel verfolgt werden sie vermutlich schon eine große Stückzahl zu einem guten Preis anbieten, allein schon um AMD und Nvidia zu attackieren und sich in ein gutes Licht zu stellen. Zeit genug sich vorzubereiten hatte Intel ja.
 
Zurück
Oben