News Intel Arc A580: ASRock & Sparkle zeigen verschollen geglaubte Grafikkarte

Kann zwar AV1 aber der HDMI 2.1 Port hat keine 48Gbit.
Somit auch keine 120Hz bei 4K.
Danke für nichts Intel.
Danke für das HDMI 2.1 Wirrwar HDMI Goup.
 
  • Gefällt mir
Reaktionen: Rockstar85
CDLABSRadonP... schrieb:
Zu allererst:
Intel, AMD und Nvidia sind (in erster Linie, neben Limited Editions im Falle von Intel, MadeByAMD-Editions im Falle von AMD und FoundersEditions im Falle von Nvidia) GPU-Hersteller und keine Grafikkartenhersteller. Die in der News (und eigentlich sollte es darum auch, zumindest als Ausgangspunkt, gehen!) genannten Hersteller AsRock und Sparkle sind hingegen Grafikkartenhersteller.
Eigentlich sind sie sogar nicht mal GPU-Hersteller, denn diese werden von TSMC oder Samsung hergestellt. So gesehen sind sie eigentlich nur Grafikkartenentwickler bzw. sogar nur GPU-Entwickler 😁
 
Für 150-180€ gibt es durchaus einen Markt - kann sich nicht jeder 500 Tacken aus dem Anus ziehen nur weil die GPU verreckt...
Klar wird das für viele der Forennutzer hier keine Upgrade-Karte. Aber evtl für jene bei denen noch eine AMD RX 460 im Rechner werkelt oder so...
 
  • Gefällt mir
Reaktionen: axi, robosaurus, DaBo87 und 3 andere
CDLABSRadonP... schrieb:
Zum ersten Teil mach bitte keine Haarspalterei. Was macht es denn für das Argument nen Unterschied ob die 7800 xt 1xHdmi und 3xDisplayport und die 4070 2xhdmi und 2xdisplayport an Anschlüssen hat?

Und zum unteren: bei steigender Nachfrage bleibt das Problem doch, es wird lediglich gemildert. Das Argument würde nur Sinn machen, wenn die Nachfrage zum überwiegenden Teil aufgrund des markteinstiegs von Intel steigt.
 
Zuletzt bearbeitet von einem Moderator:
w33werner schrieb:
Was macht es denn für das Argument nen Unterschied ob die 7800 xt 1xHdmi und 3xDisplayport und die 4070 2xhdmi und 2xdisplayport an Anschlüssen hat?
Darum ging es nicht, sondern darum, was die GPU in diesen Punkten bietet. Also ob mit der GPU selbst zum Beispiel insgesamt sechs, neun, zwölf Displayanschlüsse möglich wären. (über USB-C auch realisierbar) Und darum, was diese Anschlüsse jeweils leisten können.
w33werner schrieb:
Und zum unteren: bei steigender Nachfrage bleibt das Problem doch, es wird lediglich gemildert. Das Argument würde nur Sinn machen, wenn die Nachfrage ausschließlich wegen dem markteinstieg von Intel steigt.
Es ging nicht darum, ein eigenes Argument aufzubauen, sondern dein Argument zu widerlegen. Das ist gelungen. Fokussier dich auf das Wesentliche.
Wenn dich der Rest interessiert: Es geht darum, dass die Nachfrage nach Gamingperformance und Gamingeffizienz doch ohnehin nicht bedient werden kann. Entsprechend geht es wenn dann (wie schon nachgewiesen: Das ist nicht nötig!) auch nur darum, ob sich das ANGEBOT durch den Markteinstieg von Intel steigert. Da Alchemist TSMC N6 nutzt gehe ich nicht davon aus.
 
Wuhu wieder eine Karte mehr für die Sammlung

Scheint wohl schon in der Wildbahn zu sein.

https://x.com/momomo_us/status/1709553159579005114?s=20

1696445143555.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: simosh
w33werner schrieb:
Jetzt wird dreimal die praktisch gleiche Grafikkarte entwickelt, einmal von jedem Hersteller und das bei einem Produkt wo die Entwicklungskosten der größte Kostenfaktor ist.
Dh höhere Preise da die Kosten pro Grafikkarte steigen.
Was hat die Entwicklung von Intels Grafikkarten mit der von Nvidias oder AMDs Grafikkarten zu tun?
 
  • Gefällt mir
Reaktionen: Mickey Cohen
Gorby schrieb:
Eigentlich sind sie sogar nicht mal GPU-Hersteller, denn diese werden von TSMC oder Samsung hergestellt.
Stimmt je nach Sichtweise. Allerdings ist die Frage, wer im Fabless-Modell überhaupt Hersteller ist, recht schwierig. Ist Apple ein Smartphonehersteller...
Gorby schrieb:
So gesehen sind sie eigentlich nur Grafikkartenentwickler bzw. sogar nur GPU-Entwickler 😁
...oder bloß ein Smartphoneentwickler? Ich nenne Apple einen Smartphonehersteller und entsprechend eben auch AMD, Nvidia und Intel GPU-Hersteller.
Hier bewegen wir uns dann auch im Bereich der Haarspalterei...
w33werner schrieb:
Zum ersten Teil mach bitte keine Haarspalterei.
...dort hingegen noch lange nicht. Es ist wichtig die Rolle von Grafikkartenherstellern (Boardpartnern) vs GPU-Herstellern / Entwicklern klar abzutrennen. Genauso, wie zum Beispiel die Unterscheidung Lüfter vs Kühler enorm wichtig ist oder klarzustellen, dass der aktuelle Unterschied in Heatpipekühlung vs Wasserkühlung und nicht etwa in Luftkühlung vs Wasserkühlung besteht.
 
cloudman schrieb:
Über DisplayPort schon
bringt am Fernseher aber nix, die normalen Glotzen haben HDMI.
Ich beschreibe oben ja auch explizit HDMI und die 2.1 Seuche ohne 48Gbps.
 
w33werner schrieb:
Jetzt wird dreimal die praktisch gleiche Grafikkarte entwickelt
K3ks schrieb:
Aber ja, die Entwicklungs- und Ressourcenkosten sind immens.
Ihr vergesst, das ein Teil der intel GPUs so oder so entwickelt wird und als iGPU in den Prozessoren landet.

yoshi0597 schrieb:
Ich frage mich bis heute wieso es so lange dauert die A310 auf den Markt zu bringen….
Siehe Radeon RX 6300 = Markt wohl zu klein

K3ks schrieb:
Anstatt "F" kann man dann auch einfach ne CPU mit IGP nehmen.
Wobei im Desktop eher schwache iGPUs vertreten sind.

Ich bin gespannt, ab wann Raytracing auch bei intel in die iGPUs wandert, so wie bei AMD
 
CDLABSRadonP... schrieb:
Warum glaubst du das die Nachfrage nicht bedient werden kann?
Zb gehen die pc Verkäufe seit 6 Quartalen in Folge zurück
https://www.computerbase.de/2023-07/idc-apple-und-hp-trotzen-dem-schwachen-pc-markt/
Grafikkarten und Spielekonsolen werden mittlerweile auch weit unter UVP angeboten
Welche Nachfrage würde Intel denn bedienen die aktuell nicht bedient wird?
Wie gesagt dein Argument macht nur Sinn, wenn der Kuchen aufgrund von Intels Einstieg wesentlich größer wird. Nicht einfach nur anders verteilt wird. Dh einfach nur eine etwas schnellere Karte zu releasen bringt nicht viel da der Gesamtmarkt dadurch ja kaum wächst.
Die müsste schon DEUTLICH schneller sein. So ne Art iPhone Moment für Grafikkarten. Damit ganz neue käuferschichten angesprochen werden. Joar da bin ich gespannt ob Intel das noch hinbekommt.

Und zu sagen aber es gibt steigender Nachfrage nach ki… die hätte es auch ohne Intel gegeben, der Kuchen muss aufgrund von Intel größer werden sonst braucht es sie nicht.
 
Zuletzt bearbeitet von einem Moderator:
Fallout667 schrieb:
Bisschen spät...
Resterampe?
Wenn BTL echt erst Ende 2024 kommen soll, dann wundert es nicht.
Wenn der Preis stimmt, könnte die A580 aber im OEM PC richtig reinhauen.
 
Mickey Cohen schrieb:
wenn man denn eine apu hat...

Ja klar, den "kleinsten" dGPUs würde ich auch nie die existenzberechtigung absprechen, weil der onboard-HDMI keine ausreichende signalquali für 4k zu stande bringt :rolleyes:
Wenn man aber paar Jahre Mal einen kleinen Chip auf einer kleinen Platine bringt der die neusten de- und encoder mitbringt und so schnell oder eben etwas schneller als die igpus ist, dann ist das ja absolut legitim.
Ich sehe den Sinn nur nicht in Modellen wie der A580, 6600 oder 3600. Die sind ab Werk zu leistungsschwach für Spiele in anständiger Qualität, aber zu aufwändig und, ressourcenfressend und energieaufwändig für die basisaufgaben, die entweder die APU oder die kleinste GPU machen kann.
Eben weder Fisch noch Fleisch.
 
w33werner schrieb:
Dh höhere Preise da die Kosten pro Grafikkarte steigen.
Das wäre auch nur bei einem Hersteller der Fall.
 
Ich hatte eine Arc 770 für meinen zweit PC gekauft von ASRock, mit der Leistung war ich zufrieden und mit dem Preis damals auch, stammte aus einem Mindstar.
Was aber garnicht ging war die Lüftersteuerung der ASRock Karte, unnötig laut um die Karte bei ~65°C zu halten und den Rest haben dann die Intel Treiber versaut, denn es war nicht möglich die Kurve anzupassen und weiterhin 0dB Mode zu nutzen, mal davon ab das die Lüfter bei niedrigster Drehzahl schon deutlich hörbar waren ...
Also seit dem sind die ASRock Karten bei mir komplett raus, ob Sparkle da besser ist kp aber eine ASRock würde ich auch nicht mit einem AMD Chip kaufen ...
 
w33werner schrieb:
Warum glaubst du das die Nachfrage nicht bedient werden kann?
Zb gehen die pc Verkäufe seit 6 Quartalen in Folge zurück
https://www.computerbase.de/2023-07/idc-apple-und-hp-trotzen-dem-schwachen-pc-markt/
Grafikkarten und Spielekonsolen werden mittlerweile auch weit unter UVP angeboten
Welche Nachfrage würde Intel denn bedienen die aktuell nicht bedient wird?
Weil die Preise so hoch bleiben, kann die (dadurch schlafend gelegte) Nachfrage nicht bedient werden. Vielleicht nicht klassisches Wirtschafts-1x1, aber schon sehr nahe dran.
Und nein, sich ausschließlich daran zu orientieren, wie die UVPs gelagert sind, ergibt keinen Sinn. Aber selbst dort war der Fortschritt, den die CurrentGen gebracht hat, marginal:
https://www.3dcenter.org/news/news-des-14-september-2023
Sprich auch mit Preisen unterhalb der UVPs ist da nicht viel zu reißen. Dass die Karten sich überhaupt noch relativ gut verkaufen zeigt eben, wie hungernd der Markt ist. Zu normalen Preisen mit einer 4090 bei etwa 1000€, der 4080 bei etwa 500€ und der 4060 bei 250€ mit dem Datenblatt der aktuellen 4070ti wären die Regale leer, darauf kannst du Gift nehmen.

Zurück zu Intel: Alchemist gehört noch zur LastGen; Alchemist war bloß stark verspätet. Innerhalb der Miningkrise gelaunched hätte Alchemist ordentlich abstauben können. Jetzt ist Alchemist hingegen einfach eine LastGen-Architektur. Die Frage ist, ob Battlemage pünktlicher launchen wird --- und wo eigentlich Alchemist+ steckt...

w33werner schrieb:
Die müsste schon DEUTLICH schneller sein. So ne Art iPhone Moment für Grafikkarten. Damit ganz neue käuferschichten angesprochen werden. Joar da bin ich gespannt ob Intel das noch hinbekommt.
Ein iPhone-Moment ist ein Moment, indem man es schafft, ein absolut gesehen teures Produkt so zu platzieren, dass es gleichzeitig relativ gesehen günstig ist. Apple hatte das damals geschafft, weil sie die Kosten eines damaligen HighEnd-Smartphones und eines iPods zusammengelegt haben. Das ergab ein abartig teures (80$-Vertrag und 500$ Grundpreis) Gerät, aber natürlich war es lohnender, zu diesem zu greifen als zu den beiden einzelnen Geräten. Somit war das iPhone zum Erfolg verdammt.
Nvidia hatte den mit der ersten Titan, denn sie war zwar überteuert im Vergleich zur 680, doch bot eben massig FP64-Leistung. Wer diese brauchte, für den war sie dennoch ein Schnäppchen. Somit war die Titan zum Erfolg verdammt.

Mir fällt bei einem kurzen Brainstorm nichts außer AI-Units ein, wie Intel (oder auch AMD) aktuell ein reiner iPhone-Moment bei Grakas gelingen sollte. In diversen anderen Subbranchen der Hardwarebranche ist das problemlos möglich, insbesondere bei APUs, kann es den jederzeit geben. Oder bei Displays. Oder bei Kopfhörern. Oder bei SSDs.
 
Zurück
Oben