Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel Arc: Partner soll Grafikkarte mit zweimal B580 und 48 GB planen
Woher nimmst du diese Gewissheit?
Es haben sich im Laufe der Geschichte schon viele Menschen an ein und derselben Sache versucht und sind gescheitert, bis irgendwann jemand mit einem anderen Ansatz bzw. neuen Ideen kam und es hinbekommen hat.
Warten wir doch erstmal ab, ob und was da kommt und schauen dann weiter.
Seltsame Meinung hier. Intel braucht Umsatz und Marktanteil. Mit den Gewinnen fällt dann auch etwas für die Spieler ab. Für Anwendungen mit VRAM Bedarf ist es doch ok. MGPU leidet nicht überall an den bekannten Nachteilen.
Für VDI Anwendung super, da keine Lizenz benötigt wird, Nvidia verlangt hier ordentlich Geld.
Platz spart es im Gehäuse auch noch je nach Ausführung der Kühllösung
Bin mal gespannt welcher Boardpartner sich auf das Abenteuer einlässt.
Nehmt endlich die Gaming Brille ab. GPU ist nicht nur irgendwelche Spiele zocken . So schlecht sind die Treiber auch nicht mehr. Meine Indie Spiele laufen alle ohne Probleme.
Die nicht lineare Skalierung von Dual GPUs --> Im besten Fall sieht man hier 30-70% bei den in der Regel doppelten Kosten.
Moderne Spiele und Anwendungen unterstützen keine Multi Dual-GPU-Setups mehr. Gehen wir mal davon aus das alles perfekt geht und Intel es wie mit Magie hinbekommt. Es gibt keine Spiele undAnwendungen die das nutzen können. Ergo ein Produkt ohne Einsatzzweck.
Bekannte Probleme wie Microruckler & Latenz. AMD und Nvidia hatten und haben die Top-Leute dafür wenn die es nicht packen wird es keiner packen. Vor allem haben die zwei da schon zig Millionen wenn nicht Milliarden R&D reingesteckt von den Personenstunden will ich erst gar nicht sprechen.
Dual GPU ist Nische. Intel brauch Marktanteile das macht man nicht mit Experimenten sondern soliden Karten mit gutem Support.
Leistungsaufnahme und Hitzeentwicklung...
Dual GPU ist alte Technik die Zukunft liegt in MCM-Designs (Multi-Chip-Module) siehe CPUs.
Kann sein, dass ich noch ein oder zwei Punkte vergessen habe aber das sollte es auf den Punkt bringen warum das eine völlig blöde Idee ist.
Da Vinci Resolve in den entsprechend hohen Auflösungen wie ich sie editiere sind für die Echtzeit Effektbearbeitung definitiv die 48GB von Nöten. Vielleicht mehr. Solange er dann 2 Karten als 4 GPUs erkennt und auch benutzt.. wäre eine große Hilfe.
Und in den idle zeiten läuft halt F@H drauf oderso. Dann hoffentlich auch auf allen 4 Chips. Nur wenn das alles klar ist schlage ich zu
@Cool Master weil ich es gerade gesehen habe.. Resolve nimmt 8 GPUs und fungiert in dem Fall dann pro frame als Teiler sodass effekte zusammen und schneller berechnet werden können. Auch skaliert multiinstanz und Batchverarbeitung in Programmen wie DxO und affinity mit mehreren GPUs solange man genug CPU hat^^
Also selbst für den prosumer ist genügend Option da
Find ich super.
Endlich tobt sich mal wieder wer aus und macht was besonderes.
Ist es sinnvoll? Kommt auf den Anwendungsfall an.
Ist es cool? Aber sowas von.
Wurde das auch mit Dual GPU getestet? Glaube ich eher weniger. Ich glaube das wird sicherlich bei einzelnen GPUs der Fall sein und da kann ich mir das auch vorstellen Dual GPU war aber schon immer nur bis ca. 70% skalierbar. Wenn es aber so sein sollte ok, super, ein Anwendungsfall wo es gut skaliert ändert nichts an den anderen Problemen
Edit:
Eben gesehen das ich Multi-GPU geschrieben habe! Es war natürlich Dual-GPU gemeint.
dit: ps. so etwas hätte ich mir schon bei AMD gewünscht -> eine 9070 mit 32GB und dann als 2er mit 64GB könnte auch reißenden Absatz liefern. Na mal sehen, vielleicht ja als Radeon Pro Dual. Wobei da der Preis dann doch deutlich höher sein wird.
Naja mit 2 GPUs und 48GB VRAM liefert Intel damit etwas, das für AI durchaus relevant sein kann, gerade wenn es günstiger bleibt als Lösungen der Konkurrenz mit vergleichbar viel VRAM.
Für Gaming ist das aktuell sicher nicht gedacht.
Wobei auch das nicht in Stein gemeißelt sein muss. AMD und NVidia haben MultiGPU beerdigt, nur um kurz darauf mit Freesync und GSync eine Technologie zu bringen, die das Potential haben könnte, um Mikroruckler zu eliminieren oder zumindest besser unter Kontrolle zu bringen.
In jedem Fall finde ich es spannend, dass es bei Intel im Bereich GPU Bewegung gibt.
Naja mit 2 GPUs und 48GB VRAM liefert Intel damit etwas, das für AI durchaus relevant sein kann, gerade wenn es günstiger bleibt als Lösungen der Konkurrenz mit vergleichbar viel VRAM.
Alles was hilft das Duopol (faktisch Monopol) im Grafikkartenmarkt wenigstens etwas in Bewegung zu bringen, sollte uns als Konsumenten recht sein. Dass die vorgestellten Grafikkarten sehr wahrscheinlich keine Daseinsberechtigung fürs Gaming haben ist doch erstmal latte, wenn damit kleine Erfolge im Enterprisesegment erzielt werden können, kann sich die Grafikkartensparte bei Intel schlicht besser rechtfertigen.
Tja - nicht auf Gamerbase, wo zu jeder vorgestellten CPU oder GPU als ersten die Frage kommt 'Wie performt das Teil denn mit Indianer Jones (sic) und Pathtracing?'
Für den Gamingbereich mag das zutreffen, vermutlich aber nicht für KI:
Ich stecke nicht so tief drinnen, aber soweit ich weis lassen sich im KI-Bereich große AI-Models unter bestimmten Vorraussetzungen auf mehrere GPUs splitten und so lässt sich dann wohl auch der nahezu volle VRAM nutzen.
Für eine Karte mit 48GB VRAM zahlst du ansonsten mehrere tausend Euro (eine aktuelle RTX PRO 5000 Blackwell kostet z.B. 5700€ und selbst eine ältere AMD PRO W7900 kostet 3350€). Da ist also genügend "Luft nach unten." Wenn Intel so eine Karte deutlich günstiger anbieten kann wird die sicherlich ihre Abnehmer finden, trotz eventueller Nachteile durch die dualgpu.
Wie gesagt zu viele Nachteile für ein bis zwei Vorteile. Skalierbarkeit war schon immer ein Problem bei Dual-GPUs und auch einer der Gründe warum die sich nie durchgesetzt haben. Ich habe das Gefühl, dass bei vielen hier im Thread viel durch die Nostalgie-Brille gesehen wird und nicht die Realität
Xes schrieb:
Ich stecke nicht so tief drinnen, aber soweit ich weis lassen sich im KI-Bereich große AI-Models unter bestimmten Vorraussetzungen auf mehrere GPUs splitten
Das ist korrekt die vorhandene Software ist aber überall aktuell auf Single-GPU ausgelegt. Ich komme aus der SW Entwicklung und viele unterschätzen einfach was für ein Aufwand Dual-GPU war und ist. Es müsste im Prinzip alles umgeschrieben werden für ein Szenario was von maximal 5% der User genutzt wird. Das wird eher nicht passieren.
Xes schrieb:
Für eine Karte mit 48GB VRAM zahlst du ansonsten mehrere tausend Euro (eine aktuelle RTX PRO 5000 Blackwell kostet z.B. 5700€ und selbst eine ältere AMD PRO W7900 kostet 3350€). Da ist also genügend "Luft nach unten." Wenn Intel so eine Karte deutlich günstiger anbieten kann wird die sicherlich ihre Abnehmer finden, trotz eventueller Nachteile durch die dualgpu.
Als Privatperson ok, kann ich nachvollziehen und verstehen aber sobald das für Unternehmen passiert juckt das Geld nicht. Die Nachteile welche Dual GPU mitbringen sind locker einmalig 5000 € mehr wert wenn ich dadurch weniger debuggen muss oder downtime habe. Wie schon gesagt wurde an AMD und Nvidia kommt im Bereich KI aktuell eh niemand dran außer ASIC-Projekte.