News Intel Arc: Partner soll Grafikkarte mit zweimal B580 und 48 GB planen

Vielleicht hat Intel einen Weg gefunden, mit dem sie die Probleme einer Dual-GPU in den Griff bekommen haben. Die forschen bereits seit längerem an besseren Treibern, vielleicht gibt es aus dieser Forschung heraus "Nebenprodukte", aus deren Existenz sich diese Meldung ableitet.
 
  • Gefällt mir
Reaktionen: Mcr-King und Alphanerd
Cool Master schrieb:
Dual GPU in 2025? Wenn die Probleme von AMD und Nvidia nicht gelöst werden konnten wird das Intel erst recht nicht packen...
Die ist ja nicht zum zocken gedacht.
Neodar schrieb:
Es haben sich im Laufe der Geschichte schon viele Menschen an ein und derselben Sache versucht und sind gescheitert, bis irgendwann jemand mit einem anderen Ansatz bzw. neuen Ideen kam und es hinbekommen hat.
Alle sagten es sei unmöglich.

Bis einer kam, der das nicht wusste und es einfach gemacht hat.
 
  • Gefällt mir
Reaktionen: Mcr-King, konkretor und LETNI77
opoderoso schrieb:
Einfach nur hää wofür
Für Gaming Müll bzw. nicht gedacht, für KI Anwendungen geht an Nvidia eh nichts vorbei.

oh man
Simonte schrieb:
Ich bezweifele es. Wahrscheinlich ist das tatsächlich richtig geschrieben und es war "für Gaming Müll" und nicht etwa "für Gaming-Müll" / "für Gamingmüll" gemeint.
Und das stimmt ja auch. Multi-Graka ist genau wie Multi-CPU für den Gamingeinsatz nicht geeignet. (bzw. nicht mehr, die Verfahren wie ScanLineInterleave oder auch MultiGPU-AA sind ja nicht mehr einsetzbar)
 
  • Gefällt mir
Reaktionen: Simonte
@Alphanerd

Das ist klar, ändert aber nichts an den Problemen die nach wie vor nicht gelöst sind und ich bleibe dabei, auch nicht werden ;) Wenn Intel liefert bin ich auf jeden Fall bereit meine Meinung zu ändern aber ich bezweifele es eben sehr stark.
 
  • Gefällt mir
Reaktionen: Alphanerd
Cool Master schrieb:
Weil die Fakten dagegensprechen:
  • Die nicht lineare Skalierung von Dual GPUs --> Im besten Fall sieht man hier 30-70% bei den in der Regel doppelten Kosten.
Das muss nicht so sein und kommt auf die Rendertechnik an. Das interessante ist eigentlich dass es jetzt in Richtung Path Tracing geht, was nahezu perfekt parallelisiert werden kann. Da wird man auf einen Schlag die ganzen dependencies los die einem bisher im weg standen und kann einfach stumpf die zweite GPU die hälfte der Pixel tracen lassen.
Cool Master schrieb:
  • Moderne Spiele und Anwendungen unterstützen keine Multi Dual-GPU-Setups mehr. Gehen wir mal davon aus das alles perfekt geht und Intel es wie mit Magie hinbekommt. Es gibt keine Spiele die das nutzen können. Ergo ein Produkt ohne Einsatzzweck.
Die Spiele folgen sobald Nvidia/AMD die Treiber dafür herbeizaubern
Cool Master schrieb:
  • Bekannte Probleme wie Microruckler & Latenz. AMD und Nvidia hatten und haben die Top-Leute dafür wenn die es nicht packen wird es keiner packen. Vor allem haben die zwei da schon zig Millionen wenn nicht Milliarden R&D reingesteckt von den Personenstunden will ich erst gar nicht sprechen.
Microruckler sind nur ein Problem bei AFR, was bei path tracing eh nicht der beste Modus wäre
Cool Master schrieb:
  • Dual GPU ist alte Technik die Zukunft liegt in MCM-Designs (Multi-Chip-Module) siehe CPUs.
Naja man könnte jetzt behaupten dass ist nur Definitionsfrage. Im Prinzip ist ja nur die Interposer Geschwindigkeit eine andere.
Fakt ist aber auch es gibt keine Consumer GPU mit echtem MCM (mehrere compute tiles) auf dem Markt. Und wenn die Packaging Kapazität weiterhin so von AI aufgefressen wird, werden die MCM Karten nicht so schnell kommen
 
  • Gefällt mir
Reaktionen: Mcr-King
Cool Master schrieb:
Als Privatperson ok, kann ich nachvollziehen und verstehen aber sobald das für Unternehmen passiert juckt das Geld nicht. Die Nachteile welche Dual GPU mitbringen sind locker einmalig 5000 € mehr wert wenn ich dadurch weniger debuggen muss oder downtime habe.
Grundsätzlich stimme ich dir da schon zu, aber es gibt sicherlich Anwendungsfälle wo so eine Dual-GPU (entsprechend bepreist) trotzdem Sinn ergibt:
Als kleines Startup macht es dann doch einen Unterschied ob die Grafikkarten für zehn Workstations je 5700€ oder nur ~1000€ kosten (ohne Zahlen für diese Dualgpu zu kennen.)
Ggf. hat man sogar die entsprechenden Workloads um von mehreren GPUs im Rechner profitieren zu können. z.B. eine GPU exklusiv für einen lokal laufenden, auf die Branche spezialisierten KI-Chatbot/Assistenten + weitere GPU für regelmäßige Rendering-Tasks.
 
  • Gefällt mir
Reaktionen: Mcr-King
Mit Frame Generation gibt es ja mittlerweile eine Technologie, welche Frames abwechselnd aus komplett unterschiedlichen Recheneinheiten mit guten Frame-Paceing liefern kann. Hat NV herzu bei RTX5000 mit Flip-Metering sogar dezidierte HW auf den Chips?
Ich würde es nicht für komplett ausgeschlossen halten, dass man darauf basierend vielleicht endlich ein Alternate-Frame Rendering auf einer Dual-GPU mit brauchbaren Frame-Paceing hin zu bekommen ist.

Außerdem muss sich bei zukünftigen MCM-GPUs auch erst noch zeigen, ob sich diese wie eine einzige GPU verhalten dank extrem schneller Inerconnects, oder ob nicht doch verbleicht auf Techniken aus der Multi-GPU Zeit (Alternate-Frame, interlaceed, tile-based, etz.) zurueck gegriffen werden muss.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich finde es geil wenn die echt eine Dualkarte ausprobieren. Kommt nur drauf an wie sie es umsetzen können.
Am ende weiß einer ob es geht oder nicht.
 
Cool Master schrieb:
Dual GPU in 2025? Wenn die Probleme von AMD und Nvidia nicht gelöst werden konnten wird das Intel erst recht nicht packen...
Welche Probleme, wen es sich wie im Artikel erwähnt um eine reine profesionelle Lösung handelt? Computing, AI, Rendern von Content, 3D modellen... ? Das ist ja nicht alle zwingend Zeitkritisch.

Auch GeForce GPUs solle ja nicht nur fürs Spielen eingesetzt werden. Und gerade deshalb soll es bestimmte GPUs nur mit kastrierten Speicher geben, damit mit für profesionelle Lösungen upgradet!

Also 5090 soll angeblich bei Content Creatoren beleibt sein, zu gleich alternativ los?! Da bin ich aber zu wenig in der Materie. Aber ich weiß zumindest das man GPUs nicht nur zu Spielen sinvoll einsetzen kann.
 
Cool Master schrieb:
Das ist korrekt die vorhandene Software ist aber überall aktuell auf Single-GPU ausgelegt. I

Große K.I. Modelle können ohne Probleme auf mehren GPUs berechnet werden. Wir haben hier dutzende H100 Karten mit mehren GPUs pro Board, die mit Frameworks wie PyTorch und TensorFlow auf mehren Karten an einem Modell gleichzeitg arbeiten. Da kann man ohne Probleme Data Parallelism oder Model Parallelism auf mehren GPUs gleichzeitg rechnen lassen.
 
  • Gefällt mir
Reaktionen: konkretor
@lynx007

Einige Punkte schrieb ich schon in #25.

@input_iterator

Das schrieb ich doch, dass das kein Problem ist. Erneut es geht nicht um Multi GPU. Das ist kein Problem. Es geht um Dual-GPU ergo zwei GPUs auf einer Platine. Korrigiere mich wenn ich falsch liege aber die H100 ist eine Single GPU auf einem Single PCB. Vor allem wird die ganze andere Features haben als eine B580 alleine schon CUDA ist für viele DAS Verkaufsargument. Zudem reden wir hier über eine Karte die ~25.000 € kostet und die Intel wird eher ein Bruchteil davon kosten, sollte sie überhaupt kommen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Cool Master schrieb:
Weil die Fakten dagegensprechen:
  • Die nicht lineare Skalierung von Dual GPUs --> Im besten Fall sieht man hier 30-70% bei den in der Regel doppelten Kosten.
  • Dual-GPU-Systeme bieten typischerweise eine 30-70%ige Skalierung, aber in professionellen Workflows (wie Rendering, Deep Learning, Simulationen) kann dies zu signifikanten Zeitersparnissen und Produktivitätssteigerungen führen, was die höheren Kosten pro Leistungseinheit rechtfertigt.
  • Vergleich zu Nvidia:
    • Nvidia A100 (z.B. für AI-Training) kostet deutlich mehr als ein Dual-GPU-Setup. Zwei Intel B580 GPUs könnten, je nach Skalierung, eine vergleichbare oder sogar bessere Leistung zu günstigeren Kosten liefern.
    • Nvidia Quadro und Tesla-GPUs (wie A100, V100) kosten häufig das Doppelte oder mehr im Vergleich zu einem Dual-GPU-Setup, bieten jedoch oft auch keine lineare Skalierung. Im professionellen Bereich ist es wirtschaftlicher, auf Dual-GPUs zu setzen, wenn die Software dies unterstützt, da der ROI (Return on Investment) in vielen Fällen besser ist.

Cool Master schrieb:
  • Moderne Spiele und Anwendungen unterstützen keine Multi Dual-GPU-Setups mehr. Gehen wir mal davon aus das alles perfekt geht und Intel es wie mit Magie hinbekommt. Es gibt keine Spiele undAnwendungen die das nutzen können. Ergo ein Produkt ohne Einsatzzweck.
  • In professionellen Anwendungen wie 3D-Rendering, AI-Training, Simulationen und wissenschaftlichen Berechnungen wird Multi-GPU weiterhin unterstützt und bietet Vorteile, insbesondere bei Dual-GPUs.
  • Vergleich zu Nvidia:
    • Bei Nvidia's Quadro RTX 8000 oder A100-Lösungen ist die Skalierung oft begrenzt und teuer. Ein Dual-GPU-Setup mit der Intel B580 könnte dieselbe Leistungssteigerung zu viel geringeren Kosten bieten, insbesondere wenn die Software gut auf Multi-GPU-Setups optimiert ist.


Cool Master schrieb:
  • Bekannte Probleme wie Microruckler & Latenz. AMD und Nvidia hatten und haben die Top-Leute dafür wenn die es nicht packen wird es keiner packen. Vor allem haben die zwei da schon zig Millionen wenn nicht Milliarden R&D reingesteckt von den Personenstunden will ich erst gar nicht sprechen.
  • Teilweise richtig: Microruckler und Latenz sind in Spielen ein Thema, aber in professionellen Anwendungen spielt dies meist eine geringere Rolle, da diese Workflows nicht auf absolute Flüssigkeit angewiesen sind.
  • Vergleich zu Nvidia:
    • Nvidia investiert massiv in SLI-Lösungen, doch auch deren NVLink hat nicht immer perfekte Skalierung. Der Vorteil von Dual-GPUs (wie bei der Intel B580) in professionellen Anwendungen kann die Kosten deutlich besser rechtfertigen, selbst bei suboptimaler Skalierung.
    • Nvidia’s Quadro RTX-Serie und Tesla A100 bieten in vielen Fällen nicht den doppelten ROI im Vergleich zu Dual-GPU-Setups, was bedeutet, dass die Intel B580-Lösung kosteneffizienter ist, selbst bei nicht perfekter Skalierung.

Cool Master schrieb:
  • Dual GPU ist Nische. Intel brauch Marktanteile das macht man nicht mit Experimenten sondern soliden Karten mit gutem Support.
  • Falsch: Dual-GPUs sind eine Nische im High-End-Professionalbereich, aber sie bieten mehr Leistung für spezialisierte Anwendungen wie Deep Learning, 3D-Rendering und Simulationen.
  • Vergleich zu Nvidia:
    • Nvidia Quadro RTX und Tesla-GPUs sind für den professionellen Markt sehr teuer, aber bieten keine linear skalierenden Leistungsgewinne bei einem Dual-GPU-Setup. Die Intel B580 könnte eine bessere Leistung pro Dollar bieten, insbesondere in Szenarien, in denen eine Multiple-GPU-Nutzung möglich ist.
    • Während Nvidia auf MCM setzt, ist die Dual-GPU-Architektur kostengünstiger und könnte für viele Anwendungen die bessere Lösung bieten, auch ohne perfekte Skalierung.

Cool Master schrieb:
  • Leistungsaufnahme und Hitzeentwicklung...
  • Richtig: Dual-GPU-Systeme verbrauchen mehr Strom und erzeugen mehr Wärme, was in großen Workstations oder Rechenzentren berücksichtigt werden muss.
  • Vergleich zu Nvidia:
    • Nvidia A100 und Quadro RTX 8000 haben ebenfalls hohe Leistungsaufnahme und erzeugen viel Wärme. Allerdings kosten diese GPUs deutlich mehr, und die Dual-GPU-Lösung von Intel könnte die gleiche Leistung zu geringeren Kosten bei ähnlicher Leistungsaufnahme bieten.
    • In vielen professionellen Workflows ist es daher oft wirtschaftlicher, mehrere günstigere Dual-GPU-Systeme zu nutzen, anstatt auf hochpreisige Nvidia-Alternativen zu setzen, die dieselbe Leistung bei höheren Kosten bieten.

Cool Master schrieb:
  • Dual GPU ist alte Technik die Zukunft liegt in MCM-Designs (Multi-Chip-Module) siehe CPUs.
Kann sein, dass ich noch ein oder zwei Punkte vergessen habe aber das sollte es auf den Punkt bringen warum das eine völlig blöde Idee ist.
  • Teilweise richtig: MCM (Multi-Chip-Module) wird definitiv als die Zukunft der GPU-Architektur betrachtet, ähnlich wie bei CPUs. AMD setzt hier mit ihrer Chiplet-Architektur bereits an, und auch Intel könnte in Zukunft auf MCM-Designs für GPUs setzen.
  • Aber: Dual-GPUs sind nicht unbedingt obsolet – sie könnten nach wie vor in spezifischen Szenarien sinnvoll sein, solange MCM noch nicht vollständig etabliert ist.
Die Einführung der B580 Dual-GPU durch Intel ist eine strategische Entscheidung, die auf Diversifikation abzielt. Im professionellen Markt gibt es eine klare Nachfrage nach Lösungen, die hohe Leistung bei kontrollierbaren Kosten bieten – eine Lücke, die Nvidia’s teurere Produkte nicht immer füllen können. Durch die Kombination von zwei GPUs auf einer Karte könnte Intel einen kostengünstigeren Zugang zu Rechenzentren und High-Performance-Workloads schaffen, wo Effizienz und Skalierbarkeit gefragt sind.
 
  • Gefällt mir
Reaktionen: Mcr-King
Cool Master schrieb:
@lynx007

Einige Punkte schrieb ich schon in #25.

@input_iterator

Das schrieb ich doch, dass das kein Problem ist. Erneut es geht nicht um Multi GPU. Das ist kein Problem. Es geht um Dual-GPU ergo zwei GPUs auf einer Platine.

Ich habe Dich schon verstanden. Man kann die H100 als Single Chip bekommen das ist richtig. Wir haben hier vier GPUs pro Platine. Maximal 8 Stück sind möglich. Die Preise sind alle abhängig von der Config. Man kauft zudem auch nicht nur die Hardware, sondern das ganze drumherum, mit Software, Anpassung, Wartung,

Mal ein kleines Beispiel:

WIr haben hier drei Cluster mit je 36 Karten (H100). Dazu kommen dann noch die einzelnen Hosting Server (neuen Stück), NV Link und Switch Infrastruktur. Für den vollen Software Support bekommt Nvidia pro Jahr um die 90.000 Euro an Lizenzgebühren für die kompletten GPUs im Cluster, plus die Mangment Tools. Für die Wartung hält Nvidia extra noch mal die Hand auf. Pro Cluster sind wir da im siebenstelligen Bereich.

Die ganzen Kosten für den Betrieb und das Personal was hier im HPC Zentrum herumläuft nicht mitgerechnet. Das alles nur auf die Karten herunterzubrechen wird dem da nicht gerecht. Schon wieder Off Topic.
 
Zuletzt bearbeitet: (Interprunktion hinzugefügt.)
Shririnovski schrieb:
Naja mit 2 GPUs und 48GB VRAM liefert Intel damit etwas, das für AI durchaus relevant sein kann, gerade wenn es günstiger bleibt als Lösungen der Konkurrenz mit vergleichbar viel VRAM.

Für Gaming ist das aktuell sicher nicht gedacht.

Das dachten viele bei dieser 8500GT damals auch.


Aber:

Wenn Sie sich jetzt wundern, was eine Einsteiger-Grafikkarte mit einer solchen Menge an Videospeicher anfangen soll: Einerseits sind hohe Zahlen auf jedweder Verpackung natürlich verkaufsfördernd, andererseits gibt es besonders im asiatischen Raum einige MMORPGs, welche zwar keine hohen Anforderungen an die Grafikkarte stellen, aber enorme Mengen an VRAM bsw. durch eigene Charaktertexturen belegen.



Aus dem Weg, deutsche Gering-VRAMler! :D
 
Yes, 2025 - die Rückkehr der Mikroruckler. :evillol:
Schon rein aus Neugier würde ich freuen wenn eine Dual GPU Karte erscheint und getestet wird.
Außerdem, wenn nicht zwischendurch auch mal was blödes entwickelt wird, geht irgendwann der Nachschub an Artikeln für die Rubrik "Im Test vor 15 Jahren" aus. Was soll ich dann im Jahr 2040 am Wochenende zum Frühstück lesen???
 
Ich hatte mal eine R9 295X2 fürs Mining. Das Teil war eine Macht.
Konnte man auch gut als Heizung nutzen :D
 
Cool Master schrieb:
Weil die Fakten dagegensprechen:
  • Die nicht lineare Skalierung von Dual GPUs --> Im besten Fall sieht man hier 30-70% bei den in der Regel doppelten Kosten.
  • Moderne Spiele und Anwendungen unterstützen keine Multi Dual-GPU-Setups mehr. Gehen wir mal davon aus das alles perfekt geht und Intel es wie mit Magie hinbekommt. Es gibt keine Spiele undAnwendungen die das nutzen können. Ergo ein Produkt ohne Einsatzzweck.
  • Bekannte Probleme wie Microruckler & Latenz. AMD und Nvidia hatten und haben die Top-Leute dafür wenn die es nicht packen wird es keiner packen. Vor allem haben die zwei da schon zig Millionen wenn nicht Milliarden R&D reingesteckt von den Personenstunden will ich erst gar nicht sprechen.
  • Dual GPU ist Nische. Intel brauch Marktanteile das macht man nicht mit Experimenten sondern soliden Karten mit gutem Support.
  • Leistungsaufnahme und Hitzeentwicklung...
  • Dual GPU ist alte Technik die Zukunft liegt in MCM-Designs (Multi-Chip-Module) siehe CPUs.
Kann sein, dass ich noch ein oder zwei Punkte vergessen habe aber das sollte es auf den Punkt bringen warum das eine völlig blöde Idee ist.
Stimmt allerdings nicht ganz; bei 2 GPUs, jede davon in ihrem PCIE Slot gab es ja die Mikroruckler, und mit der Konfiguration würde ich auch ähnliches erwarten. Wenn aber zwei GPU Dies auf demselben Board einer Karte stecken, und dann auch noch das VRAM entsprechend verwaltet wird und Compute Aufgaben genau koordiniert werden, geht das uU schon. Vor allem wenn's nicht bzw nicht primär um mehr FPS in Spielen geht. AMD hatte ja mal eine Radeon Pro im Programm, die genau so (2 Dies auf einem Board/in einer Karte) aufgebaut war; allerdings war die damals nur in Apples Mac Pros erhältlich.
Und wenn's um, ja, KI geht: 48 GB VRAM könnten schon interessant sein. Ganz ohne Tools ist Intel da auch nicht - Open Vino!
 
  • Gefällt mir
Reaktionen: konkretor
@konkretor Interessantes Patent! Wenn an dem (bis jetzt) Gerücht einer 2 x B580 GPU was dran ist, muß IMHO Intel in irgendeiner Form mit im Boot sein. Eine GPU mit mehreren Dies auf dem selben Board wirklich zum Laufen zu bringen ist nochmal eine gute Ecke spezialisierter als ein CPU Multisockel Board das NUMA kann, und selbst da braucht es zumindest aktives Wohlwollen des CPU Herstellers.

Leicht OT: ich hätte sowas eigentlich von AMD erwartet, denn die haben ja Erfahrungen mit solchen GPUs (Radeon Pro für Mac), und mit einer Radeon Pro mit 2 x 9070XT Dies könnten sie ihren professionellen Anwendern auch high-end RDNA4 Karten anbieten.
 
@eastcoast_pete nicht vergessen das damals Koduri so einige Mitarbeiter von AMD zu Intel mitgenommen hat. Das ist nicht unüblich. Solche Umsetzungen könnte ja sehr unterschiedlich sein. Lassen wir uns überraschen was da genau kommt.
 
  • Gefällt mir
Reaktionen: eastcoast_pete
Zurück
Oben