Bei AI oft uninteressant, wenn du keine eigenen Modelle trainieren willst.Ivoricalad schrieb:@Ayo34 ist richtig denen fehlt aber leider etwas anderes... Rechenleistung jede menge Rechenleistung![]()
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Intel Arc Pro B60 & B580?: Battlemage-Grafikkarte mit 24 GB GDDR6 erwartet
- Ersteller MichaG
- Erstellt am
- Zur News: Intel Arc Pro B60 & B580?: Battlemage-Grafikkarte mit 24 GB GDDR6 erwartet
ebird
Lt. Commander
- Registriert
- Feb. 2008
- Beiträge
- 1.070
Das ist einfach falsch. Eine 24GB 5090 wird langsamer sein, wenn das Modell nicht in den Speicher passt, Da wird 3x B60 in den meisten Fällen erheblich schneller sein. Gerade ML lässt sich super parallelisieren. Das hat AMD Eindrucksvoll mit mit dem AI 395+ mit 128GB Speicher gezeigt. Bei Maximal 120Watt erreicht man 2-3fache Leistung im Vergleich zu einer 5090, obwohl diese 3-5mal so schnell ist.Ivoricalad schrieb:@Ayo34 ist richtig denen fehlt aber leider etwas anderes... Rechenleistung jede menge Rechenleistung![]()
Um die Leistung auszunutzen, müsste man kleinere Modelle nutzen, was auch erheblich schlechtere Ergebnisse liefert, oder halt dann auch den Speicher erhöhen mit 3x 5090, was den Preis und den Unterhalt ins astronomische katapultiert.
ebird
Lt. Commander
- Registriert
- Feb. 2008
- Beiträge
- 1.070
Du hast ja eine Ahnung. Schon bei destillierten Modellen benötigt man schon sehr viel Speicher um vernünftige Ergebnisse zu bekommen. Die Kleinen Modelle sind eher Mau.AAS schrieb:Bei AI oft uninteressant, wenn du keine eigenen Modelle trainieren willst.
Diese 24GB GPU wird mit Sicherheit eine 5080 oder 9070 mit 16 GB abziehen, wenn das Modell nicht in den Speicher passt. Und bei Multi GPU Setup verliert man maximal 30% Leistung pro GPU, da KI Berechnungen gut parallelisierbar sind. Bei nur 3-4 GPUs wird es sogar unter 20% liegen. Und lege dir mal 4x4/5090 an.
MalWiederIch
Commander
- Registriert
- März 2023
- Beiträge
- 2.488
Nein, denen fehlt selbstverständlich wirklich die Rechenleistung - nur benötigt man die idR nicht für KI-Anwendungen.ebird schrieb:Das ist einfach falsch.
Den Stromverbrauch zu vergleichen macht daher auch überhaupt keinen Sinn - wer 72GB VRAM benötigt wird keine 5090 kaufen, wer die Rechenleistung benötigt wird keine 3 B60 kaufen …
Ergänzung ()
Am Thema vorbei …seine Aussage war, dass man die Rechenleistung (nicht den Speicher) nicht benötigt, sofern man keine eigenen Modelle trainieren will - womit er ja auch recht hat.ebird schrieb:Du hast ja eine Ahnung. Schon bei destillierten Modellen benötigt man schon sehr viel Speicher um vernünftige Ergebnisse zu bekommen. Die Kleinen Modelle sind eher Mau.
Fight for Right
Lieutenant
- Registriert
- Juli 2008
- Beiträge
- 555
LOL 24GB aber dann 192 Bit interface Pfffffff
Nur 12GB mit 192 Bit Interface sind natürlich viel besserFight for Right schrieb:24GB aber dann 192 Bit interface
War genau mein Gedanke, dafür nutze ich "Offline"Ki Modelle schon gerne, es bräuchte nur. Modelle die dann auf die Speichergrößen optimiert sindebird schrieb:Die sollen den Idle verbrauch auf unter 5Watt drücken, dann wird es schon seine Käufer finden. Aber so bietet es weder Leistung noch Sparsamkeit. Ich hätte gerne eine 24GB Karte im Mini Server für lokale Sprachassistenten und ähnlichem. Die Leistung muss nur hoch genug sein, dass die Verarbeitung unter 1 Sekunde passiert. Allerdings darf die GPU dann im Idle nicht viel verbrauchen.
ebird
Lt. Commander
- Registriert
- Feb. 2008
- Beiträge
- 1.070
Wieso? Wenn die 3 die Leistung der 5090 halbwegs erreichen, dann sind die drei definitiv die bessere Wahl.MalWiederIch schrieb:Nein, denen fehlt selbstverständlich wirklich die Rechenleistung - nur benötigt man die idR nicht für KI-Anwendungen.
Den Stromverbrauch zu vergleichen macht daher auch überhaupt keinen Sinn - wer 72GB VRAM benötigt wird keine 5090 kaufen, wer die Rechenleistung benötigt wird keine 3 B60 kaufen …
Ergänzung ()
Klar ist die Rechenleistung auch wichtig. Hast Du schon mal irgendwelche Sprachmodelle auf der CPU gesehen? Da sieht man die einzelnen Wörter aufpoppen im Sekundentakt, trotz 192GB RAM.MalWiederIch schrieb:Am Thema vorbei …seine Aussage war, dass man die Rechenleistung (nicht den Speicher) nicht benötigt, sofern man keine eigenen Modelle trainieren will - womit er ja auch recht hat.
Tja, wie nVidia Quadro und AMD Radeon Pro ist auch diese Intel-Karte nicht für Spieler gedacht.AGB-Leser schrieb:Für Spieler dann wohl ungeeignet
Hier geht es um Arbeitspferde nicht Rennpferde...
Es gibt keine 24GB 5090, die hat 32GBebird schrieb:Eine 24GB 5090 wird langsamer sein, wenn das Modell nicht in den Speicher passt
Kane_lives!
Cadet 1st Year
- Registriert
- Mai 2025
- Beiträge
- 13
ghecko schrieb:Cool, Intels 8800GT.
Hoffentlich nicht zu teuer, im Endkundenmarkt würde die sicher auch ihre Abnehmer finden, wenn sie nicht unerträglich laut ist
Da glaube ich eher an den Weihnachtsmann.AAS schrieb:Ich hoffe da immer noch auf das EU-Kartellamt.
https://www.heise.de/news/Frankreich-will-gegen-Nvidias-KI-Dominanz-vorgehen-9790187.html
Fablos
Cadet 4th Year
- Registriert
- Juni 2014
- Beiträge
- 64
Die A60 war ne 600€ Listen Karte... Und dazu auch noch Unobtanium, bin also mal gespannt ob man die Karte überhaupt in die Hand bekommen kann oder ob ich wieder n Halbes Jahr+ auf so ne GPU Warten darfpmkrefeld schrieb:Wenn die bezahlbar ist, könnte Intel hier richtig abräumen.
aLanaMiau
Lt. Commander
- Registriert
- Jan. 2023
- Beiträge
- 1.271
Intel sollte auf Basis der GPUs "AI-Karten" herstellen mit viel VRAM zu günstigen Preisen. Denke das wäre eine wirkliche Lücke am Markt. Den Softwarestack opensource von der Community pflegen lassen, 96GB für ein paar hundert Euro würden mehr als genug Leute (und Unternehmen) anziehen.
@Xedos99 Die reine Stromaufnahme für sich genommen ist völlig irrelevant. Wichtig ist nur, Leistung pro Watt. Und auch wenn eine 5090 viel Schluckt, ist sie dennoch extrem effizient.
Das hat AMD auch schon seit Jahren versucht und scheitert immer wieder. Intel dürfte mehr Kapazitäten mitbringen. Aber so festgesetzt CUDA aktuell ist, wird das mehr als nur eine Mammutaufgabe. CUDA funktioniert derart gut und hat eine so hohe Verbreitung, das ich bezweifle, dass Intel das schaffen wird.DevPandi schrieb:Intel wollte/will mit OneAPI da was machen, nur Nvidias CUDA zu brechen ist eine Mammutaufgabe.
Xedos99
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.194
Ja, das ist mir als Besitzer der 4090 FE auch klar,sonst hätte ich sie nicht gekauft.Trotzdem sollten Hersteller mehr auf Energieeffizienz achten ,statt mit Brutforce das letzte aus der Hardware zu quetschen.Hier in der 3% Bubble wissen wir was da zu zu tun ist, aber was ist mit den restlichen 97% Nutzern ?
Ja seh das ähnlich mit nVidia, nach wie vor (leider) unangefochtene Produkt- und daher Markmacht.
Mal von den ganzen Restiktionen, welche sie den Boardpartner/OEM-Herstellern auferlegen und das Problem mit den Steckern und seinen Folgen, stören mich als Kunde und Endverbraucher ein paar Dinge Massiv:
Mal von den ganzen Restiktionen, welche sie den Boardpartner/OEM-Herstellern auferlegen und das Problem mit den Steckern und seinen Folgen, stören mich als Kunde und Endverbraucher ein paar Dinge Massiv:
- Die Preise!
Das ist allerdings ein allgemeines Problem der Branche.
Ich habe gerade mal nachgesehen, ich hab am 13.09.07 für nen Kumpel ne 8800GTX für 472,67€ gekauft. Das war damals mit eine der stärksten Karten. Ein Top-Modell, nur von der Ultra übertroffen. Jeder hat gersagt, bist du irre so viel Geld für ne Graka...
Inflations-Bereinigt (s. Anhang) währen das heute ~680€.
Was bekomm ich aber für dieses Geld heutzutage? Eine Mittelklasse-GPU (5070). Und dann der enorme Sprung zu nem Top-Modell: Die gehen aktuell bei 2650€ los. Das ist 3,9x so viel! Dafür hätt ich damals fast 4(!) dieser Grafikkarten bekommen.
- Die konsequente Weigerung RAM einzubauen.
Mal ehrlich: Ne 5070 mit 12GB? Will ich von Team-Green 16GB haben muss ich min. 830€ hinblättern...
Und ist ja nicht so, das RAM wirklich viel kostet. Bei GDDR7 vermutet man so 5-15€/GB.
Es ist als keine wirtschaftliche oder technische Entscheidung, sondern eine aktiv getroffenen Marketing-Entscheidung! - Das kosequente Ignorieren und links liegen lassen von Kunden und deren Wünschen.
Die Kunden, die den Aufschwung dieser Firma finanziert haben!
Leider fehlt nach wie vor Konkurenz im TOP-Segment. In den darunter liegenden Klassen mischen die Konkurenten ja mitlerweile mehr oder weniger kräftig mit. Und da sieht man auch eine Belebung des Marktes...
Ähnliche Themen
- Antworten
- 83
- Aufrufe
- 11.190
- Antworten
- 27
- Aufrufe
- 3.264
- Antworten
- 98
- Aufrufe
- 15.437
- Antworten
- 62
- Aufrufe
- 3.544
- Antworten
- 62
- Aufrufe
- 6.256