Sind 2 parallel laufende 4070 (TI) geeignet als Ersatz für eine 4090?

eddy131 schrieb:
Wäre doch irgendwie super, wenn man seine alte Karte im PC lassen kann, und dann mit einer neuen im Verbund nutzt, um so mehr Leistung zu haben.
Es müssten dann beide Karten auch gleich sein; zumindest war das so bei SLI. Gemischte Generation/Modelle gingen nicht.

eddy131 schrieb:
Aber wie ist das dann mit den ganzen Laptops, die zwei GraKas verbaut haben?
Das ist ja eine ganz andere Sache, da wird die Leistung ja nicht addiert.
 
  • Gefällt mir
Reaktionen: eddy131
eddy131 schrieb:
Problem ist vermutlich hauptsächlich, dass die Hersteller das nicht wollen und daher Hürden einbauen, die früher schon abgebaut worden sind (etwa mit SLI oder das NV Link, das @Kasjo erwähnt)
Naja man hat im gamen die probleme mit SLI nie in den griff bekommen. Zumal es dort auch nur wenn überhaupt sinig war eben die karten zu nutzen mit den meisten vram da wie bereits erwähnt die speichermenge das manko war.

NV Link wird nach wie vor eingesetzt, aber eben nur in speziellen Szenarien da es wirklich angepasste Software braucht. Und für Spieler ist SLI nie wirklich der druchbruch gewesen zwecks eben der probleme die es hat. Spieler werden ins bot hier geholt weil wir nunmal über Spieler karten reden. Such dir ne Quaddro aus und co, die können meines wissens nach alle NV Link. Der Preis ist natürlich von der rückseite des Mondes.

Es ist halt mehr n Kosten/Nutzen Faktor. Warum soll nvidia da geld in Support unsw. stecken bei SLI wenn die anhaltenden Probleme wohl nie ganz gelöst werden können und es unteranderem auch kaum spiele vernünftig nutzen würden. Die sollten im Optimalfall schon von vornherein Multigpu optimiert sein. Und Entwickler der aktuellen schmieden sind jetzt nicht bekannt dafür wirklich, wie soll man sagen.... ergeizig bei sowas zu sein.
Is schon ganz gut so das dies weg ist. Die Leistung heutiger Karten ist ohnehin ausreichend.
 
  • Gefällt mir
Reaktionen: eddy131
@Kasjo gedanklich von SLI lösen. Das ist tot, weil es nicht mehr nötig ist. DirectX12 kann theoretisch die Grafik der APU und die dedizierte Karte nutzen, wenn der Entwickler das integriert.

Problem: Ist für eine Karte schon recht komplex und wird danach nicht besser :). Daher wird es nicht genutzt.
 
wolve666 schrieb:
Satzzeichen und Absätze sind auch ausgekauft?
Sprachnachrichten gehen hier im Forum ja "leider" nicht :D

zum Topic:

Die Zeiten von Crossfire und SLI sind "leider" vorbei (habe damit früher selber gern rumgespielt).

Heutzutage bräuchte man es bei den Mengen an schlecht programmierten Spielen vermutlich umso mehr. Mein letztes CF war glaub für BF4 mit 2x R290er. Frage mich nicht, um unter Hohen Settings vermutlich über 100fps zu kommen bei BF4 einst ^^
 
eddy131 schrieb:
Meine Überlegung ist nämlich, dass zwei 4070 zusammen ebenfalls 24GB RAM hätten, bei teils unter 600€ das Stück aber zusammen immer noch deutlich günstiger sind als eine 4090.
in dem case ist 1+1 NICHT 2 ;)


macht auch schon lange keinen sinn mehr, wurde ja bereits ausführlich erklärt.
 
eddy131 schrieb:
wenn ich eine ähnlich gute Karte mit gleich viel Speicher von AMD bekommen kann.
AMD hat keine "ähnlich gute Karte" (Leistungstechnisch) - ich denke der Vorschlag kam wegen des VRAMs.
 
eddy131 schrieb:
zwei 4070 zusammen ebenfalls 24GB RAM hätten
Die Rechnung ist selbst zu SLI-Zeiten nicht aufgegangen da beide GPU die Daten im Speicher vorhalten mussten. Ich bin auch nicht im Thema, aber es sollte mich kolossal wundern wenn das bei AI anders wäre.
 
der Unzensierte schrieb:
Die Rechnung ist selbst zu SLI-Zeiten nicht aufgegangen da beide GPU die Daten im Speicher vorhalten mussten
Da geht heute mehr. RBAR/SAM erlauben der CPU direkten Zugriff auf den kompletten VRAM und DirectStorage erlaubt es der Karte direkt Daten vom Massenspeicher über PCIe anzufordern.

Muß nur genutzt werden. Da klemmt es aktuell. Bisher haben Spiele z.B. nur die besseren Ladezeiten von DS genutzt, nicht aber das On-Demand-Asset/Textur-Streaming,
 
Die Nennung von Dirext XXX, CLI und Crossfire geht am AI Thema erstmal vorbei

Stichworte sind OPEN-CL/CUDA und ja der Workload wird uu! keine N-Nodes beachten

Die CPU ist erstmal nur ein "Haufen" Tausender zusätzlicher Register welche Rechnen können
Das es geht zeigt doch seit Jahrzehnten DISTRIBUTED.NET, SETIE@HOME ...

Sonst würd es keine Rendercluster geben - AI Workstations mit mehrt als einer GPU gibts meiner Mainung nach sogar fertig konfiguriert...

 
  • Gefällt mir
Reaktionen: eddy131 und mae1cum77
Danke für die weiteren Antworten. Auch wenn sich irgendwie vieles widerspricht ^^
Mal geht es nicht, dann wieder doch. Aber was ich daraus jetzt nehme: "Noch" geht es wohl nicht, auch nicht im AI Bereich. Bei Games wohl eher nie, weil die Entwickler das nicht einbauen wollen/Aufwand zu groß (Wobei das für mich ja eh keine Rolle spielt). Bei AI ist die Chance größer, dass das irgendwann kommt. Aber dann haben wir vermutlich schon wieder neue GraKas (eventuell sogar auf AI spezialisierte Consumer-Karten) oder andere Techniken, damit auch eine mittelstarke Karte oder die von AMD ohne Abschläge genutzt werden kann.

Für mich heißt das konkret: Erst mal warten und hoffen, dass sich da was tut. Entweder bei den Preisen oder den Technologien im Hintergrund, egal ob Software- oder Hardwareseitig.

dms schrieb:
Die Nennung von Dirext XXX, CLI und Crossfire geht am AI Thema erstmal vorbei
[...]
Danke für die Einordnung und die Links. Hab das aber auch nur grob überflogen. Geht mir dann doch deutlich zu tief in's Thema. Soll immerhin nur ein Hobby sein. Ich erhoffe mir vor allem, dass ich die KI als Datenbank für meine Pen & Paper Runden nutzen kann (irgendwann vielleicht auch als Game-Master) und damit meine Fan-Fiction schreiben (lassen) kann. Also so was wie, dass man die KI mit den Werken einer Welt (HdR, HP,...) füllt, und man dann neue Abenteuer darin erleben kann, die sich möglichst wie die Originalen oder modernere Varianten derselbigen anfühlen.
Mit ChatGPT konnte ich schon recht gute Story's schreiben. Der vergisst aber eben auch irgendwann wichtige Pfeiler der Welt oder der Rahmenhandlung. Daher darf die nicht all zu detailliert sein. Wenn ich aber im Datensatz selber die Bücher drin habe, dann sollte zumindest das Problem mit der konsistenten Welt und der wichtigen Figuren behoben sein. Hoffe ich zumindest. Was ChatGPT schon kann, ist schon beeindruckend. Ich weiß aber nicht, wie das rechtlich ist, wenn ich die urheberrechtlich geschützten Bücher da einspeise. Daher: Alles lokal.
Plus ChatGPT zensiert zu schnell. Selbst bei Szenen, die ich nicht als brutal oder FSK 18 einstufen würde, meckert er schon. Oft weiß ich nicht mal, was er zu beanstanden hat. Lokal am Rechner hat man auch hier mehr Freiheiten.

Eine Powermaschine brauche ich da nicht. Nur ein möglichst langes Gedächtnis und eine Verarbeitungsgeschwindigkeit, die an meine Lesegeschwindigkeit herankommt oder diese besser noch leicht übertrifft. Und das sollte man auch mit kleineren als der 4090 hinbekommen, wenn ich das richtig bei den ganzen Videos und Vergleichslisten gesehen habe. Die 4090 hat mit den 24GB aber eben den mit Abstand größten VRAM, und damit das längste Gedächtnis.
Wobei es auch da schon neue Entwicklungen gibt, dass das Gedächtnis irgendwie anders angesprochen wird und man so nicht alles permanent im Speicher halten und bei jedem Prompt verarbeiten muss, sondern nur je nach Prompt auch gezielt Info's aus der längeren Vergangenheit ausgewählt und dann verarbeitet werden können. Bin gespannt, was sich da noch tut. Vielleicht brauche ich in ein paar Monaten dann nicht mal mehr so einen großen VRAM. Wobei der natürlich auch nicht schaden wird.
Noch tendiere ich eher zu ner großen Karte, egal was sich noch tut. Kann aber auch noch etwas warten.
 
@mae1cum77

?? Ich brauch kein Hab auch nie "gedanklich" daran festgehalten.
 
Zuletzt bearbeitet:
Fürs Archiv:

mal eine kleines Sample - 2 "GPUs" - nixx SLI oder Crossfire - einfach nur DNETC via Cuda auf zwei Workern

1701369215185.png
 
Zurück
Oben