4870X2 mit einem Speicher für zwei GPUs?

kisser schrieb:
Nein, es sind effektiv 512Bit, da die beiden GPUs ja gleichzeitig rechnen.

Richtig, es sind theoretisch 512Mbit. Beide arbeiten an einem Bild.
Allerdings hat man einen gewissen Verlust durch die ineffektivität von Multi GPU Verfahren.
Da wo beide GPUs nicht optimal arbeiten können, hat man auch keine steigerung auf 512Mbit.

Bei einer optimalen Crossfire/SLI Skallierung, verdoppelt sich das Speicherinterface auch.

@ michi12

Deine Vergleiche sind falsch.
 
Zuletzt bearbeitet:
HisN schrieb:
Was soll gemeinsamer Speicher bringen, wenn jeweils eine GPU warten muss bis sie an die Daten kommt die die andere GPU gerade benutzt weil der Bus blockiert ist? (Da beide GPUs an sich ständig die gleichen Texturen filtern wäre das Kontraproduktiv).

aber wie bei den alten Vodoo karten wären 100% skalierung möglich,dass würde es bringen. da für die gleiche szene nicht die daten doppelt geladen werden müssen. die speicherbandbreite müsste verdoppelt werden,aber bei GDDR5 und 2 gpus ist das eh der fall.


gruß
 
Interessant könnte so eine Lösung sein, wenn man vom AF-Rendering absieht und Halbbilder rechnen lässt die dann im Framebuffer kombiniert werden, sprich man teilt das Bild auf und lässt je eine Grafikkarte eine Hälfte rendern. Jetzt kommt zwar das Argument, dass dann keine Postprocessingroutinen gehen, jedoch könnte man dafür ja eine GPU abstellen, die das im Nachhinein macht und dann rechnet die andere GPU eben ein wenig mehr vom neuen Bild ;)

Das wäre meine Vorstellung wie ein geteilter Speicher Sinn machen würde... ach ja Mikroruckler gäbs dann auch nicht mehr, kein Inputlag und und und :D
 
@cl55amg: ok, teilweise falsch (hab editiert):
https://www.computerbase.de/2008-01/test-ati-radeon-hd-3870-x2/3/#abschnitt_technische_details schrieb:
Was man unter anderem nicht so ohne Weiteres doppelt zählen kann, ist das Speicherinterface. Auf diesem werden hauptsächlich zwar unterschiedliche Daten pro GPU verschickt, für manche Rendervorgänge benötigen aber beide GPUs dieselben Daten, weswegen die Rechenkerne längst nicht immer mit unterschiedlichen Bits und Bytes gefüttert werden können.

Somit sind 2x256bit effektiv KEINE 512bit, sondern weniger.
Liegt halt am uneffektiven Multi-GPU-Verfahren, da die Daten 2x gespeichert werden müssen.

@bigbee:
Das mit den Halbbildern würde finde ich erst richtig Sinn machen, wenn man ECHTE Dual-CORE-GPUs hat, also anstatt 2 GPUs eine mit 2 Kernen, wo dann jeder Kern ein Halbbild berechnet. Damit würde dann auch nur 1 Speicher benötigt werden und Mikroruckler gäbe es auch nicht mehr.
Was Multi-Core bringt, zeigen ja die CPUs. Ist zwar schlecht zu vergleichen, aber mehrere Kerne könnten doch auch bei GPUs eingesetzt werden.
Nur da gibt es wohl noch Probleme mit der Kühlung, Architektur usw. Leider.
 
Zuletzt bearbeitet:
michi12 schrieb:
@cl55amg: ok, teilweise falsch (hab editiert):


Somit sind 2x256bit effektiv KEINE 512bit, sondern weniger.
Liegt halt am uneffektiven Multi-GPU-Verfahren, da die Daten 2x gespeichert werden müssen.

Wie ich ja schon sagte, theoretisch findet eine Verdoppelung statt, aber wegen der schlechten Effektivität kommt praktisch etwas weniger als das doppelte raus.
Was du mit der Stelle meinst die ich fett markiert habe, verstehe ich nicht, hört sich falsch an auf dem ersten Blick. Die doppelte Speicherung betrifft in erster Linie den VRAM.


michi12 schrieb:
Das mit den Halbbildern würde finde ich erst richtig Sinn machen, wenn man ECHTE Dual-CORE-GPUs hat, also anstatt 2 GPUs eine mit 2 Kernen, wo dann jeder Kern ein Halbbild berechnet. Damit würde dann auch nur 1 Speicher benötigt werden und Mikroruckler gäbe es auch nicht mehr.
Was Multi-Core bringt, zeigen ja die CPUs. Ist zwar schlecht zu vergleichen, aber mehrere Kerne könnten doch auch bei GPUs eingesetzt werden.
Nur da gibt es wohl noch Probleme mit der Kühlung, Architektur usw. Leider.

Ja ist schlecht zu vergleichen, eigentlich ist es unvergleichbar.
Das Eine hat mal wieder nichts mit dem Anderen zu tun.
Die GPUs bestehen aus vielen kleinen Prozessoren, wenn du mehrere GPUs optimal nutzen willst, dann erfordert das eine komplette Umstellung der Softwarearchitektur.
Man braucht ein neuartiges Threading System, welches seine Anfänge mit DX11 machen wird. Neue Engines und Treiberarchitekturen.

Dies ist ein milestone der viel Zeit und Forschungsabrbeit erfordert.
 
Zuletzt bearbeitet:
Ich habe ja auch nicht gesagt, dass die 4870X2 das schon hat, sondern wie meine Vorstellung von einer Karte mit EINEM Speicher ist ;) Das das nichts mit der Realität zu tun hat ist ja wohl klar, insofern sich der Thread ja eh erledigt hat, da die X2 ja wohl einen getrennten Speicher haben wird.

@Michi12: Wer sagt denn das es ein "echter" Dualcore sein muss? Mit einem ordentlichen Speichercontroller kannste das auch mit 2 GPUs machen, ist nur eine Sache des Treibers. Nur weil es Sachen bisher nicht gegeben hat, heißt es ja nicht, dass sie technisch nicht möglich sind.

Wieso man AFR macht ist auch klar. Es erfordert eine Minimalumstellung der aktuellen Treiberarchitektur. Mit einem neuen Renderingverfahren müsste man den Treiber sicher von Grund auf neu schreiben und würde die Kompatibilität sowie alle Optimierungen der letzten Jahre einbüßen. Wobei ich mir vorstellen kann, dass sowas bei ATI schon nebenher entwickelt wird, spricht ja nichts dagegen, ist halt nur noch nicht marktreif.
 
bigbee schrieb:
Wieso man AFR macht ist auch klar. Es erfordert eine Minimalumstellung der aktuellen Treiberarchitektur. Mit einem neuen Renderingverfahren müsste man den Treiber sicher von Grund auf neu schreiben und würde die Kompatibilität sowie alle Optimierungen der letzten Jahre einbüßen. Wobei ich mir vorstellen kann, dass sowas bei ATI schon nebenher entwickelt wird, spricht ja nichts dagegen, ist halt nur noch nicht marktreif.

Ja sehe ich auch so. Die R&D Abteilung ist genau für sowas zuständig, also nebenher neue Technologien zu entwickeln. Ein neuer Treiber ist sicherlich von Nöten und auch eine neue API inkl neue Engines, die die Funktionen der neuen API nutzen.

Ich denke man kann sich gut vorstellen das dies ein Mammut Projekt ist...
 
Zurück
Oben