Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News EVGA zeigt nächstes „Dual-GPU-Monster“ von Nvidia
- Ersteller MichaG
- Erstellt am
- Zur News: EVGA zeigt nächstes „Dual-GPU-Monster“ von Nvidia
GF110 my ass.
nächstes mal besser informieren, das ist eine dual GF10114 karte (GF104B)
Das sieht doch jeder Blinde am 256bit Interface und am eindeutig rechteckigen Pinout der GPU. GF110 hat ein quadratisches package was wesentlich größer ist.
bitte korrigieren!
die auflösung und die filtersettings sind entscheidend was den vram angeht.
die 570 hat ein 320bit interface, wenn due ein 384bit meinst dann isses ne 480.
Besoffen?
nächstes mal besser informieren, das ist eine dual GF10114 karte (GF104B)
Das sieht doch jeder Blinde am 256bit Interface und am eindeutig rechteckigen Pinout der GPU. GF110 hat ein quadratisches package was wesentlich größer ist.
bitte korrigieren!
was hat denn die rohleistung mit dem vram zutun?LundM schrieb:Naja wen dann müsste es schon 2x570 mit vram erweiterung sein.
sonst könnte die 6990 die krone hollen.
Grade bei so Bössen rohleistungen dürfte mehr vram richtig ins gewichtfallen.
die auflösung und die filtersettings sind entscheidend was den vram angeht.
die 570 hat ein 320bit interface, wenn due ein 384bit meinst dann isses ne 480.
selten so einen schwachfug gelesen. 384bit ram interface, entweder 12x 1Gbit (128mb)module oder 12x 2Gbit (256mb) module, 512Mbit GDDR5 wird nicht mehr in mengen hergestellt (keine 768mb gtx580). 1,5GB oder 3GB was anderes geht nicht mit GF110. außer man kürzt das interface herunter auf 320 oder 256 bit.was evtl auch intressant wäre wen man je 1,3gb ram mit 384 bit anbindet und evtl nochma 1gb share ram der mit 480 bit angebunden ist und jede karte nach bedarf zusätlich zihen darf.
aua, das tut weh, der Gf114 hatdoch nur 256bit chipseitig. dann kann man da auch nicht mehr speicher dranklatschen, 1GB oder 2GB bei 256bit oder 1,5Gb bei 192bit. wozu das gut sein soll frag ich mich auch...wens 560 chips (gf114) werden müssen die aber ohne takt reduzierung sein. und dann bitte mit 1,3gb mindestens und 320bit anbindung mindestens sonst kann sich nvidia die karte sparen.
Ja von dier aus, da wird nv sich bestimmt ein beispiel nehmen, lol. Duell GPU?weil entweder beide Kronen oder nur single gpu aber dafür dort die Krone behalten.
ich mein soll amd von mir aus die duel gpu krone haben gegen 2x570 oder 680 kommt sie dann eh wider nicht an.
Besoffen?
Zuletzt bearbeitet:
- Registriert
- Juli 2010
- Beiträge
- 12.927
Zwei GF114 (GTX 560) machen eindeutig mehr Sinn, gebe ich zu. News entsprechend angepasst.
Danke für eure plausiblen Bemerkungen und sorry für die Missinterpretation meinerseits. War wohl irgendwie nicht mein Tag.
Danke für eure plausiblen Bemerkungen und sorry für die Missinterpretation meinerseits. War wohl irgendwie nicht mein Tag.
terraconz
Commodore
- Registriert
- Juni 2009
- Beiträge
- 4.946
kingsyrie schrieb:Kann man darauf Würste grillen? Computerbase macht dan ein Video von, wenn es geht ist die Karte sofort gekauft.
Ich denke es sind 2 GTX 460/560 drinne aber sehr stark undervolted Rops un so bleiben bestimmt gleich.Aber sollen 375W nicht das Mainboard grillen ?!
Hmm ich weiß nicht konnte man denn mit der Ares Würstchen Grillen oder mit der 4870X2?! Nein, hmm warum sollte man dann mit einer sparsameren Karte Würstchen grillen können? Ausser natürlich du meinst ohne Kühler, denn dann kann man auch auf ner HD5750 Würstchen grillen, sehr sehr kleine Würstchen.
Oder war deine Frage vielleicht gar nicht ernst gemeint und es sollte eher ein Seitenhieb in Richtung Nvidia werden? Sollte das der Fall sein dann ging das aber gründlich in die Hose.
@Topic:
Ich seh denn Sinn solcher Karten irgendwie immer noch nicht, warum sollte man eine Dual GPU Karte 2 einzelnen Karten vorziehen? Vorallem in Zeiten in denen es Mainboards mit > 4 PCIe x16 Slots gibt wie Sand am Meer.
Edit:
Vielleicht ist es aber auch wieder so ne dämliche EVGA Eigentwicklung wie diese Physx Kombo Karte damals mit nem glaube es war ein 285er Chip und ein GTS250er für die Physx Berechnung. Das wäre dann wharscheinlich eine GTX580 mit einer GTX560 als Physx Karte, viel sinnloser gehts dann aber nimmer.
Zuletzt bearbeitet:
k0n
Captain
- Registriert
- Okt. 2009
- Beiträge
- 3.518
terraconz schrieb:@Topic:
Ich seh denn Sinn solcher Karten irgendwie immer noch nicht, warum sollte man eine Dual GPU Karte 2 einzelnen Karten vorziehen? Vorallem in Zeiten in denen es Mainboards mit > 4 PCIe x16 Slots gibt wie Sand am Meer.
...
Vielleicht ist es aber auch wieder so ne dämliche EVGA Eigentwicklung wie diese Physx Kombo Karte damals mit nem glaube es war ein 285er Chip und ein GTS250er für die Physx Berechnung. Das wäre dann wharscheinlich eine GTX580 mit einer GTX560 als Physx Karte, viel sinnloser gehts dann aber nimmer.
So vielle haben aber dennoch keine zwei Slots mit x16, ich hab überhaupt nur einen (mini-itx) und da sind solche Karten gern gesehen.
...
War eine denk ich mal erfolglose GTX 275/GTS 250 Kombo. Sowas sollten wir in der nächsten Zeit also nicht wieder zu Gesicht bekommen.
Mit zwei GF110ern wäre sie verbrauchsmäßig ziemlich genau auf HD 5970 Niveau.
Die 180W TDP der GTX 560 liegt 8W unter der der HD 5870 und auch die Leistung soll ähnlich hoch sein, denn das sie soviel sparsamer ist als die HD 5870 ist eher unwahrscheinlich, also...
terraconz
Commodore
- Registriert
- Juni 2009
- Beiträge
- 4.946
Ich hoffe das wir sowas nicht nochmal zu gesicht bekommen aber bin mir da weit weniger sicher als du. Denn das die erste schon kein Erfolg werden würde war ja auch vorher absehbar und trotzdem wurde sie gebracht um die Lager mit den alten GT200b Chips leeren. Deshalb bin ich mir da nicht so sicher ob sie das nicht nochmal machen.
Thanok
Vice Admiral
- Registriert
- Feb. 2009
- Beiträge
- 6.553
Schade dass es so etwas nicht mit der GF100 gab - die hätte meine Bratpfanne ersetzen können^^
Fakt dürfte sein, dass die Kühlung nicht unbedingt die leiseste und die Karte preislich auch kein Schnäppchen sein wird.
Im Grunde bin ich ja auch dafür solche Monster nur mit WaKü zu verkaufen, da jemand mit einem solch großen Geldbeutel sicherlich auch eine Wakü sein eigen nennen wird. Oder sein Gehäuse hat ein Dutzend Lüfter
Fakt dürfte sein, dass die Kühlung nicht unbedingt die leiseste und die Karte preislich auch kein Schnäppchen sein wird.
Im Grunde bin ich ja auch dafür solche Monster nur mit WaKü zu verkaufen, da jemand mit einem solch großen Geldbeutel sicherlich auch eine Wakü sein eigen nennen wird. Oder sein Gehäuse hat ein Dutzend Lüfter
HighTech-Freak
Commodore
- Registriert
- Juli 2005
- Beiträge
- 5.118
Müslimann schrieb:Nen 3-Slot Kühler wäre doch bestimmt angebracht.
Ja... is klar. Der Silent-Kühler is dann eh Quad-Slot.
Wer sich so eine Karte kauft und keine WaKü hat, der sollte eine nachrüsten... Geld dürfte ja genug da sein.
MFG, Thomas
ExcaliburCasi
Lt. Commander
- Registriert
- März 2008
- Beiträge
- 1.690
Hört sich Interessant an, hört sich bedingt auch Realistisch an, zumindest möglich.
Am Speicher sparen wäre aber der Falsche weg.
Ich Persönlich bin ja immernoch sehr skeptisch gegenüber diese Dual Lösungen,bin da eher noch Konservativ und Single GPU.
Ich hätte in diesem Fall dann Lieber eine GPU die von der 560 alles doppelt hat, aber das wird wohl aus guten gründen nicht gefertigt ...
Am Speicher sparen wäre aber der Falsche weg.
Ich Persönlich bin ja immernoch sehr skeptisch gegenüber diese Dual Lösungen,bin da eher noch Konservativ und Single GPU.
Ich hätte in diesem Fall dann Lieber eine GPU die von der 560 alles doppelt hat, aber das wird wohl aus guten gründen nicht gefertigt ...
Müslimann
Commander
- Registriert
- Dez. 2007
- Beiträge
- 2.572
WaKü wäre bei sonem Ding mmn erst bei SLI Pflicht, da dann sowieso kaum Luft dran kommt.
Wenn man jedoch nur eine davon hat und keine WaKü könnte man mit nem 3-Slot Kühler trotzdem leise und kühl bleiben.
Der Zalman für zB. Fermi belegt auch 3 Slots.
mfg
Wenn man jedoch nur eine davon hat und keine WaKü könnte man mit nem 3-Slot Kühler trotzdem leise und kühl bleiben.
Der Zalman für zB. Fermi belegt auch 3 Slots.
mfg
Ähnliche Themen
Leserartikel
Kühler- gegen Steckergate: DevPandis Hin und Her
- Antworten
- 72
- Aufrufe
- 16.397
- Angepinnt
- Antworten
- 147
- Aufrufe
- 37.416
Leserartikel
10 Jahre 8 Kerne - Dual-CPU vs. Ryzen (Asus DSAN-DX)
- Antworten
- 61
- Aufrufe
- 25.378
- Antworten
- 2
- Aufrufe
- 1.092
- Antworten
- 60
- Aufrufe
- 10.347