News Gigabyte mit zwei 6600-GT-GPUs auf einem PCB

jeweils eine gpu ist mit "nur" 128bit und 128mb angebunden.

die Theorie im SLI-Modi:
"Im AFR-Modus rechnet eine Karten alle geraden, die andere die ungeraden Bilder.
Die Render-Arbeit wird also einfach auf beide Karten verteilt."

geht man davon aus das bei hohen auflösungen
und AA/AF eine 6600gt-gpu nur 20 bilder/sekunde schafft.
(wegen 128bit, hohe datenmenge der maps und bla bla bla)
ne normale 6600gt würde ruckeln.
setzt man nun die geraden und ungeraden bilder zusammen,
ergeben sich etwa 40bilder/sekunde.

"Im SFR-Modus wird der Bildschirm geteilt.
Karte 1 rechnet den oberen Teil des Bildes, die zweite den unteren."

das bild wird geteilt. jede gpu berechnet nur die hälte eines bildes.
es ergibt sich nur die halbe datenmenge pro gpu.
somit reicht auch die halbe datenbandbreite von 128bit aus.

je nach dem wie aufwendig die berechnung eines bereiches des bildes ist, w
ird die "halbierung" bzw trennung des bildes verschoben.
die werden die gpu`s immer optimal ausgelastet.
somit isses auch egal das die gpu`s nur 8 pipes haben.

also isses total uninteressant, das jeweils eine gpu mit "nur" 128bit angebunden ist.

die karte hat also etwa das gleiche potenzial mit insgesamt 256bit und 16 pipes,
wie eine 6800 ultra.
der vorteil gegenüber ner 6800 ultra, ergibt sich aber durch die höhere rechenleistung der 2 6600gt-gpu`s.
 
Zuletzt bearbeitet:
TheCounter schrieb:
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=95&seite=6

Hier sieht man was die Karte ungefähr leisten wird, ist das selbe wie 2 6600GT Karten im SLI (Auch nur 128-Bit Speicherinterface). Sobald also höhere Auflösung sowie AA/AF ausgewählt wird ist sie oft langsamer als eine normale GF6800GT, wie erwartet ;)

öhm. auf deiner seite sieht man genau das bei 1600x1200 2x6600gt im sli schneller sind als eine 6800 ultra.
bei 3dmark03 sogar teilweise vor einer ATI Radeon X850XT PE.
bei 3dmark01 funzt sli nicht! (steht auch dort im text)


Bei 3DMark 2005 sieht man praktisch dasselbe - auch hier liegt die GeForce 6600GT im SLI-Modus vor der GeForce 6800 Ultra.
und die normale sli-variante wird einiges langsamer sein als die 3d10000.

edit: dort steht auch das die treiber nicht optimal liefen
und es für die meissten games noch keine sli-profile von nvidia gab.
dort ist zb die 6800gt im sli vor einer 6800ultra im sli usw.
also abwarten ;)
 
Zuletzt bearbeitet:
nicht auszudenken was die erst mit zwei unbeschnittenen 6800er (egal welche leistungsklasse) chips anfangen. Auch wenn der preis bestimmt nicht niedrig sein wird, läuft einem da das wasser im munde zusammen...
 
Erinnert mich alles irgendwie hier ran.



Edit by blümli: Das nächste mal die Bilder bitte als Anhang einfügen, ca. 700 kb sind keinem Modem-User zuzumuten. (1 Bild ist leider auf der Strecke geblieben, da nur 5 Anhänge gestattet sind)
 

Anhänge

  • Radeon%209700Pro%20Quatro%201.jpg
    Radeon%209700Pro%20Quatro%201.jpg
    125,1 KB · Aufrufe: 630
  • Radeon%209700Pro%20Quatro%202.jpg
    Radeon%209700Pro%20Quatro%202.jpg
    126,5 KB · Aufrufe: 596
  • Radeon%209700Pro%20Quatro%203.jpg
    Radeon%209700Pro%20Quatro%203.jpg
    90,4 KB · Aufrufe: 591
  • Radeon%209700Pro%20Quatro%204.jpg
    Radeon%209700Pro%20Quatro%204.jpg
    114,6 KB · Aufrufe: 613
  • Radeon%209700Pro%20Quatro%206.jpg
    Radeon%209700Pro%20Quatro%206.jpg
    89,3 KB · Aufrufe: 607
Zuletzt bearbeitet von einem Moderator:
@crazy.engineer: so der agp kann sicher nicht genug strom für die karte liefern, aber schließlich gibt es auch 6800ultras für den agp, die haben dann eben 2 stromanchlüsse. die gigabyte karte dürfte in etwa wie ne 6800ultra verbrauchen, warum sollte die karte also wegen der stromversorgung nicht für den agp möglich sein?
 
Laut TOMs Hardware Guide soll der Preis zwischen 500-600$ sein d.h der Europäische Preis dürfte zwischenn 400-450 Euro liegen. Nette Grafikkarte, ich bin mal gespannt ob außer Gigabyte noch andere Grakahersteller ähnliche Layouts bringen. Wäre auch schön wenns das Ganze auch mal in AGP gibt.
 
ich hab mich nicht durch den ganzen thread durchgelesen aber ich behaupte mal, dass das zwar eine gute Idee ist aber je besser die Grafikkarten werden umso weniger wird dieses Verfahren etwas nützen! Da beide Chips auf einem Board sitzen haben sie auch zusammen "nur" die Bandbreite eines PCI-E Interfaces wo ein wirkliches SLI die Bandbreite von 2 PCI-E Interfaces hat... ka ob das diskutiert wurde aber ich behaupt das einfach mal so :D
 
es kann doch nicht sinn der sache sein immer mehr chips auf die platine zu kloppen nur damit die leistung schneller wird...
der nächste kommt dann auf die idee: warum nicht 4 chips?
weiterentwicklungen zählen mehr als solche ideen.
 
http://www.hardwareluxx.de/cm...on=show&id=95&seite=6

Jub die Test sind nicht schlecht man sieht das noch nicht oft SLI verwendet wird bzw nicht nachgepatcht wird. Was ich aber geil finde ist das im Duell Ultra/GT die GT oft gewinnt! Jedenfalls bis zur auflösung 1280*1024 da ich sowieso nen LCD Schirm habe is das meine Auflösung =) naja und da die Marks0X werden sowieso ja sowieso immer gepusht und das da der SLI verband noch ein Stückchen mehr rausholt ok aber wenn man sich mal einzelne dinge ansieht bsw. der Doom³ test auf 1600*1200 mit allem schnickschnack lol dann sieht die 2*SLI 6600gt echt arm aus oder Counterstrike: Source/Half-Life 2 1600x1200 4xAA 16xAF auch gut zu sehen also wenn ich persöhnlich nen monitor hätte der 1600*1200 mitmacht dann lieber ne graka die das in den neuen spielen auch dastellen kann also ne 6800GT/U auch in Farcry ist es zu sehen. Naja also gut das ich mir ne 6800GT bestellt habe ;) die 400€ sind es mir wert zumal ich für 2 SLI 6600GTs in etwa das selbe bezahlen würde!
 
HuBi.ch schrieb:
ich hab mich nicht durch den ganzen thread durchgelesen aber ich behaupte mal, dass das zwar eine gute Idee ist aber je besser die Grafikkarten werden umso weniger wird dieses Verfahren etwas nützen! Da beide Chips auf einem Board sitzen haben sie auch zusammen "nur" die Bandbreite eines PCI-E Interfaces wo ein wirkliches SLI die Bandbreite von 2 PCI-E Interfaces hat... ka ob das diskutiert wurde aber ich behaupt das einfach mal so :D
Bisweilen kann kein Board 2x16 Lanes PCIe zur Verfügung stellen.
Entweder man hat bei einem SLI Board 1x16 und 1x8 Lanes oder die beiden PCIe gehen auf 2x8 Lanes zurück. Da durch 2 Chips die Bandbreite von 1x16 Lanes ohnehin nicht ausgenutzt werden, ist es unerheblich ob ich 2 SLI Graka´s im System habe oder 2 Chips auf einer PCIe Graka.
 
Ich hab den Thread nur überflogen, aber es scheint mir, als ob u.a. noch die Frage offen stünde, ob der Betrieb von zwei Doppelporzessor-Grafikkarten möglich sei.


THG schrieb dazu bereits folgendes:

Theoretisch ist laut Gigabyte auch der Betrieb von zwei Doppelprozessor-Grafikkarten auf einem SLI-Mainboard möglich. Allerdings sei die "dazu notwendige Hardware noch nicht verfügbar". Man arbeite allerdings bereits an einer Lösung, hieß es am Freitag aus Taiwan.
Quelle: http://www.tomshardware.de/news/20041217_072016.html


Und auch im letzten Satz des hier diskutierten Artikels wird es bereits angedeutet:
Interessant dürfte auch sein, wie sich die 3D10000 in doppelter Präsenz, also im SLI-Modus, schlägt.
 
grillor schrieb:
Laut TOMs Hardware Guide soll der Preis zwischen 500-600$ sein d.h der Europäische Preis dürfte zwischenn 400-450 Euro liegen. Nette Grafikkarte, ich bin mal gespannt ob außer Gigabyte noch andere Grakahersteller ähnliche Layouts bringen. Wäre auch schön wenns das Ganze auch mal in AGP gibt.

falsch. 3d1-karte mit mainboard sollen weniger als eine 6800ultra mit 500$ kosten.
ziehste das mainboard ab ergibt sich etwa ein preis von 350€ für die 3d1-karte.
steht auch so im text.
 
Zuletzt bearbeitet:
ich denke mal das der preis am anfang so um die 300 €liegen wird !
 
wenn es sie dann einzeln geben wird.
im moment sieht es eher so aus,
als wenn gigabyte damit ein aktraktives angebot im bundle(karte&board) anbieten will.
die karte soll ja laut gigabyte in verbindung mit dem gigabyte-mainboard etwas mehr leistung haben , als auf anderen boards.
 
Am interessantesten fänd ich ja, wann das teil zu kaufen ist. Ankündigung im Januar....lasst mich kurz rechnen....ahso im November dann!
 
Die maximale Speicherbandbreite beträgt 19,2 GB/s das bedeutet, daß die GPUs nur über 128 Bit angeschlossen sind!
19200 MB / 1200 MHz = 16 Byte -> 16 Byte x 8 = 128 Bit !!! Logisch? Logisch!
Eine 6800 GT hat 1000 MHz Speichertakt -> 1000 MHz x 256 Bit/8 = 32000 MB/s also 32 GB/s Speicherbandbreite, was ca. 66% mehr ist als die Dual6600 GT bietet, trotz eben 1200 MHz Speichertakt.
Demzufolge wird eine 6800 GT/Ultra unter FSAA in hohen Auflösungen deutlich vor der Dual6600 GT liegen.

SIT.McDaniel-77
 
McDaniel-77 schrieb:
Die maximale Speicherbandbreite beträgt 19,2 GB/s das bedeutet, daß die GPUs nur über 128 Bit angeschlossen sind!
19200 MB / 1200 MHz = 16 Byte -> 16 Byte x 8 = 128 Bit !!! Logisch? Logisch!
Eine 6800 GT hat 1000 MHz Speichertakt -> 1000 MHz x 256 Bit/8 = 32000 MB/s also 32 GB/s Speicherbandbreite, was ca. 66% mehr ist als die Dual6600 GT bietet, trotz eben 1200 MHz Speichertakt.
Demzufolge wird eine 6800 GT/Ultra unter FSAA in hohen Auflösungen deutlich vor der Dual6600 GT liegen.

SIT.McDaniel-77

du hast 2 GPU`s die jeweils mit 128bit und an 128mb angeschlossen sind.
also auch 128bit x 2.
2 x 19,2 GB/s Speicherbandbreite.
 
yamahakuesser schrieb:
öhm. auf deiner seite sieht man genau das bei 1600x1200 2x6600gt im sli schneller sind als eine 6800 ultra.
bei 3dmark03 sogar teilweise vor einer ATI Radeon X850XT PE.
bei 3dmark01 funzt sli nicht! (steht auch dort im text)

edit: dort steht auch das die treiber nicht optimal liefen
und es für die meissten games noch keine sli-profile von nvidia gab.
dort ist zb die 6800gt im sli vor einer 6800ultra im sli usw.
also abwarten ;)

Öhm, du weist aber schon das eben 3DMark die stärke von der Karte ist? Guck dir bitte mal die ganzen anderen Benchmarks (Farcry, Doom 3, HL2 etc. an) und dann siehst du was ich meine.

Würde die Karte generell schneller sein als eine GF6800U würde die Karte garantiert nicht günstig sein, die wollen sich doch nicht das Geschäft mit ihren GF6800U/GT Karten versauen.

Ich schließ mich da der Meinung der Leute von 3DCenter.de mal an ;)

2*6800U (Auf einem Board) wär schon interessant aber würde sich nicht im geringsten lohnen (Für Nvidia und seine Partner) und wäre nicht wirklich leicht zu realisieren.
 
Zuletzt bearbeitet:
Zur Bandbreitendiskussion: Mir ist leider ein Denkfehler unterlaufen. Die gesamte Bandbreite beträgt 38,4 GByte/s. Leider hatte ich mit effektiven 600 statt 1200 MHz gerechnet. Ich bitte darum, das zu berücksichtigen.
 
Zuletzt bearbeitet:
Zurück
Oben