hat nVidia nicht total versagt ?

Wenn man keine Single-Karte hat um an der nominellen Leistungsspitze zu stehen (AMD), flanscht man halt zwei Mid-Range-GPUs zusammen, optimiert das Gespann auf die gängisten Benches und tatatataaa liegt man der Meinung des "Pöbels" nach wieder vorne. Da sich das die Konkurrenz (nV) natürlich nicht bieten lassen will/kann, klatscht man eben zwei PCBs zusammen und verfährt genauso. Und was kommt bei raus? Zwei Krüppel (GX2 und X2), die bei den ihnen zugedachten Settings (Full-HD aufwärts mit AA) aufgrund ihrer Macken (VRAM-Management/Bug und AA/AF-Schwäche) vom imba-Rentner (88Ultra) weggebasht werden. Nur über den Preis können die Teile mit einer fetten GPU (GTX 280) konkurrieren - die Schwächen aber bleiben.

Meine Meinung :D

cYa
 
Zuletzt bearbeitet:
dass die probleme beseitigt sein sollen, glaub ich erst, wenn ichs seh. da wurde schon so viel versprochen...

wenn multi-gpu so toll wäre, warum hat nv dann seit der 7950gx2 noch so wenig in sachen multi-gpu gemacht? da ist erst eine gx2 nach erschienen (und auch nur als antwort auf die 3870x2)...

ati musste bei der 3870 eine solche lösung mangels highend-chip bringen. bei der 4870 ist das zwar auch angekündigt, weil die gtx gerüchten zu folge so enorm schnell werden sollte, aber wenn die 4870 nicht all zu weit von der spitze weg ist, kommt die x2 wohl nur noch als exot in kleiner auflage...

ich glaube nicht dass sich das zusammenpappen von mehreren grakas zu einer dauerhaft durchsetzen wird. lieber klasse statt masse, sprich eine schnelle gpu statt mehreren langsamen...

wenn ati den anschluss an die spitze wieder geschafft hat (und ich glaube das haben sie so ziemlich) dann werden diese behelfskarten ala x2 und gx2 ganz schnell wieder von der bildfläche verschwinden.
 
Zuletzt bearbeitet:
ich denke, du irrst dich da lübke.

single gpus sind "ausgelutscht" schau dir das monster von nvidia an und die klägliche "verbesserung", die in keinem verhältnis zu den kosten steht.

meinst du wirklich nvidia plant, nochmal eine größere gpu zu bauen? wohl eher nicht, auch nvidia deutete an, nun den weg von ati zu gehen.

und jetzt schau dir ati an, zwei 4850 für je 170€ machen die GTX280 für 500€ platt.

was was du "behelfskarte" nennst, waren im prinzip "testläufe" bis es eben geschafft ist, die nachteile der dualgpukarten zu beseitigen. und wer mag wirklich bezweifeln, dass das den ingenieuren gelingen wird?

wie es scheint hat ati mit der kommenden generation geschafft, den speicher beiden gpus gleichzeitig zur verfügung zu stellen, wenn auch noch die microruckler der vergangenheit angehören gibt es KEINEN grund mehr für singlegpus.
 
wer sagt denn dass die größer werden müssen? ist dir bewusst, dass nv mit dem gt200 verstärkt gpgpu-technologie unterstützt? ich denke, dass ein nicht geringer teil der transistoren hierfür verwendet wird, und wenn die technik sich weiter entwickelt, wird die zahl der transistoren dafür auch stark abnehmen durch spezialisierung.

abgesehn davon wird nv nicht in alle ewigkeit die g80 architektur verwenden und ati auch nicht die r600 architektur. wie eh und je werden immer neuere, höher entwickelte architekturen kommen. zu glauben, der g80 sei die krone der gpu-schöpfung halte ich für sehr kurzsichtig.
 
Sollte man Single-GPU mit Dual-GPU vergleichen? Die Frage sieht man in jedem zweiten Grafik-Beitrag. Meiner Meinung nach sollte man die Werte miteinander vergleichen. Wie viele Euros und wie viel Watt muss ich reinstecken, um die/eine größte/große Grafikkraft zu bekommen. Dabei ist es mir persönlich "Wurscht" wie viel Hardware ich in meinen Rechner stecken muss.

Seit der 9800pro hatte ich keine ATI-Karte mehr, werde aber demnächst wieder mal eine ATI-Karte für mich arbeiten lassen. Die Gründe sind zum einen die Preise und zum anderen die Übersichtlichkeit. Die ATIs sind mir im Moment einfach sympathischer.

Das ist zwar nur eine sehr einfache Sichtweise, aber ich will kein Grafikkarten-Profi sein, sondern ich will mit der Grafik arbeiten. Mehr muss ich nicht wissen. Dabei darf eine 4000 gerne größer sein als eine 3000 und eine 8800 darf bitte nicht genau so groß sein wie eine 9600. Es sollte einfach eine klare und durchsichtige Modellreihe sein und das ist bei ATI momentan mehr der Fall.

Gruß
Lucike
 
cosmicparty und ich diskutieren nicht, ob man singel und multi-gpu vergleichen darf, sondern wo die reise wohl in zukunft hingehen wird ;) es geht nur darum ob multi-gpu die zukunft oder nur eine übergangslösung ist.

was die übersichtlichkeit angeht, hast du vollkommen recht. die marketingabteilung bei nv gehört geschlossen gefeuert für den mist, den die verzapfen >.<
aber mit der gtx2x0 tritt ja jetzt auch endlich besserung ein (zumindest hoffe ich das). wahrscheinlich haben die marketing"experten" selbst den überblick verloren :D

naja gleich werden wir ja sehn, wo ati mit seinen neuen karten steht :) ich hoffe nur, die niedrigen preise lassen nicht auf die leistung schließen. ich würd schon gern ne 4870 auf niveau der gtx260 sehn...
 
Lübke schrieb:
cosmicparty und ich diskutieren nicht, ob man singel und multi-gpu vergleichen darf, sondern wo die reise wohl in zukunft hingehen wird ;) es geht nur darum ob multi-gpu die zukunft oder nur eine übergangslösung ist.

Auf euch beide war das gar nicht bezogen. ;) Mehr auf den Satz von y33H@: "Wenn man keine Single-Karte hat um an der nominellen Leistungsspitze zu stehen (AMD), flanscht man halt zwei Mid-Range-GPUs zusammen, optimiert das Gespann auf die gängisten Benches und tatatataaa liegt man der Meinung des "Pöbels" nach wieder vorne."

Hier hat doch der "Pöbel" gar nicht so unrecht, oder? Die Ausdrucksweise war zwar nicht so toll, aber ich gehöre wohl auch zum "Pöbel" :)

Hätte auch gut in den ~20 anderen ATIvsNV-Themen gepasst. :)

Gruß
Lucike
 
naja zu y33h@s aussage sei gesagt, dass ein vergleich singel vs multi gpu wirklich im mom sehr differenziert betrachtet werden muss. es gibt schon deutliche unterschiede und singel-gpu fps sind nicht unbedingt gleich multi-gpu fps. ob ati das problem mit den mikrorucklern tatsächlich bei der hd4k beseitigen konnte muss sich zeigen, aber bei den bisherigen karten (ati und nv!) sind <50 fps teilweise mit spürbaren rucklern, die es bei einer singel-gpu ab 30 fps nicht mehr gibt. dann gibt es noch weitere schwächen wie die abhängigkeit von spieleprofilen bei multi-gpu... von daher hat y33h@ schon nicht ganz unrecht...
ich persönlich bin auch kein freund von multi-gpu. sollte ati tatsächlich all diese probleme lösen können, stehts aber meiner meinung nach auch bedeutend besser um die vergleichbarkeit zu singel-gpu lösungen
 
Zuletzt bearbeitet:
Ich denke mal das es eher an den Treibern legen wird als an den Karten selbst...

Aber der Thread im allgemeinem Sinne hat jetzt gar net sooo unrecht naja zumindest bis der Preis der neuen GPU deutlich herabgesetz wurd da ja schon die neuen ATI Lieferbar sind und das zu einem WOW Preis... :)


lg
 
Die x2 lösung ist aber zb auch für Nutzer die keine lust haben immer neue treiber zu ziehen völlig ungebräuchlich.
Und davon gibts ja genug mit der gtx280 haste die leistung immer zur verfügung, vll bringen treiber mal 20%
aber bei ner x2 musst bei jedem spiel warten,dass nen treiber rauskommt der crossfire für das spiel aktiviert, bzw bei sli auch bissl rumfummeln.
Für nen nutzer der einfach spielen will und sich nicht soviel mit dem rest beschäftigen will ergo keine alternative
 
y33h@ schrieb:
Wenn man keine Single-Karte hat um an der nominellen Leistungsspitze zu stehen (AMD), flanscht man halt zwei Mid-Range-GPUs zusammen, optimiert das Gespann auf die gängisten Benches und tatatataaa liegt man der Meinung des "Pöbels" nach wieder vorne.

Hihihi......so hat das ja auch Intel mit dem C2D gemacht, indem praktisch zwei Pentium-M zusammengelötet wurden. Und alle finden es toll!;)

Gruss Hr.Rossi
 
Sagt mir jemand wieso Intel & NVidia immer die Bösen und AMD immer die Guten sind?
 
Lübke schrieb:
cosmicparty und ich diskutieren nicht, ob man singel und multi-gpu vergleichen darf, sondern wo die reise wohl in zukunft hingehen wird ;) es geht nur darum ob multi-gpu die zukunft oder nur eine übergangslösung ist.

Die Zukunft wird kurzfristig in Richtung Multi-GPU gehen, danach wird wieder eine Zeit der single GPUs anbrechen. Allerdings nicht so, wie wir sie bisher kennen.
IBM hat vor wenigen Wochen einen Durchbruch auf Basis der Kühlung von dreidimensionalen Chips vollbracht, welcher, so IBM dieses Wissen auch weiter gibt und nicht nur für die hauseigenen Cell Prozessoren verwendet, es ermöglicht Prozessorstrukturen dreidimensional an zu ordnen, statt wie bisher nur zweidimensional mit extrem langen Wegstrecken/Leiterbahnen.

Und wenn diese Bauform dann auch wieder an ihre Grenzen kommt, haben wir halt Multi 3D GPUs :D

FreeZer_ schrieb:
Sagt mir jemand wieso Intel & NVidia immer die Bösen und AMD immer die Guten sind?

Weil sie es immer wieder schaffen mit Negativschlagzeilen in´s Rampenlicht zu geraten?

Intel -> Prozesse wegs Ausnutzung einer Monopolstellung in inzwischen 5 Ländern
Nvidia -> Refresh der 8800er Chips als 9800er Chips ohne großen Mehrwert, Assasins Creed & DX10.1 Story etc
 
Zuletzt bearbeitet:
HrRossi schrieb:
Hihihi......so hat das ja auch Intel mit dem C2D gemacht, indem praktisch zwei Pentium-M zusammengelötet wurden. Und alle finden es toll!;)

Gruss Hr.Rossi

Moment: Hatte AMD nicht zuerst ihre Dual-Core CPUs auf dem Markt? Und selbst wenn nicht, so ist das beim C2D noch immer was anderes, weil dort selbst ein Single-Core schneller war, als ein SC von AMD. Nachdem AMD so lange mit dem A64 Spitzenreiter war und Intel nicht kontern konnte, hat sich in dem Bereich wirklich mal wieder was getan.
 
multi-kern cpu ist was vollkommen anderes als zwei oder mehr gpus, die die bilder abwechselnd oder in teilstücken rechnen und zusammensetzen. bei den cpus werden mehrere programme (oder teilprogramme) separat ausgeführt. das wäre bei einer gpu zwei verschiedene spiele gleichzeitig auf einer graka zu zocken ;) das sind zwei technologien, die nicht vergleichbar sind. gpus sind multikern, sogar im dreistelligen berteich und nicht nur dual oder quad^^ also bitte nicht äpfel mit birnen vergleichen.
 
Was die 2 Kerner betrifft, so dürfte Intel mit dem Pentium D zuerst dagewesen sein.

Ist natürlich völlig egal wer was wann wo zuerst gemacht hat. :)
 
Ich denke wäre AMD Marktführer, dann würde sie halt mehr im Brennpunkt der negativen Schlagzeilen stehen.

Viele sind halt gerne für underdogs und keiner mag den FC Bayern:evillol:.

Und die Themen wiederholen sich auch immer wieder, damals wurde schon der G80 schlecht geredet und der 2900xt war ja so toll.
Nach den ersten gescheiten Treibern relativiert sich dass dann auch wieder schnell.

Der GT200 is schon nen Klasse Single-GPU und wird ihre volle Leistung wohl erst in nem halben Jahr entfalten.

Wie starke der jetzt beschnitten ist, hat doch erstmal nichts zu sagen. Natürlich geht man hier auch von einer niedrigeren Taktrate aus (wg Temperatur in abhängigkeit von kmmenden patches) um einer Häufung von Garantieansprüchen zu entgehen. Wenn dann ASUS, EVGA etc. diese ändern ist das ihr Bier und man ist hier fein raus. Benötigt wird die Leistung z.Z. ja auch nicht wirklich.
Später wird dann halt eine Ultra oder 290 herauskommen und gut ist.
Also mal abwarten.

Und nein, z.Z. kann man keine Single GPU mit Multis vergleichen, dafür haben die Multis noch zuviele Kinderkrankheiten (Mikroruckler, Programmierung etc.).
 
Da muss ich aber lübke recht geben so wie ich das verstehe rendern die GPU´s die Bilder "einer" Anwendung! Cpu´s mit mehr Kernen zerteilen die Prozesse(Threads) in meherer Teilprozesse bzw. lassen meherer Prozesse parallel auf den Cores laufen!
 
von mir aus können eine quadtrillionen gpu's auf ner Grafikkarte sein solange diese keine Mikroruckler, Ram-probleme zu hohen stromverbauch haben und all die anderen probleme beseitigt sind.

Allerdings denke ich wie Intel das sich Raytraicing durchsetzen wird. Dauert halt noch ein paar jahre bis es soweit ist.
 

Ähnliche Themen

Zurück
Oben