News EVGA: GTX 275 und GTS 250 auf einer Karte

Ich finde die Idee dahinter sehr gut, aber ob sich der Kauf nur wegen PhysX lohnt? Wohl eher nicht.

Aber dennoch: gute Idee.
 
Gute Idee, allerdings etwas zu spät und mindestens 100€ zu teuer. Für den Preis bekommt man bereits 2x gtx 275.
 
Die zweite Frage wäre noch, warum nicht zwei 275er ? Denn dann wäre wenigstens SLI möglich. Aber so ist die 250er ja in 90% der Fälle überflüssig...
 
Ich finde die Idee auch nicht schlecht mit zwei unterschiedlichen Chips auf einer Karte, dann aber mit einer Zielsetzung.

Warum nicht ein 3d Chip fürs Spielen und eine stromsparende, lahme GPU für Office etc.
Klar kann der 3d Chip auch runtertakten, aber zB eine 6800 liegt im Verbrauch unter Windows doch deutlich dadrunter.

Nicht jeder User schließt 10 Monitore zu hause an seinen PC.

Es soll noch Menschen geben, die mit einem Montor auskommen ...
 
Genau das meine ich auch.
Wieso immer 50 Watt im Idle verbraten, wenn man doch einen stromsparenden zusätzlichen Chip verwenden könnte der sagen wir mal 10W verbraucht.
 
Weil Nvidia das ja schonmal hatte, aber angeblich niemand es wollte!
Das war die Sache mit den Onboard Chips. Der war für Windows verantwortlich und die Grafikkarte dann für die Spiele, aber angeblich gab es nicht genug Käufer!
 
Meinst du Hybrid SLI?
Da konnte man den Onboard Chip in SLI laufen lassen mit einem dedizierten Chip. Hat sich aber nur mit einer gleichschlechten Grafikkarte wie die die onboard war "gelohnt".
 
da hab ich meine 2 gtxen für den selben preis bekommen und hab mehr power als dankeschön!
zwar ist die leistungsaufname geringer...

aber trotzdem hammer dingens ^^
 
Mit DX11 wäre das vll sogar ne Überlegung wert, auf jedenfall ne gute Idee
 
das problem an diesem "idle" sli, also dem verbund 2 unterschiedlicher grafikkarten, wovon 1 sich komplett abschalten kann um strom zu sparen, war das es entscheiden teuer war, das die graikkarten & motherboards die das konten fast 15% teurer waren und darum keine käuferschaft fanden.
also wollte es niemand, da es bei der anschaffung teurer war.

ergo hat nvidia recht; sie haben man-power und millionen entwicklungskosten in nen ror krepierer gesteckt, der jetzt zwar wieder aktuell wird, aber einfach kaum käuferschaft findet, weil die zusätzliche technik entscheidend teurer ist.
außerdem bietet nvidia die technik weiter an; wenn auch nur für notebooks - wo das ne ganz andere akzeptanz findet, weil es akku sparrt.
 
DasGrinser schrieb:
*lach
es ist so herrlich; da beschen leute fröhlich drauf los, obwohl sie keine ahung haben.
habt ihr schonmal Batman: Arkham Asylum im Phys-X modus gepsielt, und diese dann auf hight oder via config auf ultra gestellt? nein? schade.

einfach mal die klappe halten, wenn man keine ahung hat.

die karte ist expliziet für dieses spiel rausgebracht worden;wie man auch schon uschwer in der news lesen kann; und wenn ihr mit eurer Ati keine phys-x in batman: arkham asylum hat, tut mir das leid ,) ich genieße solange dieses wundervolle spiel mit wundervollen physik effekten, wärend ihr euch da durch eure statische umgebung haut - wo nicht mal die fliesen auf dem boden kaputt gehen.

und eine 275gtx hat alleine nicht genug power, um das zu packen.

wer mal mehr sehen möchte; hier auf CD oder auch youtube gibt es viele trailer, die den unterschied zwischen der normalen, und der version mit phsyx effekten, aufzeigen.

Mann kann aber auch Kompromisse eingehen bei Arkham Asylum.Ich spiele es mit einer GTX 260 mit normalen PhysX Effekten auf 1920x1080 absolut flüssig.Auf High geht der 260 in einigen Passagen wirklich die Puste auf dieser Auflösung aus,aber die dann ungenügend entstehenden Frames gleiche ich mit ner normalen HD auflösung von 720p wieder aus also 1280x720.Dann lässt es sich auch mit ner 260 auf High PhysX Einstellungen und geamtlevel auf Hoch gut spielen.

Greetz!
 
Also die Idee, die hier einige haben - nen stromsparenden Chip drauf zu klatschen - sei gesagt, sowas gab es schonmal in ähnlicher Form

HybridCrossfire und Hybrid SLI, wobei bei ATi gabs das nur für Mobile Chips
Während Nvidia das auch für Desktop hatte.

Wurde aber von beiden kaum weiter Verfolgt.

Und ob das Effektiver ist, hängt davon ab wie gut die Stromsparmechanismen die Nichtbenutzen Teile der Karte stilllegen.

Können die das effektiv, braucht man keinen Zusatz Chip - daher denek ich mal wurde dieser Hybridansatz mit nem MoBo Chipsätzen auch verworfen. Im anderen Fall wäre natürlich ein kleiner Chip natürlich interessant. Das HAt aber wegen Fusion schon keine Zukunft.
Weil da dann die SPAR-GPU immer dabei ist.

Aber dann muss sowas wie HYbird XFire oder SLI wieder vorrangetreiben werden.

Naja aber das gute an der Sache ist die reine Idee an sich. (Also die GPUGPU(PPU)-Kombo)

Bleiben nur ein Paarfragen zu klären.

Wie stark erhitzt sich der PhysikChip im vergleich zu einer normalen GPU.Karte. Ist ja eine Frage des Kühlkonzeptes. Vermmutlich nicht anders als ne gewöhnliche GPU

Und da sind Dual GPU Karten nicht immer schön

Was mach ich wenn die PPU nicht mehr aussreicht, aber die GPU - oder umgekehrt
WIe Rüste ich sinnvoll auf

Wenn die Probleme mit Hitze Storm und Lärm im Rahmen bleiben und nicht die probleme einer Dual GPU auftreten ist das schon ganz nett.

NUr das Aufrüsten eines PC wird dadurch nicht leichter.

INteressant wird für mich die Sache - nur aus technischer Sicht, bin ja eher 0815 Gamer und PC User - ob da auch ne Kombo über den HYDRA-Chip möglich ist - sollte eigentlich.


Naja nur meine kleiner Abriss über die Sache
 
Also im Hinblick auf Fermi.
Ich hab erst gelesen dass nVidia beim Fermi sehr viel wert auf GPGPU gelegt hat, und er die GT200er um ein 8faches überbieten wird.Ich selber wiess nicht ob ich das glauben soll.
Aber dann wäre es schwachsinnig sich diese Karte jetzt zu kaufen.Ich find das Konzept aber durchaus interessant aber,wie bereits gesagt zu spät.
Bis vor kurzem war es das beste eine schnelle ATi und eine normale nVidia für Physx zu nehmen aber nVidia hat durch den Geforce das ja enfernt.Logisch, weil doch das einzige Argument für ein nVidia ist Physx oder seh ich das falsch?
DX11 gibt in allen preislagen über 100€.
Aber Physx wird wichtiger, das sieht man bei Batman.
 
"Ich will endlich mal Innovationen, nur Mut!"
*innovation kommt von einem hersteller*
"Was'n das für'n Scheiß? Totgeburt!
Dann kaufe ich lieber das Konventionelle!"

:lol:
 
Ich schätze die Karte wird mehr kosten als eine normale GTX295, also kauft man sich die GTX295 und EVGA hat die Entwicklungskosten in den Sand gesetzt.
 
Nein, aber der ComputeShader vereinfacht die Berechnung auf der Grafikkarte enorm. Vor allem bietet DX11 damit eine einheitliche Plattform für alle möglichen Arten von Grafikkarten. Das wird über kurz oder lang dazu führen, dass existierende Physik-Frameworks auf die GPU portiert werden.
Diese werden dann auch sicher immer häufiger genutzt als PhysX. Wozu sich künstlich auf Nvidia-Hardware beschränken.
 
Zuletzt bearbeitet:
Zurück
Oben