Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News EVGA: GTX 275 und GTS 250 auf einer Karte
- Ersteller Volker
- Erstellt am
- Zur News: EVGA: GTX 275 und GTS 250 auf einer Karte
lionelhudz
Lieutenant
- Registriert
- Okt. 2007
- Beiträge
- 761
Nen bischen spät, die News ist ja schon ein paar Tage alt.
MaxTheModder
Ensign
- Registriert
- Sep. 2008
- Beiträge
- 183
°Frankenstein lässt grüßen!°
kamugel
Cadet 3rd Year
- Registriert
- Juni 2003
- Beiträge
- 61
Ich finde die Idee auch nicht schlecht mit zwei unterschiedlichen Chips auf einer Karte, dann aber mit einer Zielsetzung.
Warum nicht ein 3d Chip fürs Spielen und eine stromsparende, lahme GPU für Office etc.
Klar kann der 3d Chip auch runtertakten, aber zB eine 6800 liegt im Verbrauch unter Windows doch deutlich dadrunter.
Nicht jeder User schließt 10 Monitore zu hause an seinen PC.
Es soll noch Menschen geben, die mit einem Montor auskommen ...
Warum nicht ein 3d Chip fürs Spielen und eine stromsparende, lahme GPU für Office etc.
Klar kann der 3d Chip auch runtertakten, aber zB eine 6800 liegt im Verbrauch unter Windows doch deutlich dadrunter.
Nicht jeder User schließt 10 Monitore zu hause an seinen PC.
Es soll noch Menschen geben, die mit einem Montor auskommen ...
D
Dude-01
Gast
Weil Nvidia das ja schonmal hatte, aber angeblich niemand es wollte!
Das war die Sache mit den Onboard Chips. Der war für Windows verantwortlich und die Grafikkarte dann für die Spiele, aber angeblich gab es nicht genug Käufer!
Das war die Sache mit den Onboard Chips. Der war für Windows verantwortlich und die Grafikkarte dann für die Spiele, aber angeblich gab es nicht genug Käufer!
P
Proxylein
Gast
da hab ich meine 2 gtxen für den selben preis bekommen und hab mehr power als dankeschön!
zwar ist die leistungsaufname geringer...
aber trotzdem hammer dingens ^^
zwar ist die leistungsaufname geringer...
aber trotzdem hammer dingens ^^
M.E.
Lt. Commander
- Registriert
- Jan. 2007
- Beiträge
- 1.923
Coole Sache, hoffentlich wird es noch mehr Karten dieser Art geben.
Ich halte es nämlich für unpraktisch eine 2te extra Karte für Physics einzubauen.
Wenn man seine Graka bzw. Physics Karte nicht alle 2 Monate wechselt warum dann nicht auf einer Karte?
Ich halte es nämlich für unpraktisch eine 2te extra Karte für Physics einzubauen.
Wenn man seine Graka bzw. Physics Karte nicht alle 2 Monate wechselt warum dann nicht auf einer Karte?
DasGrinser
Ensign
- Registriert
- Juni 2009
- Beiträge
- 171
das problem an diesem "idle" sli, also dem verbund 2 unterschiedlicher grafikkarten, wovon 1 sich komplett abschalten kann um strom zu sparen, war das es entscheiden teuer war, das die graikkarten & motherboards die das konten fast 15% teurer waren und darum keine käuferschaft fanden.
also wollte es niemand, da es bei der anschaffung teurer war.
ergo hat nvidia recht; sie haben man-power und millionen entwicklungskosten in nen ror krepierer gesteckt, der jetzt zwar wieder aktuell wird, aber einfach kaum käuferschaft findet, weil die zusätzliche technik entscheidend teurer ist.
außerdem bietet nvidia die technik weiter an; wenn auch nur für notebooks - wo das ne ganz andere akzeptanz findet, weil es akku sparrt.
also wollte es niemand, da es bei der anschaffung teurer war.
ergo hat nvidia recht; sie haben man-power und millionen entwicklungskosten in nen ror krepierer gesteckt, der jetzt zwar wieder aktuell wird, aber einfach kaum käuferschaft findet, weil die zusätzliche technik entscheidend teurer ist.
außerdem bietet nvidia die technik weiter an; wenn auch nur für notebooks - wo das ne ganz andere akzeptanz findet, weil es akku sparrt.
H
Henrico
Gast
DasGrinser schrieb:*lach
es ist so herrlich; da beschen leute fröhlich drauf los, obwohl sie keine ahung haben.
habt ihr schonmal Batman: Arkham Asylum im Phys-X modus gepsielt, und diese dann auf hight oder via config auf ultra gestellt? nein? schade.
einfach mal die klappe halten, wenn man keine ahung hat.
die karte ist expliziet für dieses spiel rausgebracht worden;wie man auch schon uschwer in der news lesen kann; und wenn ihr mit eurer Ati keine phys-x in batman: arkham asylum hat, tut mir das leid ,) ich genieße solange dieses wundervolle spiel mit wundervollen physik effekten, wärend ihr euch da durch eure statische umgebung haut - wo nicht mal die fliesen auf dem boden kaputt gehen.
und eine 275gtx hat alleine nicht genug power, um das zu packen.
wer mal mehr sehen möchte; hier auf CD oder auch youtube gibt es viele trailer, die den unterschied zwischen der normalen, und der version mit phsyx effekten, aufzeigen.
Mann kann aber auch Kompromisse eingehen bei Arkham Asylum.Ich spiele es mit einer GTX 260 mit normalen PhysX Effekten auf 1920x1080 absolut flüssig.Auf High geht der 260 in einigen Passagen wirklich die Puste auf dieser Auflösung aus,aber die dann ungenügend entstehenden Frames gleiche ich mit ner normalen HD auflösung von 720p wieder aus also 1280x720.Dann lässt es sich auch mit ner 260 auf High PhysX Einstellungen und geamtlevel auf Hoch gut spielen.
Greetz!
oem111
Ensign
- Registriert
- Juli 2008
- Beiträge
- 251
Also die Idee, die hier einige haben - nen stromsparenden Chip drauf zu klatschen - sei gesagt, sowas gab es schonmal in ähnlicher Form
HybridCrossfire und Hybrid SLI, wobei bei ATi gabs das nur für Mobile Chips
Während Nvidia das auch für Desktop hatte.
Wurde aber von beiden kaum weiter Verfolgt.
Und ob das Effektiver ist, hängt davon ab wie gut die Stromsparmechanismen die Nichtbenutzen Teile der Karte stilllegen.
Können die das effektiv, braucht man keinen Zusatz Chip - daher denek ich mal wurde dieser Hybridansatz mit nem MoBo Chipsätzen auch verworfen. Im anderen Fall wäre natürlich ein kleiner Chip natürlich interessant. Das HAt aber wegen Fusion schon keine Zukunft.
Weil da dann die SPAR-GPU immer dabei ist.
Aber dann muss sowas wie HYbird XFire oder SLI wieder vorrangetreiben werden.
Naja aber das gute an der Sache ist die reine Idee an sich. (Also die GPUGPU(PPU)-Kombo)
Bleiben nur ein Paarfragen zu klären.
Wie stark erhitzt sich der PhysikChip im vergleich zu einer normalen GPU.Karte. Ist ja eine Frage des Kühlkonzeptes. Vermmutlich nicht anders als ne gewöhnliche GPU
Und da sind Dual GPU Karten nicht immer schön
Was mach ich wenn die PPU nicht mehr aussreicht, aber die GPU - oder umgekehrt
WIe Rüste ich sinnvoll auf
Wenn die Probleme mit Hitze Storm und Lärm im Rahmen bleiben und nicht die probleme einer Dual GPU auftreten ist das schon ganz nett.
NUr das Aufrüsten eines PC wird dadurch nicht leichter.
INteressant wird für mich die Sache - nur aus technischer Sicht, bin ja eher 0815 Gamer und PC User - ob da auch ne Kombo über den HYDRA-Chip möglich ist - sollte eigentlich.
Naja nur meine kleiner Abriss über die Sache
HybridCrossfire und Hybrid SLI, wobei bei ATi gabs das nur für Mobile Chips
Während Nvidia das auch für Desktop hatte.
Wurde aber von beiden kaum weiter Verfolgt.
Und ob das Effektiver ist, hängt davon ab wie gut die Stromsparmechanismen die Nichtbenutzen Teile der Karte stilllegen.
Können die das effektiv, braucht man keinen Zusatz Chip - daher denek ich mal wurde dieser Hybridansatz mit nem MoBo Chipsätzen auch verworfen. Im anderen Fall wäre natürlich ein kleiner Chip natürlich interessant. Das HAt aber wegen Fusion schon keine Zukunft.
Weil da dann die SPAR-GPU immer dabei ist.
Aber dann muss sowas wie HYbird XFire oder SLI wieder vorrangetreiben werden.
Naja aber das gute an der Sache ist die reine Idee an sich. (Also die GPUGPU(PPU)-Kombo)
Bleiben nur ein Paarfragen zu klären.
Wie stark erhitzt sich der PhysikChip im vergleich zu einer normalen GPU.Karte. Ist ja eine Frage des Kühlkonzeptes. Vermmutlich nicht anders als ne gewöhnliche GPU
Und da sind Dual GPU Karten nicht immer schön
Was mach ich wenn die PPU nicht mehr aussreicht, aber die GPU - oder umgekehrt
WIe Rüste ich sinnvoll auf
Wenn die Probleme mit Hitze Storm und Lärm im Rahmen bleiben und nicht die probleme einer Dual GPU auftreten ist das schon ganz nett.
NUr das Aufrüsten eines PC wird dadurch nicht leichter.
INteressant wird für mich die Sache - nur aus technischer Sicht, bin ja eher 0815 Gamer und PC User - ob da auch ne Kombo über den HYDRA-Chip möglich ist - sollte eigentlich.
Naja nur meine kleiner Abriss über die Sache
M
Mr. Apprentice
Gast
Also im Hinblick auf Fermi.
Ich hab erst gelesen dass nVidia beim Fermi sehr viel wert auf GPGPU gelegt hat, und er die GT200er um ein 8faches überbieten wird.Ich selber wiess nicht ob ich das glauben soll.
Aber dann wäre es schwachsinnig sich diese Karte jetzt zu kaufen.Ich find das Konzept aber durchaus interessant aber,wie bereits gesagt zu spät.
Bis vor kurzem war es das beste eine schnelle ATi und eine normale nVidia für Physx zu nehmen aber nVidia hat durch den Geforce das ja enfernt.Logisch, weil doch das einzige Argument für ein nVidia ist Physx oder seh ich das falsch?
DX11 gibt in allen preislagen über 100€.
Aber Physx wird wichtiger, das sieht man bei Batman.
Ich hab erst gelesen dass nVidia beim Fermi sehr viel wert auf GPGPU gelegt hat, und er die GT200er um ein 8faches überbieten wird.Ich selber wiess nicht ob ich das glauben soll.
Aber dann wäre es schwachsinnig sich diese Karte jetzt zu kaufen.Ich find das Konzept aber durchaus interessant aber,wie bereits gesagt zu spät.
Bis vor kurzem war es das beste eine schnelle ATi und eine normale nVidia für Physx zu nehmen aber nVidia hat durch den Geforce das ja enfernt.Logisch, weil doch das einzige Argument für ein nVidia ist Physx oder seh ich das falsch?
DX11 gibt in allen preislagen über 100€.
Aber Physx wird wichtiger, das sieht man bei Batman.
Weltenspinner
Inkubus-Support
- Registriert
- März 2009
- Beiträge
- 5.018
"Ich will endlich mal Innovationen, nur Mut!"
*innovation kommt von einem hersteller*
"Was'n das für'n Scheiß? Totgeburt!
Dann kaufe ich lieber das Konventionelle!"
*innovation kommt von einem hersteller*
"Was'n das für'n Scheiß? Totgeburt!
Dann kaufe ich lieber das Konventionelle!"
brabe
Commander
- Registriert
- Aug. 2006
- Beiträge
- 3.056
Dude-01 schrieb:DX11 wird über kurz oder lang sowieso dazu führen, dass es nicht mehr nur bei Nvidia PhysX geben wird.
Verstehe ich das richtig, dass ich unter DX11 bei Batman PhysX aktivieren kann mit einer 5850?
riDDi
Admiral
- Registriert
- Aug. 2004
- Beiträge
- 7.550
Nein, aber der ComputeShader vereinfacht die Berechnung auf der Grafikkarte enorm. Vor allem bietet DX11 damit eine einheitliche Plattform für alle möglichen Arten von Grafikkarten. Das wird über kurz oder lang dazu führen, dass existierende Physik-Frameworks auf die GPU portiert werden.
Diese werden dann auch sicher immer häufiger genutzt als PhysX. Wozu sich künstlich auf Nvidia-Hardware beschränken.
Diese werden dann auch sicher immer häufiger genutzt als PhysX. Wozu sich künstlich auf Nvidia-Hardware beschränken.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 9
- Aufrufe
- 1.674
- Antworten
- 30
- Aufrufe
- 2.270
- Antworten
- 3
- Aufrufe
- 1.236
- Antworten
- 28
- Aufrufe
- 1.936