Test Test: Gainward GeForce GT 240 mit DDR3

@Statler_Waldorf: dann frag die leute mal, mit was für grafikkarten die zocken. du wirst verblüfft sein, mit welch alten und schwachen karten man anständig zocken kann^^
kenne selber genug leute, die 1650pro, 7600gs oder ähnliches nutzen und von mir nix von ner neuen grafikarte hören wollen. dann heists "wieso, bei mir ruckelt noch nix. wozu soll ich geld ausgeben?"
ich könnte mir vorstellen, dass sich die gt240 auch in einem jahr noch verkaufen lässt.
nichts des so trotz ist sie für bq-fans für moderne ego-shooter zu klein. aber das ist wohl auch nicht die zielgruppe dieser karte ;)
zwischen igp und 5750/gts250 liegt aber immernoch der größte absatzmarkt. und da passt die karte rein. positiv sind der geringe verbrauch und die geringe lautstärke. negativ vor allem der aktuelle preis, der aber halt vom markt abhängt. leistung etwas über der 4670 passt für ihre klasse imho auch.
imho ein vernünftiges produkt, auch wenn sie in gamerkreisen sicher weniger zu suchen hat.
 
Zuletzt bearbeitet:
glaube wir sind uns einig Luebke! :D
bin ja ebenfalls der ansicht, dass man auf einige details verzichten kann - wenn das der fall ist, kommt man mit alten karten noch ziemlich weit!

aus dem grund habe ich ja auch geschrieben die karte ist ordentlich - bis auf den mehrfach erwaehnten preis. wer aber viel wert auf zocken legt und sich ueber einen laengeren zeitraum keine neue karte holen will, der sollte vielleicht doch zu etwas anderem greifen.
30% schneller & DX11 fuer aehnlich viel geld (5600er) ist schon eine ansage. oder eben ein paar euro mehr fuer die 5700er reihe. da letztere bessere (leisere) kuehler verpasst bekommen haben, sind die eine echte alternative. damit kommt man eben noch ein jaerchen laenger aus und kann laenger auf etwas hoeheren details bleiben ;)
 
@raubwanze
Die fehlende Pixelfühlrate haben wir ja schon erwähnt. Da hab ich in dem Punkt ja auch bensen zugestimmt.

Die Texelfühlrate ist nicht das Problem.

Du darfst aber nicht 128 bit + GDDR5 Speicherbandbreite direkt mit 256 bit + GDDR3 Speicherbandbreite vergleichen.

Die Speicherchips takten bei GDDR3 und GDDR5 ähnlich, nur der I/O-Takt ist unterschiedlich und mit dem I/O-Takt wird die Speicherbandbreite berechnet, ohne den Chiptakt zu beachten.
Bei 256 bit + GDDR3 können schneller viele kleine Datenpakete geschickt werden. 128 bit + GDDR5 kann erst aufholen, wenn große Datenpakete verschickt werden, die Latenzen bleiben aber auch da...
 
Zuletzt bearbeitet:
@ DvP

Ich hab mir das alles jetzt mal genau durchelesen.

Teilweiße hast du recht.. die GTX 260 für PhysX ist auch etwas viel

Versteh aber trodzdem nicht was ihr/du gegen PhysX habts, zum bsp. in Sacred 2 find ich es schon um einiges besser wens Wind und rumwirbelnde blätter gibt, oder ihn Batman...

Also bin ich zurzeit immer noch der meinung besser PhysX als keines..

Sinnvolle Gegenargumentationen sind erwünscht
 
@DvP: hast du da mal nen link für mich zu?:
Darüber hinaus noch der Fakt, dass eine dedizierte!!! GTX260 nur für PhysX für die paar Effekt in Dark Void gerade mal reichen könnte.

ich kann mir nicht vorstellen, dass es heute schon derart aufwendige physikeffekte in spielen geben soll. die könnte ja kaum einer voll in anspruch nehmen. denke eher, dass eine gtx260 für grafik und physik empfohlen wird Oô
wobei, nach crysis wundert mich in sachen systemanforderungen gar nix mehr :D
 
PS: Kennt jemand ein Game bei dem Ati in der Vorschau vorkommt ?


Gegenfrage: wer hat so viel Zeit und Muße, dass er diese ganzen Videokonglomerate, die man vor dem Spielbeginn über sich ergehen lassen muss, stoisch erträgt und daher nicht löscht?

Im Übrigen bin ich auch Lübkes Ansicht, dass man bei moderaten Qualitätsverlangen auch im +- 100€ Segment gut fährt (vor allem, wenn man die Spiele erst kauft, wenn alle Patches draußen sind und man sie für 10€ - 20€ bekommt).
 
Zuletzt bearbeitet:
@ Lübke

Sorry, ich dachte du kennst die Seite und liest brav mit, vor allem wenn dich die Thematik interessiert ;-)

https://www.computerbase.de/2010-01/anschaulicher-physx-vergleich-in-dark-void/
"....Sogar mit der Kombination aus einer GTX 275 und einer GTX 260 (PhysX) schwankte die durchschnittliche Framerate von 70 bis teilweise unter 30 Bilder pro Sekunde....."

Dark-Void-Verlauf.png


dvoid_ghaven.jpg


Vor allem da wirds lustig: Graka GTX295 + GTX260 (nur PhysX)

Noch lustiger (und da ists auf "low"!):

benchmark1.png


"That’s right – single GTX260 can’t handle Dark Void with APEX Turbulence effects enabled (Medium and High PhysX settings). Actually, dedicated GTX260 and above – official recomendation for High PhysX settings."


@ Fl_o
Was ich gegen PhysX habe? Gegen die Physikbibliothek an sich nichts. Dass es nur auf Cuda aufgesetzt ist, das ärgert mich. Es wäre mit OpenCL und Direct Compute auch auf anderen Karten lauffähig. Ebenso, dass es so eingesetzt wird um nVidia zu dienen und nicht einen Mehrwert für den Spieler zu bringen. Respektive heißt das: Zu hohe Anforderungen, Ausschluss von Nicht-nVidia Besitzern und darüber hinaus noch eine offensichtliche CPU Bremse falls man keine NV Karte hat, damit es ja nicht anständig läuft. Sieht man doch im THG Link sehr gut und die waren lange genug für nVidia.

Klar macht es einige Sachen schöner, keine Frage. Aber zu welchem Preis und auf welchem Weg das realisiert wird....find ich echt nicht gut.
 
Zuletzt bearbeitet:
ich kann ja nicht jeden einzelnen thread hier kennen^^

allerdings muss ich sagen, da bin ich echt baff. da hab ich mit meiner anspielung auf crysis in sachen systemanforderungen wohl nicht übertrieben :D

also das bedarf definitiv eines patches, wenn die ihre tollen effekte nicht nur für sich behalten, sondern auch bei den usern damit protzen wollen ;)

ich könnte jetzt zwar sagen, dass eine 130,- € karte nur für physx vollkommen übertrieben sind, aber mir fällt grad ein, dass die agaias damals auch so viel gekostet haben^^ trotzdem imho ein fehler von den machern des spiels. damit wird die arbeit, die sie in die tollen physx-effekte gesteckt haben, für die meisten im verborgenen bleiben.
 
@DvP
Dass es nur auf CUDA läuft ist verständlich. Als das Rauskam war noch gar nix von Compute Shadern (whatever) zu hören.
Es gab doch ausserdem mal das Gerücht, dass nVidia ATI PhysX für die GPU angeboten haben, aber ATI die nicht wollte, weil sie dann Lizenzgebühren zahlen müssten. Warum sollte man jetzt das gratis an ATI geben?
Ich vertrete die Meinung, dass nVidia mit PhysX machen kann, was sie wollen. Auch wenn ich das nicht gut finde. Es ist aber ihre (aufgekaufte) Technologie.

Zur CPU-Bremse: Kann es möglicherweise sein, dass die CPU (falls man keine nVidia Karte hat) PhysX@GPU emulieren muss? Das würde die Bremse erklären. Ich finde es aber dennoch nicht gut (falls es wirklich so ist), dass man es nicht schafft beide Bibliotheken (whatever) zu implementieren.
//Der zweite Abschnitt basiert auf meinen Vermutungen.

MfG
LuXon
 
LuXon schrieb:
Ich vertrete die Meinung, dass nVidia mit PhysX machen kann, was sie wollen. Auch wenn ich das nicht gut finde. Es ist aber ihre (aufgekaufte) Technologie.

Ich verstehe deine Einstellung aber finde sie etwas (sorry) dumm! Jedem Hardware Hersteller bereitwillig zugestehen, dass er seine eigenen proprietären Techniken einzusetzen kann und das vielleicht noch zu unterstützen. Wo kommen wir denn dann hin bitte? Wofür gibts Standards? Was passiert wenn das in ganz anderen Bereichen weiter geht.
Beispielt: ATI Setzt Stream ein um die KI, oder noch besser das Wayfinding-System zu berechnen (Technik existiert und wurde schon demonstriert) und bei Spielern mit anderer Graka läuft das ganze etwas dümmer ab. Wäre doch toll oder? Klar gabs noch keine anderen Schnittstellen, aber jetzt gibt es sie.

LuXon schrieb:
Zur CPU-Bremse: Kann es möglicherweise sein, dass die CPU (falls man keine nVidia Karte hat) PhysX@GPU emulieren muss? Das würde die Bremse erklären.

Tut es nicht - PhysX läuft dann in Software auf der CPU. Bezweifle noch immer, dass du dir den Link wirklich angesehen hast, denn was du sagst wäre nachvollziehbar und offensichtlich. Das ist aber eben nicht der Fall, sondern genau das Gegenteil. Die CPU wird weniger ausgelastet wenn man PhysX (ohne CudaGPU) EINschaltet. Erklär mir das bitte mal.
Sie können mit ihrer Technologie machen was sie wollen? Klar, auf unserem Rücken und unter Missachtung von 30-40% aller Spieler Kohle verdienen und die Spiele "vielleicht" sogar noch absichtlich bremsen!? Jawohl, finde ich auch toll :freak:

Mir geht es übrigens nicht nur um PhysX. Was war denn mit DX10.1? Was sogar laut Microsoft ein extrem wichtiges Update für Spiele gewesen wäre, damit die neue Schnittstelle so richtig in die Gänge kommt. So ähnlich wie die SPs von XP und Vista. Diesen OFFIZIELLEN Standard hingegen hat nVidia ignoriert und somit allen Spielern vorenthalten weil sie zu bequehm waren um ihre Grakas auf den neuen Stand zu bringen. Darüber hinaus wurden "befreundete" Spieleentwickler sogar noch dazu überredet den DX10.1 Renderpfad aufgrund von blödsinnigen Geschichten wieder zu entfernen und das Spiel somit wieder langsamer zu machen (Assassin's Creed). Gratulation, sag ich da nur! :cheerlead:

Das kann man übrigens alles in 3 Minuten belegen und du würdest es in 5 selbst finden ;-) Augen auf!
 
Zuletzt bearbeitet:
Außerdem soll laut diversen Gerüchten im Web und Äußerungen von ATi Mitarbeitern die MultiCore-Unterstützung für PhysX on CPU von nVidia beschnitten worden sein, wiewohl nVidia dies dann dementiert hat.

Und nein, DvP, ich hab wieder einmal keine Quelle zur Hand ;)
 
@DvP
erster Abschnitt:
Ich hab mir den Link gar nicht mal angeschaut. Werde ich aber irgendwann nachholen. Hab da wirklich was verpasst.

zweiter Abschnitt:
guck mal hier nach: Batman bei PCGH
Also ich sehe keine Probleme mit ATI-Karten:
PhysX ist halt nVidia-Only, das mit der CPU finde ich halt Schade, dass es so schlecht läuft. Aber wenns bei mir nicht flüssig läuft, dann stelle ich halt die Einstellungen runter.
Ich selbst habe ja eine nVidia. Aber ich kann Batman auch nicht voll aufdrehen (also mit PhysX auf max., AA usw.) Geh ich nun zu nVidia hin un sage: Ihr seid Scheisse weils auf meiner Karte auf max. nicht läuft? Neee.
Ich sage: Pech gehabt. Nächstes mal hole ich mir halt eine schneller Karte, dann passiert mir sowas vielleicht nicht mehr. *achselzucken*

-Vergleich-
Ich kaufe ein Auto ohne Getränkehalter*. Geh ich nun hin und sage: Ich finde es unfair .... blablabla..... *schnarch*
Oder sage ich mir: Nächstes mal kaufe ich mir halt ein Auto mit Getränkehalter*.
* ist beliebig ersetzbar

PhysX ist halt ein Schmankerl für nVidia-Karten. So wie der Getränkehalter ein Schmankerl fürs Auto ist.

Zum letzten Abschnitt sag ich nur *double facepalm*
Warum?
1. Facepalm: Ich habe das nie angezweifelt mit DX10.1. Davon habe ich hier auch gar nicht geredet.
2. Facepalm: Ausserdem behandelst du mich wie ein Fanboy. Vor allem dass du hier dann noch 100'000mal durchgekaute Themen bringst....... ICH BIN KEIN FANBOY UND VOR ALLEM NICHT BLIND (Der letzte satz suggeriert das - persönliche Empfindung).
 
Zuletzt bearbeitet:
Ich empfinde es teilweise als Absurd, wie u.a. hier zum Thema PhysX argumentiert wird. Auf der einen Seite wird von einigen Boardies keine Gelegenheit ausgelassen um dieses Feature mit Sarkasmus zu überziehen, auf der anderen Seite echauffieren sich selbige darüber, dass ATI-Kunden nicht daran teilhaben können. Der tiefere Sinn dieser wechselseitigen Argumentation entzieht sich meiner Logik.
LuXon schrieb:
Es gab doch ausserdem mal das Gerücht, dass nVidia ATI PhysX für die GPU angeboten haben, aber ATI die nicht wollte, weil sie dann Lizenzgebühren zahlen müssten. Warum sollte man jetzt das gratis an ATI geben?
So habe ich es auch in Erinnerung. Und wenn dem wirklich so war, dann frage ich mich folgendes: Warum wird ATI nicht dafür kritisiert, dass sie auf das Angebot nicht eingegangen sind?

Vielleicht bin ich auch nicht Geek genug, um das zu verstehen. :p
 
@ LuXon

Dann sieh doch mal das Gesamtbild, denn um das gehts mir hier. Ich behandle dich nicht wie einen Fanboy, aber über die Sache zu diskutieren, ohne dir die Links anzusehen, welche die nötigen Informationen beinhalten, verhindert mit dir anständig zu diskutieren.
Zu deinen anderen Ausführungen: Es geht darum, dass nVidia die vorhandene Rechenleistung der CPU offensichtlich, absichtlich nicht nutzt, damit zu schwache Karten oder Karten anderer Hersteller eine langsamere Performance zeigen, als es mit dem System möglich wäre. Wenn du das gut und richtig findest ok, dann brauch ich aber auch keine weiteren Argumente mehr anführen.

Konkretes Beispiel, um nicht ähnlich abwegige "Gleichnisse" zu bedienen wie du und super passend, da du ja Batman angeführt hast:
Wie toll ist das, wenn die CPU weniger arbeiten darf wenn sie PhysX zusätzlich übernimmt, als ohne? Der Prozessor muss sich notgedrungen langweilen, da er aus irgendeinem unersichtlichen Grund, die Arbeit nicht mal bis zu einer ansprechenden Auslastung übernehmen kann. Anders gesagt: Mit einer anstädigen Untestützung (ohne Bremse) von PhysX genau in diesem Game könntest ev. auch du das Spiel hochdrehen. Aber kauf dir bitte lieber eine schnellere Graka und lass nVidia weiter die Ressource deiner Maschine verschenken. :freak:

Achja und wer hat von Problemen gesprochen die ATI Karten mit der Grafikdarstellung dieser Spiele haben sollten? Ich weiß ehrlich gesagt nicht was der Link von PCGH mir jetzt sagen soll.

Übrigens, da du den Link (von dir) vermutlich gut kennst, ist dir dieser Satz sicher auch nicht aufgefallen:
"Im Gegensatz zu Nvidia-Grafikkarten, bei denen Multisampling-Anti-Aliasing im Batman-Launcher angeboten wird, müssen Sie bei Radeon-Karten auf Anti-Aliasing über das Catalyst-Control-Center ausweichen. Kurioserweise funktionierte das im Test auch reibungslos solange wir keine erweiterten Physx-Effekte aktivierten; dann nämlich versagte auch das vorher anstandslos funktionierende Multisampling auf den Radeon-Karten." Wenn du dich mal etwas schlau machst wirst du sehen woher dieser Effekt kommt. Ich lass dich einfach mal raten!

Und noch was:
War ja auch nett von nVidia die PhysX Unterstützung der eigenen Grafikkarten zu deaktivieren so bald eine ATI Karte im System ist. Voll nett, finde ich. Wenn sie sich da nicht mal ins eigenen Bein geschossen haben. Ich finde diese Firmenpolitik zum :kotz:

Aber schau dirs diesmal doch bitte endlich an bevor wir weiter reden:
http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-10.html

@ In vino veritas
Wenn es dazu verlässliche Quellen gäbe, könnte man ganz anders darüber diskutieren aber auch nur wenn man tatsächlich belegen könnte, dass nVidia keine horrenden Summen jenseits von gut und böse verlangt hätte. Andererseits hat deine Aussage auch 0 mit meinem aktuellen Vorwurf zu tun, dass nVidia PhysX auf der CPU wohl absichtlich ausbremst. Auf eine alternative Erklärung für den aktuellen Sachverhalt warte ich noch immer. Aber dir war der Klick auf den Link wohl auch zu viel Arbeit :-(
Warum ist es nur meist so leicht zu erraten welche Farbe die Graka im System des Diskutierenden hat :-(

Bzgl. Geek: "Geek, hat sich im Laufe der Zeit gewandelt in die Bezeichnung für eine Person, die sich durch großes Interesse an wissenschaftlichen oder fiktionalen Themen auszeichnet – üblicherweise, aber nicht ausschließlich, von elektronischer oder phantastischer Natur." Quelle -> Ob dir diesbezüglich das nötige Interesse fehlt, das weißt nur du.
 
Zuletzt bearbeitet:
Was wirklich schade ist, ist, dass dich Ageia früher mühe gegeben hat und Nvidia es nurnoch als Marketing Gag benutzt. Man könnte die Effekte genauso auf der CPU berechnen, aber nein es muss die Grafikkarte sein und dann läuft es auch noch schlecht und die Effekte sind sinnlos.
Ich sehe das als einen Missbrauch einer Technik, als irgend ein tolles Feature.
 
hmmm.. Sieht tatsächlich so aus, als ob nVidia hier absichtlich bremst.
Ich ging bei meinen Kommentaren davon aus, dass die CPU "überlastet" ist. Haste Recht DvP. War mein Fehler.
Und och DvP: komm doch bitte nicht noch mit dem AA.
Meine Meinung zum AA in Batman ist übrigens: nVidia hat sich die "Mühe" gemacht. Warum sollte ATI von der "Mühe" von nVidia profitieren?
Vllt kenn ich mich auch wieder einmal zu wenig aus um mitzureden^^

*Der Post kann unvollständig sein, denn ich bin am Film schauen^^*
 
Es gab schon öfter, dass nur Nvidia AA benutzen konnte. Hier hat sich ATI aber beschwert, darum denke ich nicht, dass es fair war ;-).
 
DvP schrieb:
@ In vino veritas
Wenn es dazu verlässliche Quellen gäbe, könnte man ganz anders darüber diskutieren aber auch nur wenn man tatsächlich belegen könnte, dass nVidia keine horrenden Summen jenseits von gut und böse verlangt hätte. Andererseits hat deine Aussage auch 0 mit meinem aktuellen Vorwurf zu tun, dass nVidia PhysX auf der CPU wohl absichtlich ausbremst. Auf eine alternative Erklärung für den aktuellen Sachverhalt warte ich noch immer. Aber dir war der Klick auf den Link wohl auch zu viel Arbeit :-(
Warum ist es nur meist so leicht zu erraten welche Farbe die Graka im System des Diskutierenden hat :-(
Mal abgesehen davon, dass ich dich nicht explicit angeschrieben habe (ansonsten hätte ich Dich zitiert oder @DvP geschrieben), wollte ich nur dezent darauf hinweisen wie verschroben hier argumentiert wird.
Schon lustig, sonst wird Tomshardware.de mit Hohn und Spott überzogen, jetzt plötzlich sind sie als Quelle wieder legitim. Wie Praktisch.
Warum ist es nur meist so leicht zu erraten welche Farbe die Graka im System des Diskutierenden hat :-(
Schönes Totschlagargument, nicht wahr?!

Danke für den Wiki-Link-Belehrung. Mal abgesehen davon, dass es noch andere definitionen von Geek gibt, was wäre die Welt bloss ohne solche selbstgefälligen Krümmelkacker wie Dich? ;)
 
Zurück
Oben