News EVGA: GTX 275 und GTS 250 auf einer Karte

Cool, so wird EVGA gleich zwei Chips auf einmal los. Nur schade das es zu dem Preis wie Blei in den Regalen liegt und das Regal schließlich in sich zusammen bricht.
 
Für den Preis holt man sich lieber eine GTX285 2G die sollte für alles besser geeignet sein.
Ansonsten viel zu spät und uneffizient. (2 GPUs wovon eine fast nie Arbeit bekommt)
 
DasGrinser schrieb:
die karte ist expliziet für dieses spiel rausgebracht worden;wie man auch schon uschwer in der news lesen kann; und wenn ihr mit eurer Ati keine phys-x in batman: arkham asylum hat, tut mir das leid ,) ich genieße solange dieses wundervolle spiel mit wundervollen physik effekten, wärend ihr euch da durch eure statische umgebung haut - wo nicht mal die fliesen auf dem boden kaputt gehen.

"*lach" ebenso

Klar kaufen wir uns für jedes Spiel extra eine bestimmte Karte. Sogar dir sollte klar sein, dass in der nicht PhysX version auch effekte weggelassen wurden die auf jeder CPU laufen würden. Dass einige Passagen extreme Effekte bieten steht außer Frage, aber nicht mal dafür und vielleicht für 2-3 andere Spiele würde ich die generelle Mehrleistung einer 5870 verschenken und zu diesem Ding greifen.
Mich würde interessieren welche nVidia Grafikkarte man braucht (nur für PhysX) damit die aufwändigste Szene bei Batman berechnet werden kann. Ich denke eine G92b ist dafür deutlich zu "mächtig" und um einen ev. Mehrwert dieser Karte greifbar zu machen, müsste man dann auch einen Patch oder gar ein ganzes Spiel rausbringen, welches die gesamte CPUP-Power der GTS 250 auf imposanteste Weise mit PhysX verprasst.

@ danext
Aha, ich dachte die Glaskugelbeiträge werden langsam weniger, aber so kann man sich täuschen. Wer sein Spiel gut verkaufen will, wird bald nicht mehr auf PhysX setzen, vor allem da es außer dem finanziellen Zuschuss von nVidia auch keine Gründe mehr dafür geben wird.
 
Zuletzt bearbeitet:
Woher kommt es dann, dass mir seine Argumente wesentlich vernünftiger erscheinen als deine?
Kann man wohl eventuell mit dir darüber nicht reden, weil du eine Nvidia hast?

Bezüglich Physx:
Nvidia wird wohl in Zukunft keine andere Wahl haben, als Physx auf Ati Karten zuzulassen. Denn sonst würden sie sich mit ihren Physx Investitionen ins Abseits stellen, da kein Software-Entwickler auf Physx zurückgreifen wird, mit dem Wissen, dass er ca die Hälfte seiner potentiellen Kunden vergraulen könnte, sondern ein Konkurrenprodukt als Physikengine nehmen.
So wird durch das Zulassen Nvidia wenigstens noch Profit durch das Verkaufen der Engine an Softwareentwickler erwirtschaften oder mit Werbung durch zusätzlichen Performancegewinn durch Optimierungen auf Nvidiakarten den Verkauf ihrer Karten ankurbeln können. Dadurch würden ihre Investitionen in Physx wenigstens zT "erhalten" bleiben.
 
Zuletzt bearbeitet:
Die Idee ist innovativ und interessant. Gut wäre auch eine Funktion wo die beiden Grafikchips als SLI Verbund funktionieren würden. So könnte auf jeden fall die 5850 im zaum gehalten werden.

Dennoch bleibt diese Karte sicherlich ein Exot und dementsprechen teuer. Angenommen der Doller/Euro Kurs würde wie so oft 1:1 umgesetzt. Für den Betrag könnte man sich 2*275 kaufen oder eine 5780.

Aber die Idee birgt sehr viel Platz für weitere gute Ideen. Bin mal gespannt auf die nächsten Modelle dieser Art.
 
@FlauschigesPony: Ich glaube nicht an PhysX auf ATI-GPUs. Solange Nvidia das nicht selbst baut wird nichts passieren.
Nvidia wird den Teufel tun und das machen. PhysX ist ein nettes Druckmittel, um Leute davon abzuhalten, ATI zu kaufen.
ATI wird den Teufel tun und PhysX auf ihren Karten zum Laufen bringen. PhysX ist ein von Nvidia allein definierter Unstandard, auch wenn sie gern das Gegenteil behaupten.
 
Wer sol sowas kaufen? Für 3 Spiele? Naja hauptsache man released irgendwas.
 
Bezüglich Physx:
Nvidia wird wohl in Zukunft keine andere Wahl haben, als Physx auf Ati Karten zuzulassen. Denn sonst würden sie sich mit ihren Physx Investitionen ins Abseits stellen, da kein Software-Entwickler auf Physx zurückgreifen wird, mit dem Wissen, dass er ca die Hälfte seiner potentiellen Kunden vergraulen könnte, sondern ein Konkurrenprodukt als Physikengine nehmen.
So wird durch das Zulassen Nvidia wenigstens noch Profit durch das Verkaufen der Engine an Softwareentwickler erwirtschaften oder mit Werbung durch zusätzlichen Performancegewinn durch Optimierungen auf Nvidiakarten den Verkauf ihrer Karten ankurbeln können. Dadurch würden ihre Investitionen in Physx wenigstens zT "erhalten" bleiben.

Es gab dochmal Gerüchte, dass nVidia auf ATI zugegangen war. Aber ATI hatte das Angebot ausgeschlagen.

Auf ATI-Karten läuft Physix. ATI könnte sicherlich auch ohne Probleme Physix lizenzieren.
Aber der Lizenzpreis wird sie wohl abgehalten haben.

*Alle Angaben ohne Gewähr*
 
Rollensatz schrieb:
Die Idee ist innovativ und interessant. Gut wäre auch eine Funktion wo die beiden Grafikchips als SLI Verbund funktionieren würden. So könnte auf jeden fall die 5850 im zaum gehalten werden.

Dennoch bleibt diese Karte sicherlich ein Exot und dementsprechen teuer. Angenommen der Doller/Euro Kurs würde wie so oft 1:1 umgesetzt. Für den Betrag könnte man sich 2*275 kaufen oder eine 5780.

Aber die Idee birgt sehr viel Platz für weitere gute Ideen. Bin mal gespannt auf die nächsten Modelle dieser Art.

Dem kann ich voll und ganz zustimmen. Vorallem dem ersten Absatz. Es ist eine interessante Idee nur. Nen bisschen zu spät (wann kam der G200b?). Dazu noch der G92. Eine kleinere GPU hätte auch gereicht ala G94.

Ein andere Ideenansatz wäre den G92 auch Grafikberechnen zu lassen, wenn er keine Physik berechnen muss. So ist das Gespann schneller wenn keine Physik berechnet werden müsste und man hat was von dem zusätzlichen Kern.

Aber trotzdem ein großes Lob das man so etwas überhaupt entwickelt hat und es auf den Markt bringt.
 
Reines Marketing-Geplänkel von Nvidia bzw. große Kehrraus einer altgedienten Chipgenerartion.
Die Next-Gen Gpu muss her, alles andere macht keinen Sinn. Mal sehn' ob sich im Nov./Dez. noch etwas bewegt...
 
@Bezu zu Fermi:

Eine Grafikkarte wird ja nicht innerhalb von 2 Monaten (seit der HD8xxx Vorstellung) erdacht, entworfen, entwickelt (inkl. Treiber), vorproduziert, getestet und auf den Markt geworfen... Die Karte wird wohl schon etwas länger in der Pipe gelegen haben...

Da haben sich wohl NVidia + Boardpartner verrechnet und gedacht ATI bringt wie NVidia ihre Karte im Q1/2010 heraus. Sieht man doch auch an den Spieleherstellern, dass da offensichtlich etwas schneller gelaufen ist, als es geplant war. Vielleicht wg. Win7?

@Idee

Von daher ist auch die Idee von EVGA nicht völlig blöde. Innovativ auf jeden Fall. Besonders unter dem Gesichtspunkt, dass neue NVidia Karten noch eine Weile brauchen. Jetzt mal ehrlich: Der Preis wäre okay, wenn ATI ihre DX11 Karten noch nicht herausgebracht hätten, oder? Dann wären auch NVidia Chipsätze besser verfügbarer und für die Karte vielleicht billiger zum einkaufen für EVGA.

@Andere Verwendungen

Compute Power hat die Karte sicherlich und je nachdem, wie der Treiber die Karte verwaltet, könnte man mit Quad-SLI acht Ausführungseinheiten bekommen ohne vier mal die teurere GTX295 zu kaufen. Nachdem CUDA z.B. Arbeit automatisch auf alle GPUs aufteilt, würde das wohl schon einen guten Sprung nach vorn bedeuten.

@Preis

Wie heißt es so schön bei jeder Grafikkartenvorstellung: Erst mal Straßenpreis abwarten und ein paar Wochen sacken lassen. Wenn die Karte verfügbar ist, wird man sehen wie gut und für wie viel...

@Hybrid

Wenn der kleine Chip dann auch die Grafikkarte steuern kann am selben Port macht das sogar Sinn. Allerdings takten z.B. die ATI Karten ja soweit runter, dass sie noch max. 30W verbrauchen. Ein zweiter Chip + RAM + Board-Design und zusätliche Kosten für 10-20W weniger wird sich wohl kaum rechnen. Traurig für den Kunden, der eine KArte über Jahre hinweg einsetzt, aber wahr.

So, meine 2c

Greetz,
GHad
 
Da wird zig mal geschreiben es wäre eine EVGA Karte, juckt trotzdem keinen.
Dann hier nochmal der Link (gibt auch ganze böse versteckt ein Balkendiagramm) http://www.evga.com/articles/00503/

EVGA verbaut eventuell teildefekte G92b und kombiniert das Ganze mit wenig VRAM. Ungeachtet der Entwicklungskosten ist das Päcken ein gutes Stück billiger als eine GTX 275 896MiB und eine GTS 250 512MiB.
EVGA ist nicht als Übergroßer Hersteller bekannt. EVGAs GTX 275 hat keine Konkurrenz, die anderen Hersteller sind bisher nicht auf diese Idee gekommen.
Für EVGAs Maßstäbe, wird die Karte ein durchschlagender Erfolg. Selbst wenn morgen Fermi im Laden stünde.

Also, nicht iritieren lassen, gestern hat sich EVGA überlegt diese Karte zu bringen weil Fermi nicht übermorgen kommt.
Alles klar, denkt nochmal kurz darüber nach.
 
Die Karte wird sogut wie gar nicht verfügbar sein.
Weil kein Hahn danach kräht. Wenn Nvidia nicht tausende von Euro in die SPielherstellung pumpt, dann wirds nichts mit Physx auf GPU´s.

Unyu schrieb:
Ungeachtet der Entwicklungskosten ist das Päcken ein gutes Stück billiger als eine GTX 275 896MiB und eine GTS 250 512MiB.

Nicht wirklich.
 
Schaffe89 schrieb:
Begründung oder ist es nur eine Trotzreaktion?
Muss ein Hirngespinst meinerseits gewesen sein, das ein teildefekter G92b, weniger VRAM, ein unkomplexeres PCB, billiger ist.

bye
 
Ich dachte du vergleichst gtx275 + GTS250 mit DerCOOP Edition. Hier verhält sich der Anschaffungspreis ungefähr gleich.
 
Vom Anschaffungspreis* war nie die Rede. :rolleyes:

*(den du nichtmal kennst, der aber für EVGA recht postitiv sein wird, egal wie oft du es negierst)
 
Ich habe nichts negiert, ich habe lediglich gedacht du meinst es so.
Für die Hersteller ist das sicherlich deutlich preiswerter herzustellen als 2 Karten.
Ich meinte den Anschaffungspreis von Verbrauchen, also kann ich die günstgeren Herstellungskosten nicht "negiert" haben, was faselst du?
Die Idee der Karte ist an und für sich gut, nur ist sie fast unbrauchbar, da wenn ich schonalein Physx GPU Spiel finde, kann ich das genausogut auf einer GTX275 berechnen lassen. Es lohnt sich halt nicht.
 
Zurück
Oben