News GeForce GTX 470 fällt unter 200 Euro – Nachfolger in Sicht?

für die 460 ist doch kaum noch spielraum für preissenkungen.
eine gts455 steht doch eigentlich auch noch aus.
die muss preislich ja auch noch reinpassen.

wer eine 460 braucht, sollte sie imo sich jetzt kaufen.
lohnt ja nicht, monate zu warten und dann 5 oder 10€ zu sparen.
 
Arbiter Elite schrieb:
Höhere Tesselationsleistung + Bessere Treiber + Höheres OC + 200MB zusätzlicher Speicher + SLI Möglichkeit etc.

Du glaubst doch nciht ernsthaft an solchen Unsinn?
Entweder du schaffst dir Vorurteile, weil du dich danach besser fühlst oder du hegst grundsätzlich Vorurteile gegen AMD Grafikkarten.


Ich könnte Features der GTX470 auch kleinreden und die Vorteile einer HD6870 überdeutlich hervorheben und falsch einschätzen, aber warum, es ist doch wirklich nicht nötig, in den Threads immer mit solchen Aussagen glänzen zu wollen.

Gummert schrieb:
Also, was nutzt mir eine ATI Karte, die in Benches Nvidias etwas schlechter dastehen lassen, wenn diese in Games aber Ihren "erschummelten" Vorteil in Benches, wieder der nvidia abgeben müssen.

Welchen erschummelten Vorteil und vor allem wo? Ist es denn nicht eher umgekehrt?^^
Kann ich nicht nachvollziehen.
Jedenfalls hat AMD genau dort bei der tesselationleistung angesetzt, wo es für die Grafikkarte sinvoll war.
Nämlich bei Moderat und Normaler Tesselation, siehe Unigine Benchmark.

Mafia 2, Just Cause 2, Crysis, F1 2010.. dolle Grafik aber das Bild was zum Monitor geliefert wird, ist fast mit sowas wie "unschärfe" zu beschreiben... was teils verschwommen wirkt wenn man hastige Bewegungen/Fahrten macht. Wirk jedenfals schnell als störend und unangenehm zugleich.

Einbildung...:rolleyes:
 
Zuletzt bearbeitet:
Dozer3000 schrieb:
Oder was meint ihr?

Auf die GTX 475 würde ich nicht warten.
Denn wenn du pech hast passiert das gleiche wie bei Fermi.
Verschiebungen über verschiebungen.

Höchstens auf die HD69XX Serie kannste noch warten, weil die Single Grafikkarten kommen sicher November und die Dual Grafikkarte ziemlich sicher im Dezember.
 
Ick koof mir kene AMD .. wa?

Ist in der Tat so, ich finde das InGame Bild bei der ATI/AMD einfach nicht so gut, wie bei NVidia.
Meine ganz persönliche Meinung.
Vielleicht ist das bei der HD6k Reihe anders, aber die 5870 die ich getestet habe, hat mich nicht überzeugt.
Daher.. hab ich ja nun eine GTX470 drin, die wassergekühlt und hochgetaktet für alle Spiele in HD und AA4x reicht.
Wenn aber die 560 noch in diesem Jahr von EVGA kommt, werde ich das StepUp Programm starten, da ich recht viel für die EVGA gezahlt habe, und so den argen Preisverlust beim Upgrade umgehe..
Ich leg nen 50 hin und dann kommt die 560.. wäre doch schön.

NVidia hat lange an der neuen Basis-Architektur "Fermi" gearbeitet, der erste Wurf ist halt uneffizient, ok. Aber die Leistung ist gut, taktet man die Karten hoch, ist die Leistung enorm. Aber die Hitze und er Verbrauch halt nicht.
Nun können Sie aber die Architektur ausprägen, das mit der 460 war schon ein Erfolg. Da kommt noch mehr..
Wobei ich nicht dran glaube, dass sie noch dieses Jahr kommt.. aber was heißt das schon.
Ich hoffe zwar das NVidia mal wieder ein Launch-Erfolg gelingt, aber mehr als hoffen ist das nicht.
Warten wir es ab.
 
Zuletzt bearbeitet:
Nun können Sie aber die Architektur ausprägen [...]
Genau. 28nm-GPU rules! :cool_alt:

Wenn sowas wie eine GTX 560 kommt, dann noch dieses Jahr. Von einer GTX 470 auf eine GTX 560 umzusteigen, halte ich dann doch für weniger sinnvoll, selbst wenn diese für 50€ Aufpreis zu erwerben ist.
 
wieso? Wenn die 560 Karte stromsparender ist, haben sich die 50€ in einem Jahr bezahlt..
Abgesehen davon kennt keiner die Leistung der 560.. oder whatever da kommt.
 
Schaffe89 schrieb:
Du glaubst doch nciht ernsthaft an solchen Unsinn?
Entweder du schaffst dir Vorurteile, weil du dich danach besser fühlst oder du hegst grundsätzlich Vorurteile gegen AMD Grafikkarten.

Einbildung...:rolleyes:

Dir ist aber anscheinend nicht bewusst, dass ich die ganze Zeit von der GTX 470 SOC rede.
Eine Referenz GTX 470 ist manchmal langsamer, manchmal schneller, als eine HD 6870.
Die schenken sich wirklich nichts. Bis auf die, nachweislich, bessere DX 11 und Tesselationsleitung der Fermiarchitektur.
Die SOC ist ab Werk um 100Mhz übertaktet und ist ca. 12% schneller als eine normale GTX 470.
Das Besondere ist aber das hochwertige PCB (Ultra Durable) von Gigabyte, welches eine enorme zusätzliche Übertaktung, bei gleichzetig lautlosem Betrieb, ermöglicht. Keine HD 6870 (Die sowieso fast am Limit laufen) kommt an eine übertaktete 800Mhz SOC ran. Da vorallem eine Übertaktung bei Fermi deutlich mehr bringt, als bei den Cypress oder Barts.
 
Arbiter Elite schrieb:
Dir ist aber anscheinend nicht bewusst, dass ich die ganze Zeit von der GTX 470 SOC rede.
Eine Referenz GTX 470 ist manchmal langsamer, manchmal schneller, als eine HD 6870.
Die schenken sich wirklich nichts. Bis auf die, nachweislich, bessere DX 11 und Tesselationsleitung der Fermiarchitektur.
Die SOC ist ab Werk um 100Mhz übertaktet und ist ca. 12% schneller als eine normale GTX 470.
Das Besondere ist aber das hochwertige PCB (Ultra Durable) von Gigabyte, welches eine enorme zusätzliche Übertaktung, bei gleichzetig lautlosem Betrieb, ermöglicht. Keine HD 6870 (Die sowieso fast am Limit laufen) kommt an eine übertaktete 800Mhz SOC ran. Da vorallem eine Übertaktung bei Fermi deutlich mehr bringt, als bei den Cypress oder Barts.

Und das weißt du, weil du es mit beiden Karten getestet hast? Falls nein, bitte solch verallgemeindernde Sätze vermeiden.
 
Er nicht, aber ich :D
Umtausch hier, umtausch da, gegen die SOC....
hab meine Vergleiche machen können.

Zwar wars nur die 5850 ( OC version mit 4 Heatpipe kühlung )
.. Ich kann auch sagen, das die Abwärme und Leistungsaufnahme erstaunlich geringer ausfällt als man denkt, wenn man die GTX 470 SOC übertaktet ( nochmals 100mhz mehr also 900 )

Die GPU der GTX 470 ist nen Schluckspecht ganz klar, aber verbraucht relativ weniger wenn man sie "hard" übertaktet... also ist ganz okay.. hätte mehr erwartet.

Es scheint mir fast so, das die GPU zwar viel Spannung braucht, für mehrleistung durch OC aber dann recht zurückhaltend ist. Was die 5850 keines weges war :D

Und die neuen Karten, sind sowas von am Limit, da ist nichtmehr viel drinn...
und die Abwärme sowie verbrauch steigt expotentiell an...

Für den, der eine WaKü hat, ist die SOC 101% die geilste Karte.
Was diese nur mit den 3 Popellüftern zustande bringt, ist der Hammer.

250€ für ne GTX 480 kann man fast sagen... :D
verbraucht aber weniger... und leiser.. Kühler allerdings bei 900mhz nichtmehr.


Schaffe89 schrieb:
Du glaubst doch nciht ernsthaft an solchen Unsinn?
Entweder du schaffst dir Vorurteile, weil du dich danach besser fühlst oder du hegst grundsätzlich Vorurteile gegen AMD Grafikkarten.


Ich könnte Features der GTX470 auch kleinreden und die Vorteile einer HD6870 überdeutlich hervorheben und falsch einschätzen, aber warum, es ist doch wirklich nicht nötig, in den Threads immer mit solchen Aussagen glänzen zu wollen.



Welchen erschummelten Vorteil und vor allem wo? Ist es denn nicht eher umgekehrt?^^
Kann ich nicht nachvollziehen.
Jedenfalls hat AMD genau dort bei der tesselationleistung angesetzt, wo es für die Grafikkarte sinvoll war.
Nämlich bei Moderat und Normaler Tesselation, siehe Unigine Benchmark.



Einbildung...:rolleyes:



Nehm bitte den Text als ganzes, und nicht nur den Teil der dich Spitz werden lässt.
Und einbildung - Du bist anscheind ein Arzt ?
Und ich bin nicht der einzige dem das auffällt.
Vorallem, wie manche die Mikroruckler nicht erkennen...

Brillenträger neigen dazu...
Nicht Brillenträger sind zumeist empfindlicher, auch was 3D anbelangt ( Shutterbrille ) der eine hats, der andere nicht. Mit nvidia hab ich das Problem nunmal garnicht, mit ATI schon, punkt fertig aus, damit hast Du dich abzufinden, mein Befinden nicht deiner. Also belass es dabei :rolleyes::rolleyes::rolleyes:

Ich hasse es, wie solch Leute immer jemanden etwas schlecht reden müssen, oder einem Einbildung unterstellen, nur weil der jenige was schlechtes zu seiner Fanboy Karte macht.

Hörmal ich bin weder Fanboy noch Praktikant beim Augenarzt wie Du.
Ich hatte eine ATI Bildquallität spricht mich nicht an.
Fertig. Dein Auto ist auch ne Krücke gefällt Dir aber? ja fein, Du siehst, GESCHMACK und empfinden einer Sache, geht dich nix an.
Immer diese Fanboys... die sich zu jedem kleinsten bischen Beleidigt fühlen. Und nichtmal merken, das es um eine SOC geht... beweist wiedereinmal, der Herr der mir Einbildung unterstellt, bildet sich aus den Texten womit er was anfangen kann seine Meinung, anstelle die Meinung des gegenübers zu respektieren, und das dieses nichts mit schlechtreden zutun hat.

Guten Tag Fanboy.
 
Zuletzt bearbeitet:
So wie es im Moment aussieht werde ich meine HD4850 wohl gegen eine Radeon HD 6870, GTX 460 mit Übertaktung oder GTX 470 tauschen.
Da die GTX 460 mit Übertaktung fast gleich schnell wie eine normale GTX 470 sein soll, was für Nachteile hätte die GTX 460 gegenüber der GTX 470?


Um mal auf den Unterschied der Bildqualität zur Radeon zu kommen, ich hab in vielen Threads die Diskussionen über Texturflimmern etc bei ATI mitgelesen.
In WoW hab ich ein Flimmern an hohen Gräsern, Zweigen von Bäumen und teilweise auch auf Straßen wenn sich mein Charakter bewegt.
Bei Fallout 3 flimmern die Äste der Bäume wenn ich mich bewege.
Sind es diese Effekte die alle meinen ober ist das normal und bei Nvidia karten tritt das auch auf?
Wenn das wirklich dieses berühmte Texturflimmern ist das alle meinen, dann wirds auf jedenfall eine Nvidia.
 
hehe, witzig, manche Nvidia Jünger haben ein ganz schön hartes Fell und sind ganz schön voreingenommen...

Ich hatte das Privileg genau wegen solcher Hirnausdünstungen von wegen BQ usw. beide Karten zu testen, habe extra meine 5870 PCS+ gegen eine GTX470 getauscht. Diese war im Referenzdesign, wurde dann mit einer xigmatek Battle Axe 2 versehen.

Und mann muss sagen, zum overclocken ist der Fermi echt ne Wucht. Das mit dem Mehrverbrauch stimmt. Meistens ists sogar gut möglich, die GPU zu untervolten und die Karte zu übertakten. Dann ist der Verbrauch minimal gesunken, oder gleich geblieben, die Karte aber nochmal rund 10% schneller.

Die Spitzenradeons hingegen haben in der Regel nicht mehr ganz so viel Potential, wobei das wieder ein ganz anderes Thema ist.
Und hier die Nachrichten des Tages:
"
Eine höhere Tesselationsleistung braucht man nur, wenn man Unigine Profi ist, es soll ja mittlerweile sogar schon diskutiert werden, ob es in die ESports Liga aufgenommen wird, Nvidia würde sich sogar bereit erklären als Hauptsponsor zu agieren.

Die massiven Bildunterschiede zwischen Radeons und Geforce Karten führen zu massiven Kalibrierungsschwierigkeiten an wissenschaftlichen Instituten. Forscher sollen einzelne Protonen nicht mehr unterscheiden können, wenn sie eine minderwertige Radeon verwenden.

Softwarehersteller beschweren sich über die mindere Spieleunterstützung seitens des Marktführers für diskrete Grafikkarten. Oftmals soll es zu massiven Bildausfällen kommen und ganze Kleinstädte stehen im Dunkeln.

Hollywood verzichtet seit neuesten auf Darsteller. Die schiere Rechenkraft und das Überfeature PhysX ermöglichen es, gänzlich auf irdische physikalische Unterstützung zu verzichten. Nur noch die Stimmen werden für die Synchronisation benötigt.

Wie Nvidia verlauten lässt, soll bereits nächsten Monat eine neue Generation kommen, die den Konkurrenten, über den übrigens keiner mehr reden will, das fürchten lehren will. Dann sollte AMD erstmal wieder aufholen.

Die täglichen Kurznachrichten von ihrem Wettermoderator Jen-Hsun Huang."


Wo kann man diesen Nachrichtensender denn empfangen? Und wieso glauben dem so viele?
 
Sehr amüsant wie hier vehement die Nachteile der Radeon und GTX Karten weggeredet werden. Das Problem ist einfach mangelnde Konkurrenz, Intel ist Marktführer in diesem Segment, AMD macht Verluste am Marktanteil und nVidia holt langsam wieder auf. Würde Intel nicht nur interne Lösungen produzieren und hätte sich Matrox nicht schon vor Ewigkeiten aus diesem Segment zurückgezogen, es könnte so schön sein. Möglicherweise auch noch günstiger. Man muss sich doch nicht streiten, noch hat nVidia die schnellste Karte, wird die Führung wahrscheinlich bald an AMD abgeben müssen, sie sich aber in im nächsten Jahr wieder zurückholen um sie sich dann wieder von AMD nehmen zu lassen. So geht das schon seit über 15 Jahre, damals noch mit Firmen wie 3Dfx und einigen anderen Mitbewerbern auch wenn die oft nicht viel mit zureden hatten.

Bevor jetzt wieder Sprüche von unseren Berufsklugscheißern kommen, die 5970 bleibt außen vor, da es eine Crossfire Lösung ist.
 
Zuletzt bearbeitet:
Jepp... ist eigentlich schon krass, wenn man sich mal die komplette Entwicklung der PC-Grafikkarten so anschaut... von ehemals locker über 20 Herstellern sind grad mal 5 übrig... (AMD/ATI, NVidia, Intel, Matrox, VIA/S3)

Aber mit dem Umschwung auf 3D begann das "Massensterben"... einige habens probiert, aber die Karten konnten nicht 100%ig überzeugen (auch wenn ein paar nette dabei waren, Permedia 2 oder Kyro z.B.) und das wars dann. Andere haben de 3D-Zug komplett verpasst (Tseng Labs ET6300 war als 3D-Chip geplant, aber da wars schon viel zu spät)
 
Jesterfox schrieb:
Jepp... ist eigentlich schon krass, wenn man sich mal die komplette Entwicklung der PC-Grafikkarten so anschaut... von ehemals locker über 20 Herstellern sind grad mal 5 übrig... (AMD/ATI, NVidia, Intel, Matrox, VIA/S3)

Du hast SIS vergessen ;)
 
Gummert schrieb:
Nehm bitte den Text als ganzes, und nicht nur den Teil der dich Spitz werden lässt.
Und einbildung - Du bist anscheind ein Arzt ?

Unschärfe bei diesen Games ist niemandem aufgefallen und auch nicht in Tests oder BQ abgleichen dargelegt.
Es gibt lediglich unter Fachkreisen Leute, die AF genau analysieren.
Dort ist von etwas mehr Flimmern die rede, was aber für einen Gamer und User nicht ins Gewicht fällt+ etwas Banding.
Von Unschärfe und "verschwommenen" Darstellungen gibts aber nichts zu berichten, deswegen halte ich das für Einbildung und die ist es auch wohl.
Einen Unterschied zwischen dem AF siehst du nur im Vergleich. D.h. Monitor vs. Monitor und dann ganz genau am besten am Boden gucken, ob etwas flimmert.
Das ist die Realität und das was du schreibst ist nicht die realität.

Gummert schrieb:
ch hasse es, wie solch Leute immer jemanden etwas schlecht reden müssen, oder einem Einbildung unterstellen, nur weil der jenige was schlechtes zu seiner Fanboy Karte macht.

Was heißt hier Fanboy?
Wer jammert denn über angebliche unschärfe, die es gar nicht gibt?
Ich oder du?
Wir wollen doch wirklich bei den Tatsachen bleiben und das was du schreibst sind keine Tatsachen, sondern einfach Humbug und Fanboygequatsche.
Diese sinnlosen, unbegründeten Feldzüge und falschen Darstellungen, nerven gewaltig.
 
Zuletzt bearbeitet:
Er versteht's nicht... :lol::rolleyes:
kleinstes beispiel: Flimmern - das existiert schon eine ewigkeit bei ATI und ist auch heute noch vorhanden. Wie Du Tatsachen verdrehst ist echt klasse.
Vorallem was Tatsachen anbelangt hingst Du auch deutlich hinterher :D
Und wie was Analysiert wird - seh ich im CB Test bezg. der AI Geschichte ....
Eierbär..
 
Zuletzt bearbeitet:
Gummert schrieb:
Wie Du Tatsachen verdrehst ist echt klasse.

Ich habe die Tatsachen nicht verdreht und ich habe auch nicht gesagt, es gebe kein Flimmern.
Du hast von unschärfe gesprochen, nicht von Flimmern und diese ist nicht vorhanden, ergo Blödsinn, aber hauptsache Bashing ist wichtig.
 
Dass du einer der grössten AMD Ritter hier im Forum bist, wissen die meisten Stammuser sowieso.
Vorallem, wenn du dir einzelne Passagen, die leckeren Rosinen, herauspickst und diese aus dem Kontext reisst.
Deine mangelhafte Diskussionskultur, ist hier schon einigen Usern aufgefallen. Nicht nur mir oder Gummert. Daher wirst du ab sofort rigoros ignoriert. Schönen Abend noch. :)
 
Zurück
Oben