ATi Radeon HD 4890 vs. Nvidia GeForce GTX 275

Welche Grafikkarte würdet ihr eher kaufen?

  • ATi Radeon HD 4890

    Stimmen: 295 60,0%
  • Nvidia GeForce GTX 275

    Stimmen: 197 40,0%

  • Umfrageteilnehmer
    492
Denk schon das man das Ergebnis als repräsentativ bezeichnen kann. Hätte ich nicht gedacht der HD 4800 Hype ist immer noch nicht vorbei und stromsparen interessiert natürlich immer noch keinen. Hauptsache die Grafikkarte kostet 10€ weniger, war ja klar...

Wird sich natürlich NV anschaun die Verkaufszahlen und dann sagen ok wenn ein lauter Lüfter kein no go mehr ist dann gehts ab, kosten sparen billig Lüfter drauf, idle Stromsparmodus wegrationalisieren etc.

Der Kunde ist schließlich König und sagt wohin es geht. Sogar EA lenkt ein mit dem Kopierschutz.

Mal ehrlich wer kauft sich die 4890? Will mal ein paar objektive Gründe hören.

MfG Kasmo
 
Zuletzt bearbeitet:
Ich.

Unter anderem deshalb, weil nVidia bei mir leicht verschissen hat (aufgrund der Probleme mit meiner 8800GTS). Ich will einfach mal was Neues.
 
y33H@ schrieb:
@ Lonely Shepherd
Lesen ist schon ner Kunst ... schau mal was im 3DC-Thread steht:
Zitat:
Den Begriff "Fanboy" hab ich auch nur verwendet, um mehr User in den Thread zu locken.
Ja, gut dass ich neben lesen auch noch nachdenken kann...
1) Da hat er mit dir ja gleich den ersten mit diesen "Trick" in den Thread gelockt.
2) Diese Info hat er erst nach deinem Post gegeben. Also nimm das nicht als Ausrede.
3) Du glaubst auch echt jeden Mist, den andere posten, soweit es zu deinem Vorteil gereicht. Schonmal daran gedacht, dass der Typ das nur geschrieben hat, um die nicht-Fanboys zu beruhigen. Ja, das nennt man lügen, das machen Menschen andauernd.

y33H@ schrieb:
Dann gib mir mal 5 Beispiele, in denen ich mich (grundlos) ereifere. Das das AF flimmert ist ein Fakt, dass die Radeons im Furmark die MBP und die PCI-E-Specs sprengen ist ein Fakt und das der Treiber den User bevormundet ist auch ein Fakt. Ich warte dann mal auf deine Beispiele.

Grundlos habe ich ja nicht gesagt. Es ist einfach so, dass du dich einfach viel zu häufig an dieser Sache aufziehst. Irgendwann ist es ja auch mal gut. Und wenn man für AMD argumentiert bist du doch der erste, der gleich einspringt. Ich will nur an unsere letzte Diskussion erinnern, bei der ich die Pros der HD Radeons erweitert habe.

Der Treiber bevormundet dich beim Furmark. Vielleicht schon mal daran gedacht, dass das ne Schutzfunktion von ATI ist, damit sie nicht zuviel Geld für Reklamationen bezahlen müssen? Und ich hab es dir schonmal gesagt: Wenn sich jemand die HD nicht kauft, weil sie beim Furmark abrauchen kann, dann ist er einfach nur paranoid, denn im normalen Spielealltag passiert das nicht.
 
Auf Treibern rumzuhaken ist müßig. Beide haben mal nen schlechten dabei, dafür kümmert sich ATI immer noch nicht ausreichend ums Stromsparen. Das war für mich ein klares Kaufargument. Idle und max. Energieverbrauch passen iwie nich zusammen. Und 90% läuft der PC im 2D! - hatte vorher ne 3870x2 -
 
@ LonelySheperd & y33h@:
Könnt ihr die Diskussion jetzt bitte per PN weiterführen? Der Zweck dieses Threads ist erfüllt, der TE hat sich für die ATi entschieden.
 
Lonely Shepherd schrieb:
Ja, gut dass ich neben lesen auch noch nachdenken kann...
Schon gesehen? http://www.forum-3dcenter.org/vbulletin/showthread.php?t=81633

Schon seltsam, das 20000 Posts Spasstiger exakt den selben Fred neu aufmacht. :rolleyes:
Nein, vollkommen abwegig das der Fredtitel nicht 100%ig ernst gemeint ist.

Lonely Shepherd schrieb:
Wenn sich jemand die HD nicht kauft, weil sie beim Furmark abrauchen kann, dann ist er einfach nur paranoid, denn im normalen Spielealltag passiert das nicht.
Stimmt, Bioshock gehört nicht zu den Spielen.
 
Zuletzt bearbeitet:
Unyu schrieb:
Schon gesehen? http://www.forum-3dcenter.org/vbulletin/showthread.php?t=81633

Schon seltsam, das 20000 Posts Spasstiger exakt den selben Fred neu aufmacht. :rolleyes:
Nein, vollkommen abwegig das der Fredtitel nicht 100%ig ernst gemeint ist.

Ja, da nannte er es noch "Bias-o-Meter" und y33h@ hat dort nicht gepostet. Kaum nennt er es "Fanboy-o-Meter", schon ist y33h auf der Matte. Sag mal, hast du meinen ersten Punkt nicht gelesen.:rolleyes:

Unyu schrieb:
Stimmt, Bioshock gehört nicht zu den Spielen.
Hm, komisch ein Kumpel von mir hat die HD 4870 und hat Bioshock ziemlich lange gespielt, ohne das etwas passiert ist oder die Temps in den kritischen Bereich kamen. Wird hier aus ner Mücke nen Elefant gemacht?!
 
Drakonomikon schrieb:
Habe einen Gutschein bei Alternate im Wert von 205€. Den muss ich verprassen.

Tipp: Bestell dir ne Karte für den Betrag bzw. drüber, dann lässt du sie zurück gehen und bekommst den vollen Betrag auf Konto zurück. Das würde ich aber nur machen wenn es überhaupt nichts passendes bei Alternate gäbe. Ich würde öfters mal reinschauen, die haben doch öfters mal ein gutes Angebot.
 
Lonely Shepherd schrieb:
Ja, da nannte er es noch "Bias-o-Meter"
Nö.
Anderer Fredstarter, anderes Unterforum, anderer Fredtitel, ...
Aber mir ist es eh egal, ich muss y33H@ nicht in Schutz nehmen, die ständigen Angriffe auf mich, wenn ich nicht anwesend bin, genügen mir bereits.
Du hast jedenfalls einen Hinweis bekommen, mach damit was du willst oder auch nicht.

Lonely Shepherd schrieb:
Hm, komisch ein Kumpel von mir hat die HD 4870 und hat Bioshock ziemlich lange gespielt, ohne das etwas passiert ist oder die Temps in den kritischen Bereich kamen. Wird hier aus ner Mücke nen Elefant gemacht?!
Schön für ihn. Dann braucht er auch keine Angst vorm Furmark haben.

Du darst dich ruhig dort umsehen: http://ht4u.net/reviews/grafik/
 
Ja die Angriffe auf dich und y33H@ sind nicht grundlos.
Ihr nervt soviel, das hält keiner aus.
Mit eurem BQ/Specs und was weiß ich geflame.
 
Ja, da nannte er es noch "Bias-o-Meter" und y33h@ hat dort nicht gepostet.
Ich lach mich tot ... dir ist nicht zufällig aufgefallen, dass ich 2003 noch nicht im 3DC angemeldet war? :lol:
Mit eurem BQ/Specs und was weiß ich geflame.
Nur weil du von den Specs und der BQ keine Ahnung hast, ist es kein Flame :rolleyes: Mir scheint, Flame ist alles, was dir nicht in den Kram passt oder du nicht kapierst ... traurig. Leute wie du kommen und gehen. Ich aber bleibe.
Ihr nervt soviel, das hält keiner aus.
Keiner? Ich seh hier nur ne Handvoll - maximal.
 
Zuletzt bearbeitet:
Unyu schrieb:
Nö.
Anderer Fredstarter, anderes Unterforum, anderer Fredtitel, ...
Mit Bias-o-Meter war auch nicht auf den Threadtitel bezogen, sondern wie er es im Thread nennt. Aber ist im Grunde ja auch Banane.

Unyu schrieb:
Schön für ihn. Dann braucht er auch keine Angst vorm Furmark haben.
Scheint so.

y33H@ schrieb:
Ich lach mich tot ... dir ist nicht zufällig aufgefallen, dass ich 2003 noch nicht im 3DC angemeldet war? :lol:
Ich lach mich tot ... in dem Thread durfte ja auch nur im Jahre 2003 gepostet werden.:rolleyes:

y33H@ schrieb:
Mir scheint, Flame ist alles, was dir nicht in den Kram passt oder du nicht kapierst
Flame ist, wenn man ein und dieselbe Sache Millionen mal in zig unterschiedlichen Foren schreiben muss. (Achtung dieser Satz enthielt eine Hyperbel)
 
Es ist kein Flame, Dinge zu kritisieren, die geändert werden sollten.
 
Natürlich ist es geflame wenn man es bwusst zu oft erwähnt. Weil dus dann isngesamt so darstellst, als ob man sich keine ATI kaufen sollt weil die ja sowieso abrauchen, hab ich xtausend mal von dir gelesen.Lonely Shepherd hat recht.
Dass ich von Specs und BQ keine Ahnung hab wusst ich jetzt nicht.
 
Natürlich ist es geflame wenn man es bwusst zu oft erwähnt.
Dinge wie das Flimmer-AF werden solange angekreidet bis es weg ist. Beim G70 zum G80 hats ja auch was gebracht.

EDIT
Deiner Ansicht nach müsste CB ja auch böse gegen AMD flamen und ein nV-Fanboys sein. Schließlich wird wiederholt und bewusst erwähnt, dass der Powerplay-Bug immer noch vorhanden ist :rolleyes: Der PP-Bug ist angesichts der Treiberbevormundung und des Flimmer-AFs sogar das kleinere Übel, denn es betrifft nur MGPU-Nutzer - und nicht alle HD3k- und HD4k-User. AMD hat die Option das zu ändern, würde man AI aber entkoppeln und splitten, wären die Radeons aufgrund im Vergleich zu den Geforces deutlich geringeren GTex/s klar langsamer in den Benches.
Weil dus dann isngesamt so darstellst, als ob man sich keine ATI kaufen sollt weil die ja sowieso abrauchen,
Das tue ich nicht. Das ist Interpretation deinerseits. Kannst mir ja aber gerne einen Link zeigen, in dem ich schreibe "kauf dir keine ATI, die raucht ab". Viel Spaß beim suchen.
Dass ich von Specs und BQ keine Ahnung hab wusst ich jetzt nicht.
Ich erinnere dich an die Sache mit der GTX275 vs. GTX280 ... von wegen das SI bringt nichts.
 
Zuletzt bearbeitet:
Drakonomikon schrieb:
Eigentlich gings hier doch nur darum ob ich die ATI oder die nVidia nehmen soll. Ihr solltet euch alle schämen.

Es tut mir unendlich leid. Aber ich erlaube mir jetz noch einen hier hinterher zu schießen.
Du kannst mich dafür dann auch gerne verbal verprügeln.

sr1 schrieb:
Hallo.
Könnt ihr mir sagen wie lang (cm) die Radeon HD 4890 und die GeForce GTX 275 ist?
Danke

Die HD 4890 ist wie die 4870 ca. 24cm lang.
Die GTX275 ist 27cm lang.

Romsky schrieb:
Muss man da CUDA erst gesondert aktivieren?

ICh hoffe ja mal das dein Vergleich 48 Stunden CPU vs 4 Stunden GPU übertrieben war. Ich mein ich kann mir beim besten Willen nicht vorstellen das CUDA um Faktor 12 schneller ist (habe hier 2x Xeon 5450 @ 3.6GHz)
Ich weiss das GPU massiv schneller sind als CPUs, aber doch nicht 12x so schnell!

Also Benston hat dazu eigentlich schonmal eine gute Zusammenfassung über das Thema abgegeben.
Für CUDA muss man tatsächlich häkchen setzten. CUDA hat neben dem eigentlichen GeForce treiber auch noch einen "seperaten" Treiber. In den Reitern kannst du diverse einstellungen über die GPU treffen (ob sie nun als "virtueller CPU-Kern" oder als Standart-GPU funktionieren soll). Aber ich glaube dass du das alles schon weißt.
Ich selber benutze viele wissenschaftliche "3D-Editoren". Inwiefern die Renderperformance auch bei Cinema4D von CUDA beeinflusst wird, kann ich jetzt ad hoc nicht sagen. Jedenfalls müsste die Oberflächer bzw. die Arbeitsfläche von C4D drastisch beschleunigt werden. Theoretisch müsstest du dir sogar fast das Render-Endergebniss des Modells - abhängig von der komplexität und der Materialien - anzeigen lassen können. Ich bin gerade selbst schon am suchen, ob es für Cinema4D ein CUDA-PlugIn gibt, das interessiert mich jetzt nämlich auch brennend.

Der Vergleich unserer "Render"zeiten (ich rede jetzt nicht von Folding@home) mit und ohne CUDA entsprechen den Tatsachen. Teilweise wirds sogar noch stärker beschleunigt.
 
Zuletzt bearbeitet:
Cuda cruncht locker 8-10 mal schneller als meine 4 Kerne@3,6GHz sieht man am RAC Wert bei Boinc. Wobei man einen Kern abziehen muss, da die Boinc Cuda Anwendung einen kleinen Teil an Kernleistung braucht. Es ist deutlich schneller, heißt aber nicht, dass eine CPU deshalb langsam sein muss, eine CPU kann eben mehr Befehle ausführen als eine GPU bzw. ist nicht so sehr spezialisiert.
 
Um es hier mal abzurunden mache ich den 100. Post.
Mittlerweile hat das hier nichts mehr mit meinem Thema zu tun.

Aber eine schöne Statistik zugunsten ATI. Die auch repräsentativ zu sein scheint, denn es ändert sich kaum noch was
 
Zurück
Oben