Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
E7200 OC stark genung für die NEUEN Grafikkarten?
- Ersteller Teresa666
- Erstellt am
David Aames
Lt. Junior Grade
- Registriert
- Nov. 2006
- Beiträge
- 331
Es gab vor kurzem eine sehr interessante Präsentation. Wichtiger ist immer die Grafikkarte, da diese mehr rechnen muss. Ich denke mit einem E7200 bist du gut im rennen.
David Aames
Lt. Junior Grade
- Registriert
- Nov. 2006
- Beiträge
- 331
Die Präsentation war definitv von PC GAMES HARDWARE. Den Link habe ich leider nicht mehr, es könnte auch in der Zeitschrift gewesen sein.
ICH HABS:
http://www.pcgameshardware.de/?menu=0613
Ich hoffe ich konnte helfen.
ICH HABS:
http://www.pcgameshardware.de/?menu=0613
Ich hoffe ich konnte helfen.
Zuletzt bearbeitet von einem Moderator:
(Beiträge zusammengeführt.)
Digger-Deluxe
Lt. Junior Grade
- Registriert
- Juli 2006
- Beiträge
- 284
Mhh,
würde ein E4600 @ 3Ghz auch für die nächste Grafikkartengeneration reichen?
würde ein E4600 @ 3Ghz auch für die nächste Grafikkartengeneration reichen?
Drarlor
Commander
- Registriert
- Jan. 2007
- Beiträge
- 2.698
Ähm nur mal so ein Einwurf. Die CPUs limitieren die Grafikkarten nicht. Jedenfalls kann man das nicht einfach so behaupten. Habe ich beispielsweise eine Anwendung die ausschließlich Grafik berechnet (und eben keine Physik, AI etc.) so wird kaum eine CPU eine Grafikkarte ausbremsen.
Fazit ist, dass es auf die Programmierung ankommt. Ist ein Spiel sehr CPU lastig (wie z.B. Supreme Commander) kann eine schwache CPU hohe Bildwiederholungsraten verhindern. Prinzipiell steigt mit neuen Spielen aber auch immer die CPU Last, da immer mehr Physik- und AI-Berechnungen stattfinden.
Btw. ist der Artikel hinter dem Link sicherlich eine nette Anaylse. Allerdings sollte man den mit Vorsicht genießen. Er kommt immerhin (wie man schon am Layout sofort erkennt) von NVIDIA. Dass also ein Grafikkartenhersteller Spieler dazu bewegen will mehr Anteile ihres Budgets in Grafikhardware zu stecken ist imho mehr als klar. Recht haben sie natürlich, aber die Grafiken sind nicht sonderlich aussagekräftig und mehr Werbung als alles andere.
Edit: Ich hab mir noch mal die Webseite die hier gepostet wurde angesehen und es ist schlimmer als ich auf den ersten Blick gedacht hatte.
Zumindest eine Antwort findet sich am Ende. Die Relationen werden im Vergleich zu einem System mit Q6600 mit 8400GS 256MB gebildet! Wie fair und überaus sinnvoll! Ich rate dringend von diesem Vergleich ab. Leider nur Propaganda von einem Hersteller der es eigentlich nicht nötig hätte!
Unten als Link angegeben ist noch der Artikel von PCGH. Dieses Bild hier ist deutlich Aussagekräftiger als der gesamte Artikel von NV. Ohne Worte!
Fazit ist, dass es auf die Programmierung ankommt. Ist ein Spiel sehr CPU lastig (wie z.B. Supreme Commander) kann eine schwache CPU hohe Bildwiederholungsraten verhindern. Prinzipiell steigt mit neuen Spielen aber auch immer die CPU Last, da immer mehr Physik- und AI-Berechnungen stattfinden.
Btw. ist der Artikel hinter dem Link sicherlich eine nette Anaylse. Allerdings sollte man den mit Vorsicht genießen. Er kommt immerhin (wie man schon am Layout sofort erkennt) von NVIDIA. Dass also ein Grafikkartenhersteller Spieler dazu bewegen will mehr Anteile ihres Budgets in Grafikhardware zu stecken ist imho mehr als klar. Recht haben sie natürlich, aber die Grafiken sind nicht sonderlich aussagekräftig und mehr Werbung als alles andere.
Edit: Ich hab mir noch mal die Webseite die hier gepostet wurde angesehen und es ist schlimmer als ich auf den ersten Blick gedacht hatte.
- In den Grafiken werden Relationen angegeben. Relationen zu WAS?
- Wo kommen die 122% bzw. 258% Multimedia Leistung her?
- Warum ist ein E4500 schneller als ein Q6600 wenn es um die Multimedia Performance geht? Was steckt eigentlich hinter dieser Multimedia Leistung?
- Warum sind in den Grafiken 8500GT und 8800GT angegeben, im Kasten darunter stehen aber 8400GS und 9600GT?
- Warum werden mit Midrange Karten Messungen mit 1280 x 1024 4 x AA / 16 x AF durchgeführt?
Zumindest eine Antwort findet sich am Ende. Die Relationen werden im Vergleich zu einem System mit Q6600 mit 8400GS 256MB gebildet! Wie fair und überaus sinnvoll! Ich rate dringend von diesem Vergleich ab. Leider nur Propaganda von einem Hersteller der es eigentlich nicht nötig hätte!
Unten als Link angegeben ist noch der Artikel von PCGH. Dieses Bild hier ist deutlich Aussagekräftiger als der gesamte Artikel von NV. Ohne Worte!
Zuletzt bearbeitet:
Da selbst sehr CPU - fordernde Spiele wie UT3, Colin McRae Dirt oder Assassin`s Creed von einem E6600 noch flüssig dargestellt werden (die entsprechende Grafikkarte vorausgesetzt), denke ich, dass man mit einem C2D mit 3,0GHz oder mehr rein spieletechnisch noch mindestens ein Jahr sehr gut bedient ist. Natürlich wird ein E6600@2,4GHz eine GTX 280 wahrscheinlich bremsen, aber das heißt ja noch lange nicht, dass man nicht trotzdem 50fps oder mehr hat! Mit einem schnelleren Prozessor wären es dann eben 80fps!
-=Ryo=-
Commodore
- Registriert
- März 2005
- Beiträge
- 4.218
Ach iss das alles irritierend 
Würdet ihr sagen es ist egal ob man einen E4300 hat oder nen E7200 oder gar E8400 wenn man in 1360x768 Spielt?
z.b. als vergleich Crysis (Action) und World in Conflict (Strategie)
Und es mehr auf die Grafikkarte ankommt und selbige von genannten CPUs garnicht ausgebremst wird?
Würdet ihr sagen es ist egal ob man einen E4300 hat oder nen E7200 oder gar E8400 wenn man in 1360x768 Spielt?
z.b. als vergleich Crysis (Action) und World in Conflict (Strategie)
Und es mehr auf die Grafikkarte ankommt und selbige von genannten CPUs garnicht ausgebremst wird?
Eon-Deon
Rear Admiral
- Registriert
- Mai 2007
- Beiträge
- 5.507
Die benötigte CPU Leistung hat nichts mit der Auflösung zu tun. Sondern viel mehr was die CPU alles berechnen soll. KI, Physik Effekte u.s.w.! Auflösung und hohe Grafikeinstellungen fallen in den Leistungsbereich der Grafikkarte.
Im Grunde kann man sagen das man mit einem C2D @ 3Ghz (E2XXX Modelle außen vor genommen) sicher noch lange seinen Spaß haben wird ohne das die CPU zu langsam werden sollte. Sofern die Unterstützung der Quads nicht rasend schnell voran geht. Auch mit einem Phenom ab 2,4Ghz oder X2 @ 3Ghz wird man noch eine ganze Weile gut bedient sein. Der Trend geht eher dahin das die GPUs mehr und mehr berechnen müssen.
Im Grunde kann man sagen das man mit einem C2D @ 3Ghz (E2XXX Modelle außen vor genommen) sicher noch lange seinen Spaß haben wird ohne das die CPU zu langsam werden sollte. Sofern die Unterstützung der Quads nicht rasend schnell voran geht. Auch mit einem Phenom ab 2,4Ghz oder X2 @ 3Ghz wird man noch eine ganze Weile gut bedient sein. Der Trend geht eher dahin das die GPUs mehr und mehr berechnen müssen.
digitalangel18
Vice Admiral
- Registriert
- Mai 2005
- Beiträge
- 6.605
Digger-Deluxe schrieb:Mhh,
würde ein E4600 @ 3Ghz auch für die nächste Grafikkartengeneration reichen?
Der reicht noch locker 2 Grafikkartengenerationen, vorrausgesetzt du spielst nicht 640*480 und willst dabei drei quadrillionen frames haben
Ähnliche Themen
- Antworten
- 28
- Aufrufe
- 1.864