Geforce 8300 vs 780G

perfectsam

Commander
Registriert
Okt. 2007
Beiträge
2.426
Ich lese hier sehr oft, dass der 780G bei Office PC's empfohlen wird. Wieso? Hat der irgendwelche Vorteile gegenüber Boards mit Geforce 8300? Gemäss verschiedenen Tests sind sich die beiden ja ziemlich ähnlich bei 3D Leistung, HD Wiedergabe und Stromverbrauch. Einen grossen Nachteil hat der 780G jedenfalls noch immer: Bei vielen Boards ist die 2D-Perfomance unter Win XP mies (Laut diversen Foren ist das Problem noch immer nicht gelöst und hat sich teilweise sogar verschlimmert mit neuen Treibern).

Vom Preis her sind beide ziemlich gleich:
ASUS M3N78-EM, GeForce 8300
ASUS M3A78-EM, 780G
 
Die Boards und BIOS Versionen des 780G haben sich inzwischen soweit verbessert das der Stromverbrauch gesenkt wurde und somit dieser unterhalb der Geforce 8200/8300 Bretter liegt.
Zudem soll dieses Problem unter Windows XP nicht unbedingt auftreten, es tritt wohl vornehmlich bei einigen Asrock und Gigabyte Boards auf, wobei auch nicht immer. Ob es am BIOS oder den Treibern liegt wird immer noch "gestritten", vielleicht eine Mischung aus allem.
Es soll wohl auch schon helfen, wenn es auftritt, die Hardwarebeschleunigung zu deaktivieren.

Unter Vista läuft alles tadellos
 
Dass der 780G weniger Strom verbrät als ein 8300 halte ich für ein Gerücht (Quelle?). Nehmen sich wohl beide kaum was. Bei dem 780G stößt du unter Umständen auf das XP-2D-Problem, bei NVidia nicht. Der 780G ist wohl auch etwas schneller, zumindest nach den alten Benchmarks, was sich mittlerweile von den Treibern her getan hat weiß ich nicht.

Der 8300 CHipsatz hatte vor einem halben Jahr (eigene Erfahrung) noch Probleme mit Linux, falls du da was mit vorhast, man bekam nicht alles zum Laufen, ich glaube es gab Probleme mit den SATA Anschlüssen und dem LAN, bin mir aber nicht mehr ganz sicher. Der 780G hat hingegen keine Probleme gemacht.

Letztendlich, wenn es ein Office-PC werden soll und XP als OS dienen wird, dann würde ich nach wie vor zum 8300 greifen, ganz einfach weil du mit dem 780G doch Gefahr läufst die erwähnten Probleme zu bekommen. Die Situation hat sich zwar seit Ende letzten Jahres treiberseitig verbessert, allerdings gibt es immer noch User die Probleme haben - dieses Risiko würde ich ausschließen wollen. Zumal AMD dieses Problem ja totschweigt.
 
Quelle bin ich selber. Das weiß ich weil mein Gigabyte GA-MA780G-DS3H sich verabschiedet hatte und ich eine neue Revision bekommen habe mit anderer Spannungsversorgung etc. Dabei hat sich die Stromverbrauch deutlich reduziert und da sich die 780G und 8200/8300er Boards eh schon diesbezüglich ein Kopf an Kopf rennen geliedert haben, sollte der Verbrauch jetzt darunter liegen.
 
@ perfectsam

Ich würde Dir vom 8300 Chipsatz/IGP abraten. Als meine IGP noch passiv gekühlt war (Original) wurde die GPU, nach einer Stunde surfen, bis zu 100 Grad heiss. Erst als ich den 8300-Chipsatz/IGP mit in die Wasserkühlung integriert habe, bekam ich die "Temps" in den Griff. Der Boardie *ZWIRBELKATZ* kann diese hohen Temperaturen bestätigen, denn er hatte das selbe Board wie ich.

Von daher, entweder den GeForce-8200 oder den 780G-Chipsatz/IGP.
 
Erstmal danke an alle für die Antworten.

Ich habe mir jetzt (trotz Temp-Warnungen :p) das ASUS M3N78-EM mit GeForce 8300 bestellt, da ich es für etwa 30€ (neu!) bekomme (Schweizer Shop).

Ich werde auf jedenfall hier berichten, wie es mit den Temps aussieht, sobald das Board da ist nächste Woche.

Noch eine kleine Frage: Guild Wars sollte die IGP schon hinkriegen, oder? (@1280x1024 mit einem X2 5200+)
 
Guild Wars mit einer IGP? Bestenfalls in absolut minimaler Einstellung und selbst da bezweifel ich es. Es ist ein 3D Spiel das schon seine Ansprüche hat, täusch dich da nicht. Du kannst nicht mal Sims3 auf einer IGP halbwegs vernünftig spielen.
 
Guild Wars ist bei weitem nicht so anspruchsvoll wie Sims 3 (Sims 3 ruckelt sogar auf meiner 8800 GT). In einem PVP-Match sind meist auch nur 16 Player bei Guild Wars.

Mit meiner alten 6600GT lief Guild Wars jedenfalls sehr gut auf hohen Einstellungen. Ist die Geforce 8300 IGP so viel langsamer?
 
Also du darfst da nicht nach den Zahlen schauen.

Eine 6600GT ist so schnell wie eine 7600GT oder etwa eine 8400GT/8500GT.

Eine 8300 wird daduch arg beschränkt, dass sie keinen eigenen Speicher besitzt und somit langsamen DDR2 oder DDR3 Ram (also vom Arbeitsspeicher) abwagt. Und meist ist das Speicherinterface gerade mal 64bit breit.

So ist zum Beispiel eine 7300GS trotz höherer Zahl immernoch langsamer als deine alte 6600GT.

Es läuft einfach so:
"Nvidia AB00XX"

Für A wird die Produktserie eingesetzt, für B den Typ, also Lowend, Midend, Highend und für XX die Spezialbezeichnung, also z.B. GT, GS oder GTX...
Das klappt jetzt aber nichtmehr sogut, mit der Einführung der GTX260 und aufwärts.


LG
Tim
 
Zuletzt bearbeitet:
Ich hab Guild Wars in der letzten Version nicht mal auf einem Laptop mit 7700Go vernünftig zum laufen gebracht was ungefähr einer 7600 non GT entspricht (trotzdem etwas schneller als 6600GT). Und das mit einer 2,2Ghz Dualcore CPU von Intel (bin mir grade nicht sicher welche das war). Die 8300 hat ja nur 16 Shader Units, da bin ich ernsthaft am Zweifeln ob du da Guild Wars wirklich vernünftig zum laufen bringst. Eine IGP ist immer noch eine sehr schwache Karte. Ein 780G entspricht grob einer 9800Pro nur moderner.

@El Präsidente
Die 7600GT entsparch einer 6800Ultra, täusch dich da mal nicht. Die war damals sehr schnell.
 
@El Präsidente
Naja! Z.B. Eine HD3450 256MB hat auch nur ein 64-bit Speicherinterface und DDR2-RAM. Sie kommt jedoch ziemlich nah an eine 6600GT heran.

Bezüglich offtopic: 7300GT vs 6600GT Test --> 7300GT schneller

@Eon-Deon
Komisch, dass es auf dem Laptop nicht lief. Meine Desktop Config (noch vor 1/2 Jahr):
A64 3200+, 6600GT, 1GB Ram
Damit lief's wirklich auf hohen Einstellungen sehr gut (ohne Schatten, ohne AA).
 
@El Präsidente
Kann ich dir grade gar nicht so genau sagen. Ich würde eher die 7600 non GT mit der 6600GT vergleichen.

@perfectsam
Ich kann nur sagen was ich erleben musste. Kann sein das der Flaschenhals ein anderer war.
 
Nvidia hat übrigens beim 8200/8300er keinen Temperatursensor verbaut. Den 780G gibt es auch in keiner neueren Revision, als das er weniger Strom benötigen würde als vorher.
 
Bauknecht schrieb:
Nvidia hat übrigens beim 8200/8300er keinen Temperatursensor verbaut.
Was bedeutet, dass die ganzen ausgelesenen hohen Temps falsch sind?
 
Gut möglich. Warum auch nicht, die meisten Programme taugen so oder so nicht zum auslesen. Einer der schlimmsten Programme für so etwas ist Everest. Warum man sich das noch installiert um Temps auszulesen verstehe ich so oder so nicht. Das Ding zeigt extrem oft einfach nur Müll an.
 
Bauknecht schrieb:
... Den 780G gibt es auch in keiner neueren Revision, als das er weniger Strom benötigen würde als vorher.
Ich sprach auch nicht vom Chip, sondern vom Board das in einer neuen Revision vorliegt und damit der Stromverbrauch nochmals gesenkt wurde.
 
Die Temperaturen können durchaus realistisch sein. Nvidia hatte bei ihren Motherboardchips nach dem nforce2 immer Hitzköpfe - und wenn die Chips für solche Temperaturen ausgelegt sind ist es auch in Ordnung.
 
Zurück
Oben