News GeForce 7800 GTX mit acht Pixelprozessoren?

Dope4you diese Beispiel ist schlecht gewählt: Neue Autos bieten zB bessere Sicherheit, weniger Verbrauch etc!

Aber der Käufer einer solch aktuelle Grafikkarte hat nur einen Vorteil, seine Karte ist zukunftssicherer als eine MidBudget-Karte! Aber als Nachteil hat er aktuell noch keine höhere Leistung(im Vergleich zu einer billigeren karte) und muss ewig Kohle blechen dafür!
 
jAnus6th schrieb:
Müsste mehr solche klugen Leute geben die wirklich nur dann kaufen wenn es nötig ist...
Ist wohl ansichtssache ob man Farcry in einem Modus spielen will der das Spiel aussehen lässt wie Quake 3, denn die GF4 kann die ganzen Shader nicht darstellen. Ob es klug ist ewig auf so einer Karte rumzusitzen sei mal dahingestellt.

Übrigens limitiert kein Prozessor die Grafikkarte, sondern es geht wohl eher darum dass verschiedene Anwendungen soviel Prozessorzeit benötigen, dass diese nicht mit Daten nachliefern hinterherkommt, und daher die Animation ausgebremst wird.
Pauschalisieren würde ich sowas nicht. Kommt erstens auf die Anwendung drauf an (ja, es wird nicht nur gespielt mit diesen Karten), und zum anderen wohl auch auf die Einstellungen. Wenn man sämtliche Filter voll aufdreht wird wohl bei einer aktuellen CPU die Karte frei laufen können. ;)
 
Zuletzt bearbeitet:
Dope4you schrieb:
Jups, und rein theoretisch würde dich auch eine Pferdekutsche(oder alter VW Käfer) von A nach B bringen, wer braucht da schon die ganzen neuen Autos.
Das wäre das nächste Thema, bei dem ich mir nur an den Kopf packen kann... Naja, bei den Autos hat sich sicher der Schadstoffausstoß ein wenig eingedemmt :)

@ Topic.. ich habe das mal eine Frage:
Dabei wird angeführt, dass man üblicherweise von 130 bis 160 Fehlern pro Wafer bei einem früheren 0,11-µ-Prozess ausging

Wäre es also nicht möglich auch nur einen Teil der deaktivierten Pipelines anzusteuern? Es handelt sich ja laut Beschreibung nur um redundante Pipelines, das würde ja bedeuten diese sind nur zwecklos auf dem PCB...

Also recht unwahrscheinlich bis unmöglich?

@ Janus6th:

Ich kann dir da auch nur voll zustimmen... Man muss die alte Hardware hier auch nicht schlechtreden, nur weil gerade neue auf den Markt geworfen wird..

@ Green Mamba:

Also so wie Quake 3 siehts dennoch nicht aus :p .. Ich hab hier mal auf 1280x1024 gestellt und dennoch knapp 25Fps :)
http://home.arcor.de/anone/Screenshots/FarCry/
 
Zuletzt bearbeitet:
okay Mamba da geb ich dir Recht an.ONEs Karte ist wirklich schon unterste Grenze aber wer aktuell ne Radeon 9800 Pro oder GeForce6600GT hat und wechselt...dem ist nicht zu helfen!
 
@lightforce, an.ONE:
Natürlich lohnt so eine Karte wenig für Leute, denen 1024 plain vanilla ausreicht. Aber es gibt ja auch Leute, denen das nicht genug ist und die vielleicht in hohen Auflösungen mit wirklich guter Qualität spielen wollen.
Nur weil ihr das nicht wollt oder könnt, gleich alle anderen mit in eure Position einzubeziehen, halte ich für etwas beengt betrachtet.

@grüne Mamma:
Der DX8-Pfad in Far Cry ist ziemlich umfangreich - sämtliches, hochgelobtes Wasser bsw. wird nur mit mit 1.x-Shadern gerendert.
So wahnsinnig viel fehlt der GF4 da nicht an Optik.
 
"Naja, bei den Autos hat sich sicher der Schadstoffausstoß ein wenig eingedemmt"
ja vor allem im bezug auf die pferdekutsche =)
 
Der DX8-Pfad in Far Cry ist ziemlich umfangreich - sämtliches, hochgelobtes Wasser bsw. wird nur mit mit 1.x-Shadern gerendert.
So wahnsinnig viel fehlt der GF4 da nicht an Optik.
Meine Rede :)

Stimmt schon.. ich wollte hier auch keine Grundsatzdiskussion anzetteln, aber ich wollte einfach einmal darauf Aurmeksam machen, dass mit ein wenig Überlegung bares Geld gespart werden kann und man im Endeffekt das selbe auf dem Screen sieht.

Hat jemand mal eine Antwort auf die Frage in meinem vorigen Post? Es kann auch sein, dass ich eine möglich Erklärung bereits überlesen habe...
Könnte man eventuell 2 oder 4 Pipelines mehr freischalten?

mfg
an.ONE

//edit: ich meinte natürlich Post und nicht Thread.
 
das wasser bei farcry sieht auch kacke aus, wenn man es zumindest mit HL² vergleicht
 
man muss es immer mit der realität vergleichen! dann weisst du wie es aussehen sollte!
 
Wenn, dann lassen sich nur komplette Pixelquads aktivieren oder deaktivieren. Je nachdem, wie nVidia sie deaktiviert hat, wenn sie denn überhaupt vorhanden sind, ließen sie sich entweder bequem per RivaTuner freischalten (sobald das Programm angepasst worden ist), oder per BIOS-Mod (Graka-BIOS) oder eben per Lötung einzelner Widerstände.

Schlimmstenfalls ist jedoch auch ein Hardmod zum Scheitern verdammt, dann, wenn nVidia direkt auf der GPU oder in deren Ball-Grid-Interface zum PCB etwas vorgesehen hat, um das Quad auch deaktiviert zu halten.
 
(c)'s GF6-Kalkulation

NV40 .. 222Mio .. 16PS/16TMU/6VP
NV43 .. 143Mio .... 8PS/ 8TMU/ 3VP
Differenz
..............79Mio .... 8PS/ 8TMU/ 3VP
..............64Mio .... 2D/Speichercontroller/PEG;AGP/bla...

Frech auf den G70 angewandt:

302Mio
-64Mio
---------
238Mio : 79Mio = ca. 3 > 24PS/24TMU/9VP

Offiziell hat der G70 24PS/16TMU/8VP. Natürlich sind ggf. Änderungen in den einzelnen Recheneinheiten zur GF6 nicht mit eingerechnet. Postuliert, daß nicht schon im NV40 was brachliegt, bleibt aber wenig Raum für ungenutzte Transistoren. Zumindest nicht in der Größenordnung 32. Es wär eine Konfiguration von 28PS/20TMU/9VP denkbar, von denen jeweils 4PS/4TMU/1VP deaktiviert sind.

Für praktische Inspektionen sind die Karten von Shadow86 sowie Rivatuner in einer passenden Version anzufordern. :D
 
jAnus6th schrieb:
und der Bleistift-Mod würde nicht funktionieren? das kann ich kaum glauben?
Es gibt keinen "DER Bleistift-Mod". Das kann nur funktionieren, wenn irgendwo bereits ein Widerstand vorhanden ist, dessen *urgs* widerstand gesenkt werden soll.

Wenn eines der über tausend Bällchen an der Unterseite des GPU-Package nicht verbunden wäre oder komplett fehlt, kannst du die ganze Karte mit 'nem Bleistift anmalen - da wird nicht viel (positives!) passieren.
 
also die Kalkulation da ist ja ganz nett aber im Endeffekt auch nichts anderes als wenn ich sage : " ich glaube das wird .......usw"

Hat nicht jmd mal ein paar harte Fakten da? Gibts bei Inquirer schon was?
 
Harte Fakten wirst du gerade beim INQ vergeblich suchen. Frag' doch mal bei info@nvidia.com an, ob sie dir genaue Zahlen zum Transistorbedarf der einzelnen Funktionseinheiten rausrücken. *gg*
 
ich denke mal wir können die nächsten Tage schon mit mehr oder weniger harten Fakten bzw Tatsachen rechnen! Wenn sich dann einiges rumspricht werden auch viele Quellen und Informanten gesprächiger und wir haben das was wir wissen wollen!
 
Also ich halte es für logisch, sich noch ein Hintertürchen für alle Fälle offen zu halten, und mit 8 Pipelines mehr dürfte schon ein wenig mehr Leistung drinnen sein!
 
3Dcenter schrieb:
Die GeForce 7800 GTX, basierend auf dem nVidia G70-Chip, stellt eine direkte Fortführung der GeForce6-Reihe mit teilweise deutlich größerer Rohpower dar, welche alle Vor- und aber auch die meisten Nachteile der GeForce6-Serie erbt. Gerade gegenüber der GeForce 6800 Ultra ist die GeForce 7800 GTX ein teilweise erheblicher Performance-Schritt, aufgrund des nach wie vor ineffektiven 8x Anti-Aliasings ist der Abstand zur Radeon X850 XT-PE jedoch bei weitem nicht so groß. Insgesamt ist die GeForce 7800 GTX jedoch eine sehr solide Entwicklung, welche derzeit kaum eine Anforderung scheuen muß und mittels großer Rohpower und dem Shader Model 3.0 exzellent für die Zukunft gerüstet erscheint.
ATI 850=6x6 EER, Nvidio 4x8 EER-> Ungefähr die selbe Grafikqualität(in bestimmten Bereich ATI, in bestimmten Nvidia besser)Wenn ich das so sehe, und mit den "angeblichen ATI Specs" vergleiche, glaube ich schon, dass Nvidia noch einen Quad versteckt hält.

Allerdings hat ATI seine Quartalsergebnisse nach unten korrigiert.
Insofern liegt die Vermutung nahe, dass der R520 vieleicht doch probleme in z.B.: Fertigung bereitet. Oder sind die Entwicklungskosten wirklich SO hoch, weil er SO gut ist?

Doch dies alles liegt bereits im Bereich der Spekulation.

Wirklich wissen können wir alles erst dann, wann sowohl Fudo als auch G70 in ihrer höchsten Ausbaustufe am Markt sind, und bereits ausführlichst von CB oder ähnlichen Hardware-Seiten getestet wurden.

Dennoch-Versteckte zusätzliche Optimierungen könnten das Ergebnis noch verfälschen...

/EDIT:


Verspätung des R520 offiziell bestätigt
 
Zuletzt bearbeitet:
Zurück
Oben