News GeForce 7800 GTX mit acht Pixelprozessoren?

an.ONE schrieb:
Das wäre das nächste Thema, bei dem ich mir nur an den Kopf packen kann... Naja, bei den Autos hat sich sicher der Schadstoffausstoß ein wenig eingedemmt :)

@ Topic.. ich habe das mal eine Frage:


Wäre es also nicht möglich auch nur einen Teil der deaktivierten Pipelines anzusteuern? Es handelt sich ja laut Beschreibung nur um redundante Pipelines, das würde ja bedeuten diese sind nur zwecklos auf dem PCB...

Also recht unwahrscheinlich bis unmöglich?

@ Janus6th:

Ich kann dir da auch nur voll zustimmen... Man muss die alte Hardware hier auch nicht schlechtreden, nur weil gerade neue auf den Markt geworfen wird..

@ Green Mamba:

Also so wie Quake 3 siehts dennoch nicht aus :p .. Ich hab hier mal auf 1280x1024 gestellt und dennoch knapp 25Fps :)
http://home.arcor.de/anone/Screenshots/FarCry/

Jo, das Bild schaut gut aus. Allerdings muss du auch eingestehen, das du hier die Anisotropische Filterung und Anti-Aliasing hoch gestellt hast ;)

Das wolltest Du uns glaube ich ein bisschen verschweigen und außerdem ist das Bild in 1280x1024, obwohl du nur in 1024x768 spielst :freaky:
 
alos ich glaube auch das die neuen atis mehr bringen als dei von nvidia. die werden dann auch pixelshader 3.0 unterstüzen. man weiß ja schon das die 6800 ultra lagsamer waren als die radon x800xt oder wie die auch immer heißen. von dem her denk ich das die atis besser werden. ich werd dann auch auf ati umsteigen :D
 
Tolle begründung ^^

Mal abwarten sie müssen ja eigentlich schneller sein da sie deutlich später rauskommen. Und ich waage zu bezweifeln das die Karten am launch Tag verfügbar sein werden.

Gruß
 
naja evtl lassen sich die pipelines freischalten wenn es einen biosmod gibt o.ä.
ob man dann keine artefakte hat oder ob die überhaupt funktionieren bleibt abzuwarten. entweder ma hat glück oder pech.

zu der anderen diskussion die hier noch so läuft kann ich nur sagen:
jeder sollte das machen was er für richtig hält. und wenn einer ne 7800gtx jetzt kauft (oder 2) und später weil sie evtl besser ist die r520 (oder 2 mit crossfire) kann man ihn deshalb nicht verurteilen oder ihm sagen warte lieber noch. man kann doch keinem vorschreiben was er mit seinem geld machen soll und was er zu tun oder zu lassen hat. wenn man nunmal das geld dazu hat sich sowas zu leisten schadet es keinem wenn er das auch ausgibt. solche karten sind auc hervorragend um nen multimedia center in der wohnung aufzubaun. der eine hält den chip für gut, ein anderer ati. wen kümmerts ?
 
Also ich glaube auch das die ATI-Karte wieder etwas schneller sein wird als Nvidia, aber das einige hier wieder einen Grafikkartenkrieg anfangen wollen, da kann ich nur sagen: Kindergarten!

Geht bei dem Wetter lieber raus also vor der Kiste zu hängen und euch gegenseitig anzumachen!

Also ich mache das jetzt auf jeden Fall, Ciao!
 
wegen möglicher provokation gelöscht
 
Zuletzt bearbeitet:
Die Vermutung einer 7800 Ultra mit 32 Pixelpipelines hatte ich schon hier. :)
Das würde auch Sinn machen, denn wenn ATi mit ihrem R520 rauskommt, möchte nVidia ja auch dagegen halten können (der R520 hat ja angeblich 32 Pixelpipelines).

Außerdem ist damit auch klar, warum es nVidia geschafft hat, so schnell ausreichende Stückzahlen des G70 ausliefern zu können, da man für die 7800 GTX auch fehlerhafte (sprich ein Pixelprozessor ist deaktiviert, da defekt) verwenden kann.

Des Weiteren würde es im Moment sowieso keinen Sinn machen, eine 7800 Ultra mit 32 Pixelpipelines herauszubringen, da dann der GDDR3 Speicher mit 600MHz sehr stark die Performance limitieren würde. Erst in ein paar Monaten kann Samsung ja ausreichend große Mengen an schnellerem Speicher (800-900MHz) ausliefern.

DiamondDog schrieb:
das wasser bei farcry sieht auch kacke aus, wenn man es zumindest mit HL² vergleicht
Komisch, mir gefällt das Wasser in FarCry wesentlich besser als in HL², denn es sieht (mit HDR-Rendering) aus, als ob mans trinken könnte und man sieht Gischt, wenn sich das Wasser am Strand bricht. In HL² hat das Wasser so ein seltsames Wellenmuster (wohlgemerkt bei DX9).
 
Zuletzt bearbeitet:
@66: Du wirst es schon sehen! Ich freu mich schon aufs Release und evtl bekomm ich dann auchn Bild wenn du dumm aus der Wäsche kuckst weil ich Recht hatte und auch jetzt schon habe! Er wird schneller, dafür steh ich mit meinem Namen!
 
KonKorT schrieb:
Jo, das Bild schaut gut aus. Allerdings muss du auch eingestehen, das du hier die Anisotropische Filterung und Anti-Aliasing hoch gestellt hast ;)
Das wolltest Du uns glaube ich ein bisschen verschweigen und außerdem ist das Bild in 1280x1024, obwohl du nur in 1024x768 spielst :freaky:
Also so wie Quake 3 siehts dennoch nicht aus .. Ich hab hier mal auf 1280x1024 gestellt und dennoch knapp 25Fps
http://home.arcor.de/anone/Screenshots/FarCry/
Aufmerksam lesen hilft :)

Und ja.. AF ist an und zwar auf 2x und im Treiber wie immer auf Anwendung ;) Achso und in 1280x1024 habe ich die Wasserqualität auf "mittel" gesenkt :)
 
wegen möglicher provokation gelöscht
 
Zuletzt bearbeitet:
Shade informier dich doch mal bevor du sowas schreibst! Computerbild hat auch geschrieben dass die Ati nen sehr extrem großes stück schneller als die Nvidia wird, die sind seriös und denen kann man doch wohl glauben! Also bitte erstmal informieren bevor man so einen Stuß ablässt! :rolleyes:
 
@ShaÐe45: ich poste nur mein Wissen und nicht wie du um Beiträge zu sammeln und dann damit zu prollen! Ich hab eben Kontakte zu ATI und weiss es, wenn du und dein Neid damit nicht klarkommen ist das dein Problem! Also bitte wieder etwas freundlicher wenn es geht..ich lege nur Fakten auf den Tisch, glauben musste sie ja nicht, aber solltest du!
 
wayne.gif


Man hier laufen Chaoten im Thread rum, wird mal Zeit das ein Mod aufräumt!
 
wegen möglicher provokation gelöscht
 
Zuletzt bearbeitet:
Natürlich müssen wir das glauben was wir lesen oder hören! Du wirst die Karten doch auch nicht zu Hause aufm Tisch liegen haben und in wochenlanger Arbeit benchen! oder?
 
ShaÐe45 schrieb:
@ Warrior: Genau, Computerbild muss das natürlich wissen, die haben die Karte schon... :lol:


Nein aber sie haben direkten Kontakt zu Ati und Nvidia, was du nicht hast!
 
@ShaÐe45 und jAnus6th
Ihr haltet ab jetzt die Bälle flach, die beiden Posts oben sind die letzten die ich von euch in diesem Thread sehen will. :mad:

@Warrior
Du gießt bitte auch kein Öl mehr ins Feuer. ;)
 
An alle, die hier wieder meinen, zu wissen, dass der R520 schneller als der G70 sein wird:

Wenn der G70 wirklich einen deaktivierten Pixelprozessor hat (und eventuell ja sogar 2 deaktivierte Vertexshader), werden der G70 und der R520 von der Performance her etwa identisch sein, da dann beide über 32 Pixelpipelines, SM3.0 und 3DC verfügen und etwa gleich viele Transistoren besitzen.
Außerdem werden dann beide über den selben schnellen GDDR3 Speicher verfügen (800-900MHz).

Das Einzige, was die ATi-Karte außer den angeblichen 10 Vertexshadern (und somit 2 Vertexshadern mehr als beim G70, wobei da ja auch 2 Vertexshader deaktiviert sein können) schneller machen könnte, wäre zum einen eine bessere Architektur, was ich mir bei den ganzen Optimierungen des G70 kaum vorstellen kann und zum anderen ein höherer GPU-Takt.
Aber wenn nVidia wie geplant bald auf den 0,09µm Prozess umsteigen wird, werden sich die Taktraten der GPU's auch sehr ähneln.
 
Zuletzt bearbeitet:
lol@computerbild
vor allem ist es doch absolut egal ob nun ati oder nv. geniest die neuen karten oder seid glücklich mit euren alten ;)
 
An alle, die irgendwie alles besser wissen als andere!

fressehalten.gif


Ich frage mich echt was der Thread hier für einen Sinn hat, schon lange nicht mehr so einen niveaulosen Flamewar gesehen! :rolleyes:

War klar, das mal wieder Zeit dafür wurde... :rolleyes: :mad:
 
Zurück
Oben