News MHz-Geflüster: ATi vs nVidia

da is ja alles aus Japsenanisch :P Aber trozdem! Ati macht das Rennen ich weis es einfach! Viel wird sichda nich mehr machen wennse mit über 700 MNhz taket!

G70 kann einstekcnen!!!
 
Dachte auch das G71 mehr nach eine Mainstream Karte klingt als nach der nächster High End Karte.
G75 wäre glaubwürdig.
Die Taktraten lass ich offen, weil ich getraue denen das sicherlich zu, aber die PP und VP sind sicherlich Kastriert.
Die GF6 6600GT hat mit 500MHz Core Takt auch höher als die GF6 6800 Ultra mit 400MHz Core Takt!
Ich bin auf jedenfall gespannt.
Was dieser MHz Rennen angeht, ATI versucht echt jedes kleine Leistungsstück aus Ihre Karte rauszukitzeln, wärend nVidia mit Ihre NV40 und über 200mio Transis schwerer Chip nicht zu hoch takten lässt.
z.B. X800 XT PE hat 1.15GHz Speicher Takt mit 1.6ns GDDR3, nVidia hat mit Ihre GF6 6800 Ultra aber nur 1.1GHz, und bassiert auf denn selbern Speicher.
Und laut die jetzigen Gerüchten taktet die R520 mit 1.25GHz wärend die G70 mit 1.2GHz Speicher auskommen (Gleiche Speicher).
 
lass das kack gelaber wenn du darüber nichts genaues weist
warte lieber bis es bestätigte aussagen gibt, bzw. die karten released sind
EDIT:
gravedigger war natürlich gemint, wer konnt denn ahnen das so viele hier posten :p
 
Zuletzt bearbeitet:
ATI wird schon zusehen, dass man mit dem R520 erstmal einigermaßen VOR der 7800 GTX liegen wird.
Ansonsten würde man sich nicht solange Zeit lassen, damit man auch am Ende einen Chip massenfertigen kann, der in der Lage ist nVidia erstmal zu schlagen.

Ich gehe aber stark davon aus, dass nVidia bei einem Vorteil des R520 recht schnell eine Ultra Variante bringen kann, die deutlich höher im Chiptakt liegt und mit Samsungs 800 MHz GDDR3 befeuert wird.

mfg Simon
 
zudem sehe ich ja eh schon das sich einige hier eine 7800GTX gekauft haben und es wird dann bestimmt nichtmehr lohnen umzusteigen... und ich denke das auch weiter sich die 7800GTX kaufen werden.. wobei ich denke das nvidia vielleicht die preise senken wird sobald der ati chip aufm markt kommt aber mal abwarten.. bin gespannt :D
 
Neuen Speicher braucht die G(V)PU. Der G70 hat ja offenbar Potential, mit etwas mehr Spannung und besserer Kühlung sollte noch einiges gehen. ATi muß erstmal überhaupt was in Richtung SM3.0 zeigen. Letzlich zählen dann hier mal ausnahmsweise die FPS und nicht die Taktraten.
 
die karten sind jetzt schon zu schnell fuer aktuelle cpus ... von daher: WAYNE
 
Nun, ich mutmaße nur mal ein wenig, aber...

...nVidia wußte das man die Zeit diesmal auf ihrer Seite hat. Der G70 scheint eine gute Ausbeute zu haben, sonst hätte man nicht so schnell die Karten an den Markt bekommen. Was wenn nVidia den Takt auf 400MHz gesetzt hat um eine zwar schneller Karte zu liefern, aber noch nicht das Maximum auszureitzen? Was wenn man gute Chipchargen einbehält um diese einer späteren Verwendung für ULTRA Karten zuzuführen? Das würde ganz sicher keine 800MHz bedeuten, aber auf jeden Fall eine Grenze nach Oben offen lassen. Gepaart mit 90nm ist sicher mehr drin. Hinzu kommt eine Zweislotkühlung, die ehrheblich mehr Wärme wegschaffen kann. Sicher, auch ich halte 800 MHz für nicht all zu realistisch, aber zur Zeit hält nVidia alle Trümpfe in der Hand. Nur Eines sollte man nicht vergessen, eine Zuwachs im Takt von 100% beim G70 (und auch bei anderen GPUs) bringt vielleicht, im besten Fall, einen effektiven Leistungsschub von nur 25%. Wie währe es denn auch hier mal mit einem Dualcore? ;-)
 
DualCore bei einer GPU ist ziemlicher Schwachfug insofern, als daß jene bereits Multisektionsrechner sind. Der NV40 ist sozusagen ein Quadcore fürs Rendering, wenn man mal die 4x4-Verschaltung grob nimmt. Genau wäre es sogar ein 16-Core. Im Bereich Geometrie wäre es ein 6-Core. Dein Dual ist also schon längst überholt, physisch gibt es das in Form von SLi auch mal wieder - ist aber kaum wirtschaftlich.

100% mehr Takt sind auch 100% mehr FPS, wenn Speicherbandbreite und CPU-Power ausreichend sind. Bei der CPU können die Grafikkartenhersteller nur vorhandene Trends nutzen(Multithreading, SSEx, AMD64), beim Speicher den Zulieferern in den Hintern treten. Oder mal XDR probieren... :freak: (nVidia müßte nächstes Jahr zumindest einen passenden Speichercontroller haben)
 
die grakas der heutigen Zeit ( auch 7800GTX ) sind mit PS3.0, HDR und max AA/AF genug gefordert,
vor allem bei hohen Auflösungen ( 1680*1050 oder 1920*1200 ) quasi unabhängig von der Cpu Leistung ( A64 mit 2,8GHz ist trotzdem anzuraten )
Um die nächste Generation in so welchen Einstellungen spielen zu können
ist sicherlich ein ein SLI Verbund von 7800GTS/Ultra zu empfehlen.
 
Ich erwarte weder xxxMHz von ATI und nVidia sondern Qualität. Und die ist bei beiden Herstellern nicht gegeben. Bevor sich das nicht ändert, kaufe ich keine Karte mehr.
Egal wie schnell sie ist. Und wer wissen will warum ich so sauer bin, kann auf 3DCenter im Forum mal nachschauen.
Ich habe fertig.

Gruß Wolf
 
@ 33

hast vollkommen recht. Dieses scheiss Texturflimmern von nvidia geht mir tierisch auf den senkel.
Dafür die power der 7800GTS in Supersampling ( ok bei ists 200% schneller ) zu investieren
tu ich mir nicht an. Die Filter sowie die Texturqualität muss endlich besser werden
 
@ (c)
Schau mal hinter das Smilie beim letzten Satz, dass dürfte Alles erklären. Aber Nichts für ungut.
 
naja zudem nv betrügt ich kann mich auch noch dran erinnern das ati in ihren treibern irgendwas mit den filtern angestellt hatte damit die karte schneller lief.. oder irre ich mich da?
 
Ohne die Sache groß zu vertiefen:

Wer ist denn bitte Schuld daran, dass die Hersteller künstlich an Stellen "einsparen", um den Framecounter zu pushen?

Richtig - die (Gamer und Benchmark-) COMMUNITY.

Wer geilt sich denn regelmäßig an irgendwelche Scores auf? Die Hersteller oder User?
Sind ja wohl recht eindeutig die User. Gibt mehr als genug Idioten, die ihre Kaufentscheidung an 3D Marks festmachen - und die Masse ist nicht gering.
Und was macht ein Hersteller, um sein Produkt zu verkaufen?

Richtig - er passt sich dem Markt an und schaut was gefordert ist. Und was fordert die Mehrheit? Frames,Punkte,Frames,Punkte und nochmal Frames/Punkte. Kein Wunder, dass man irgendwann auf die Idee kommt - hier und da ein wenig an Schrauben zu drehen um das Produkt entsprechend im Markt positionieren zu können.

Das war schon zu Zeiten, wo ich aktiv für ComputerBase geschrieben habe so. Die Seiten, die in Grafikkarten-Artikeln zu 90% am meisten geklickt wurden, waren die Benchseiten, wo 3D Mark 200x aufgetaucht ist. Ist einfach so. :rolleyes:
Und das wird sich nicht großartig geändert haben...

Der Anteil, der auf wirkliche Bildqualität (oder Qualität des Produktes ansich) schaut ist doch wenn mans global betrachtet relativ gering. Kleine Aufdeckaktionen durch die Hardwareseiten sticheln zwar, nach ein paar Wochen ziehen sich aber nur noch vereinzelt Leute daran hoch.
Spätestens wenn Futuremark den nächsten Bench veröffentlicht rücken solche Sachen doch eher in den Hintergrund.

mfg Simon
 
Jetzt muss ich kurz den Betriebswirtschaftler raushängen lassen. Das teuerste an der Herstellung des Chips ist die Fläche, die er einnimmt. (Forschung, Entwicklung und Marketing vernachlässige ich hier mal) Daher kann ich mir gut vorstellen, dass ATI eher 16 Pipelines mit höherem Takt betreiben wird, als 24 mit geringerem Takt. Die geringere Fläche ermöglicht es mehr Chips auf einen Wafer zu quetschen, was die Stückkosten senkt. Das führt zu 2 Möglichkeiten, entweder mehr Gewinn pro Chip oder einer Preissenkung. Es wird wohl der Gewinn werden. *g*
Was auch immer... wenn die Leistung stimmt, ist es egal.
 
Zurück
Oben