News ATi: Gerüchte über Gerüchte

Wirlich sehr interessant . Wenn es soweit sein sollte versteh ich es vlt auch schon .
 
@20) Ich denke nicht, das Grafikkarten in nächster Zeit die 1 Ghz Marke überspringen. Dafür sind Grafikkarten etwas zu komplex. Die Zyklen sind nebenbei auch sehr kurz, d.h. bei jedem neuen Chip wird die Bandbreite wieder erhöht und damit meist der Chiptakt wieder gesenkt.
 
blutrichter schrieb:
Das ist doch der reine Wahnwitz. Wer kauft sich denn alle Nase lang neue und noch teurere GraKas? Irgendwann sind die beiden (NV u. ATi) bankrott, weil die Zyklen einfach zu kurz sind.

Sollte ich diese Jahr noch zu einer neuen GraKa der vll aktuellen generation kommen, bleibt die auf jeden Fall wieder ca. 2 Jahre drin. Hab ja immer noch ne Ti4200. Gut, die is jetzt langsam am Ende ihrer Kräfte. :D

Das mit dem Raytracing finde ich auch sehr spannend, vor allem, weil da zumindest in der Herstellung geld gespart werden könnte (könnt ich mir denken). Aber solange alle MHz wollen und Pipelines wird da nix draus... das erinnert mich irgendwie ans Benzin und Brennstoffzelle. ;)

afaik haben NV und ATI einen "Pakt" abgeschlossen, wo sie festhalten, dass sie die Zyklen neu Entwickelter Chips auf 1 1/2 Jahre ausweiten. In letzter Zeit waren es ja immer nur ein Jahr.

@Topic
Ob es sich um ein Paperlaunch handelt ist nicht sicher. Afaik wird es aber nicht wieder so sein, wie beim NV40 und R420. Imho hat man nun mehr Routine in der Sache.

Aber mit dem Refreshes wird imho ATI/NV mehr Power bekommen, als NV. Denn der R420 ist Bandbreitenlimitiert. Nehmen wir mal an, die Taktraten wären 600/700Mhz, wie beim NV40 500/700, so würde imho der R480 die Nase vorn haben. Aber, die Frage wird sein, welche Speicherchips man einbaut. 600/800Mhz zum Beispiel wären sehr nett. Das würde einiges an Power bringen.
 
Zuletzt bearbeitet:
BodyLove schrieb:
afaik haben NV und ATI einen "Pakt" abgeschlossen, wo sie festhalten, dass sie die Zyklen neu Entwickelter Chips auf 1 1/2 Jahre ausweiten. In letzter Zeit waren es ja immer nur ein Jahr.

Solange nicht alle 6 Monde ein neuer Chip kommt, ist es ja fast noch in Ordnung.
Aber auch ein Jahr ist, finde ich zu kurz. Was den Pakt angeht: ich glaube, den haben sie letztlich nicht geschlossen. Das war wohl ne Ente.

Ich denke einfach, man soltle sich Zeit nehmen. Wer da letztendlich die nase vorn haben wird, ist mir relativ egal. ;) Ich hab schon von allen möglichen Herstellern Karten gehabt. Die beste wird gekauft. Fertig.
Wenn man wieder zyklen von 1-einhalb oder 2 Jahren hätte, könnte man Spiele/Anwendungen besser, zuverlässiger entwickeln und die Kosten würden langfristig sinken.

Aber so ist das eben... wenn zwei die Macht haben, gibt es diesen wahnsinns Wettbewerb. Es wär nur schade, wenn dabei wieder einer auf der Strecke bliebe wie seinerzeit 3DFx.

3DFx hatte zu Anfang nichts zu befüchten. Dann kam NV. Und als ATi besser wurde, hat dieser aberwitzige Wettlauf begonnen. NV und ATi haben ja aber schon zugegeben, daß dieser sehr ungesund ist. Aber solange jeder entwickelt wie bekloppt...

Sicher die 5er Reihe von NV wurde nicht in jedem Halbjahr neu entwickelt. Der echte neue ist jetzt der aktuelle. Aber ich finde, auch die Zwischen-Steppings könnte man sich sparen.

Puh! Langer Post. :D
 
Naja, für mich können die Zyklen noch so klein sein. Es wäre mir egal. Problem hierbei ist halt, dass man A) weder einen ausgereiften Chip bekommt, B) der Chip extrem teuer wäre und C) man die die Verfügbarkeit des Chips in Frage stellen müsste.

Ein weiteres Problem sind die kompetenten Mitarbeiter. Der R400 war ja schon in Entwicklung, als der R300 erst so in die heiße Phase kam. Will heissen, dass die Entwickler meist immer 2gleisig fahren. Somit kommen die vielleicht kompetenteren Mitarbeiter in die Gruppe A, der Rest in B. Bei ATI wird ja dies mehr oder weniger publik gemacht, da ein bestimmter Entwicklerteam sich einen Namen mit dem R300 gemacht haben.

Der R520 wird ja auch dadurch interessanter, wenn man sagt, dass dieses Team bei der Entwicklung dabei ist. Beim R400 war dies nicht der Fall.

Worauf ich hinauswill ist die Tatsache, dass man mit höheren Entwicklungszyklen die Kompetenz besser aufteilen kann, bzw. gar nicht aufteilen brauch. Somit kommen wir immer zum Genuss von HighQuality-Chips, und müssen nicht immer eine Generation warten, damit wir ein wirkliches Vorankommen ersehen.
 
Stimme zu. :) Noch ein weiterer Punkt, der für längere Zyklen spricht.
Die Kosten der Entwicklung werden ja auch an die Kunden weitergereicht. Mir gefällt das insgesamt nicht.

Sicher, man braucht den Wahnsinn als Kunde nicht mitzumachen. aber man leidet dennoch darunter, wenn erst ein R300 kommt, dann R320 oder R350 und irgendwann ist der dann so ausgereift, daß man ihn wiede randers nennt... hätte man gleich länger entwickeln können. Das Know How ist doch jetzt da...

Die Spiele könne nicht mehr gut abgestimmt werden, andere Software auch, etc.
Früher freute man sich noch richtig auf die Voodoo 2, wei man wußte, "boah ey, jetzt kommt was neues. Endlich, nach so langer Zeit", aber vorher war man zufrieden weil man nicht alles 2 Wochen neue Hardware brauchte... überteiben gesprochen. ;)
 
Bluti schrieb:
Die Spiele könne nicht mehr gut abgestimmt werden, andere Software auch, etc.
Früher freute man sich noch richtig auf die Voodoo 2, wei man wußte, "boah ey, jetzt kommt was neues. Endlich, nach so langer Zeit", aber vorher war man zufrieden weil man nicht alles 2 Wochen neue Hardware brauchte... überteiben gesprochen.

Naja, auch jetzt könnte man Spiele entwickeln, die Hardwaretechnisch alles anfordern könnten. Nur ist der großteil der User nicht mit einem HighEndChip gesegnet. Die Auffassung hat sich imho geändert. Früher wollte man einfach ein schönes Game entwickeln. Heute will man zwar auch dasselbe, aber man möchte dazu dem User mit LowEndKarten die Möglichkeit bieten, diese Bildqualität auch zu nutzen. Ein reines DX9-Spiel würde selbst einen R420 richtig zum schwitzen bringen, aber diesen gibt es nicht.

Bluti schrieb:
Sicher, man braucht den Wahnsinn als Kunde nicht mitzumachen. aber man leidet dennoch darunter, wenn erst ein R300 kommt, dann R320 oder R350 und irgendwann ist der dann so ausgereift, daß man ihn wiede randers nennt... hätte man gleich länger entwickeln können. Das Know How ist doch jetzt da...

Ich bin auf den R480 und R520 echt gespannt. Die Leistung des R480 ist stark von den verbauten Ramsteinen abhängig. Sofern 1,5ns Speicher verbaut werden, wäre die Leistung sehr stark.

Der R520 wird imho ein "meilenstein" wie es damals der R300 war. Lassen wir uns überraschen.:)
 
Na ja, ich denke eben einfach nur, wenn die Zyklen länger wären, könnten Spiele ausgereifter programmiert werden, auch besser abgestimmt werden auf die einzelnen Karten. Und vor allem gäbe es länger Spiele, die auf einer Leistungsskale vorhanden sind und nicht alle 3 Monate ein neues Spiel, das nach mehr Power verlangt oder sie wegen unsauberer Programmierung braucht.

Sicher dürfen wir gespannt sein, was die Zukunft bringt. Aber das derzeitige konzept scheint mir langsam ausgereizt, auch wenn es immer neuere Stufen gibt. aber irgendwann werden die Dinger ob ihrer Komplexität auch unbezahlbar, wenn sie in so kurzen Zyklen erscheinen.

Wieso ist eigentlich der ATi-Chip so RAM-abhängig und der GeForce scheinabr anhängig von der Core-Speed?
 
blutrichter schrieb:
Wieso ist eigentlich der ATi-Chip so RAM-abhängig und der GeForce scheinabr anhängig von der Core-Speed?

Sicher bin ich hier nicht. Ist nun mal alles eine Annahme. Der Carsten könnte wohl besser Licht ins Dunkeln bringen als ich. Aber ich denke, dass der NV40 besser die Daten komprimiert, weshalb dadurch weniger Bandbreite benötigt wird, als das ATI tut. Dazu kommt ja, dass NV weniger Chiptakt hat, dadurch weniger Fillrate besitzt, weshalb man weniger Bandbreite braucht, als es bei ATI der Fall ist.;)

Ich suche mal im WWW nach einer besseren Antwort. Habe leider jetzt keine Zeit mehr dazu. Muss schaffe gehen.

Mit dem Rest, Full ACK.:)
 
Was wär dann erst, wenn der NV schneller taktet? ;)
Nun, ich bin gespannt, was sich noch tut. Ich war immer einer ersten, der in der ct oder in Spielemags mehr Infos zu neuen Grafikchips suchte und erhaschen wollte. Aber mittlerweile eght es mir nur noch auf die Nerven. Alle Nase lang neue Meldungen mit neuen Chips und 1000 Bezeichnungen... ich wünsch mir 1997 zurück. :D
 
blutrichter schrieb:
ich wünsch mir 1997 zurück. :D
Am besten noch weiter zurück, ich lobe mir den alten VESA Standard. :D
 
na gut, man mu ja nicht gleich überteiben :D

Aber was waren das für Zeiten... *schmacht* 3DFx, Rendition, 3DLabs, ATi, nVidia, Matrox... waren alle noch im Geschäft. Und alle 2 jahre oder so gab es was neues... gut NV hat damals schon angefangen. Riva128 - TNT - TNT2 und 1999/2000 kam schon die Geforce. DIE sind schuld! ;)
 
blutrichter schrieb:
Wieso ist eigentlich der ATi-Chip so RAM-abhängig und der GeForce scheinabr anhängig von der Core-Speed?

Ich denk die radeon hat trotz der 33% höheren Füllrate nur die gleiche Speicherbandbreite, da limitiert die Bandbreite nunmal langsam, deshlab springt die radeon mehr auf ram-oc an, bzw hat die geforce verhältnismässig eher mehr als genug Speicherbandbreite, da limitiert dann eher die Füllrate und entsprechend springt sie mehr auf chip-oc an. (bezogen auf x800xtpe <-> 6800u)
 
blutrichter schrieb:
Wie kommt den die 33&ige höhere Füllrate zustande? Die haben doch die gleiche Anzahl Pipes.

Aber dafür auch mehr Takt. Die Taktrate wird nunmal in die Berechnung mit einberechnet. 400 zu 520Mhz sind nunmal ~25% Taktunterschied.
 
Ach so, natürlich. Mit ä bissl nachdenke, hätt ich da auch drauf kommen können. :D
Das is ja eh alles erst der Ausstoß der Chips. In drei Monaten (oder so) kommen dann die dinger auf den Markt, die eigentlich von Anfang an geplant waren...

Die beiden Chips werden sie sowieso nicht viel geben. Aber beim Shader-model 3.0 dürfte ATi dann Probleme kriegen. Ist ja schon bei D³ so.
 
BodyLove schrieb:
Aber dafür auch mehr Takt. Die Taktrate wird nunmal in die Berechnung mit einberechnet. 400 zu 520Mhz sind nunmal ~25% Taktunterschied.

jo ist ganz einfach. bei nv 400mhz*16pipes = 6.4 gigapixel füllrate und ati 520*16 = 8.3 gigapixel, enspricht also ungefähr einem drittel mehr
 
blutrichter schrieb:
Ach so, natürlich. Mit ä bissl nachdenke, hätt ich da auch drauf kommen können. :D
Das is ja eh alles erst der Ausstoß der Chips. In drei Monaten (oder so) kommen dann die dinger auf den Markt, die eigentlich von Anfang an geplant waren...

Die beiden Chips werden sie sowieso nicht viel geben. Aber beim Shader-model 3.0 dürfte ATi dann Probleme kriegen. Ist ja schon bei D³ so.

D³ ist OpenGl. Ich glaube die verwenden keine SM3, da dies ja eher DirectX ist.;)
 
Viel eher scheint es zu sein, dass ATI den R420 auf DX9 aufgebaut, sprich optimiert hat, wohingegen der NV40 eher ausgeglichener ist, und für Doom³ aufgebaut wurde. ;)
 
Zurück
Oben