so leute...ich hab eine 8800gtx, hatte vorher ne x800xt, mir spielt es keine rolle wer schneller ist kauf einfach die mometan schnellste wenn ich lust habe ....klar wird der r600 schneller sein, aber die frage ist wie setzt er das in games um? denke mehr als 15-20 fps werden das nicht sein,,,,,,,,will einfach mit meiner karte crisys flüssig spielen können ,,,,,,,,,,,hoffentlich
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Neue Gerüchte zu ATis R600-Chip
- Ersteller Christoph
- Erstellt am
- Zur News: Neue Gerüchte zu ATis R600-Chip
So wird das verwendete PCB das aufwendigste sein, das man in der Firmengeschichte bislang genutzt hat.
Insgesamt 12 Layer soll dieses besitzen und auch einige weitere technische Neuerungen unter der Haube haben, die der R600-Chip brauchen wird.
[...]
Dieses komplexe Layout benötigt man vor allem wegen des angeblich 512 Bit breiten Speicherinterfaces
Ich will ja nicht meckern, aber irgendwie wiedersprechen sich die Angaben:
12 Layer ->256Bit SI (Speicherinterface)
16 Layer ->384Bit SI
20 Layer ->512Bit SI
xFire
@muffin 888
das sind ja auch keine aussagen seitens ati
das sind gerüchte
512bit erscheint utopisch wenn auch nicht unmöglich
mit gddr4 + 256bit hat man eine ausreichend hohe speicherbandbreite
das pcb wird wohl sehr aufwendig sein, wenn man versucht 16 chips nah um die gpu herum zu verteilen, wahrscheinlich noch auf einer seite
lassen wir uns überraschen
das sind ja auch keine aussagen seitens ati
das sind gerüchte
512bit erscheint utopisch wenn auch nicht unmöglich
mit gddr4 + 256bit hat man eine ausreichend hohe speicherbandbreite
das pcb wird wohl sehr aufwendig sein, wenn man versucht 16 chips nah um die gpu herum zu verteilen, wahrscheinlich noch auf einer seite
lassen wir uns überraschen
@CB:
Der R600 ist/wird NICHT die erste GraKa mit 512bit-SI!
Von 3DLabs gab/gibt es seit langem eine mit 512bit, allerdings ist das eine reine Workstationgrafikkarte, aber es ist eben auch eine GraKa
.
Hattet sogar bei CB eine News:
https://www.computerbase.de/news/grafikkarten/3dlabs-wildcat-realizm-100-200-und-800.10513/
Der R600 ist/wird NICHT die erste GraKa mit 512bit-SI!
Von 3DLabs gab/gibt es seit langem eine mit 512bit, allerdings ist das eine reine Workstationgrafikkarte, aber es ist eben auch eine GraKa
Hattet sogar bei CB eine News:
https://www.computerbase.de/news/grafikkarten/3dlabs-wildcat-realizm-100-200-und-800.10513/
- Registriert
- Sep. 2003
- Beiträge
- 857
Die höchste Speicherbandbreite nützt nichts wenn die GPU nicht hinterher kommt und die Speichermenge spielt wohl auch keine Rolle.
Es fällt auf das in der News absolut nichts über die GPU geschrieben steht ausser die 512bit Bandbreite,
wer weiß, vielleicht kann das der G80 auch schon es wird nur noch nicht ausgenutzt.
Ausserdem sind die 12 Layer des PCB nicht unbedingt ein Kennzeichen für eine schnellere und bessere Grafikkarte
sondern möglicherweise eher für ein schlechtes Routing der Leiterbahnen auf der Platine (...wenn die Entwicklung schnell gehen soll...).
Gruß
balla balla
PS: Warten wir es ab.
Es fällt auf das in der News absolut nichts über die GPU geschrieben steht ausser die 512bit Bandbreite,
wer weiß, vielleicht kann das der G80 auch schon es wird nur noch nicht ausgenutzt.
Ausserdem sind die 12 Layer des PCB nicht unbedingt ein Kennzeichen für eine schnellere und bessere Grafikkarte
sondern möglicherweise eher für ein schlechtes Routing der Leiterbahnen auf der Platine (...wenn die Entwicklung schnell gehen soll...).
Gruß
balla balla
PS: Warten wir es ab.
ich meine .... klingt ja alles ganz nett und so ...............
ABER 512 bit speicherinterface hätte man auch schon vor 4 jahren mit ddr 1 speicher verwirklichen können. das ist wie
damals intel ddr2 speicher ins rennen geworfen hat weil der athlon64 ihenen den boden unter den füßen weggeschossen hat.
das gleiche macht amd jetzt mit dem am2 sockel ... auch nur weil sie nicht schnell genug sind.
ich finde die innovation von nv, ein extra speicher für die shaderunits einzuführen, viel innovatiever und hoffe das sich das
durchsetzt. und das nicht nur weil ich glaube dass es besser ist sondern weil ich es nich mag wenn man einfach nur alte sachen
verdoppelt und verdreifacht. das bringt auf kurze sicht was aber auf langesicht gesehen steht man so ehr schlecht da.
Edit: wer hat eigendlich gesagt dass 512 bit was bringen (will mal meine alte 5700 Ultra mit 512 bit sehen ^^)
außerdem haben shader die direkt an ihren eigenen speicher angebunden sind sicher auch vorteile
... wenn nicht mehr.
mal zu der rohleistung (soweit ich weiß):
g80: 128 1D shader @ 1350 Mhz
r600: 64 4D shader @ 650 Mhz (?)
sagen wir mal das die 650 Mgz des r600 eins sind dann sind die 1350 Mhz der g80 ca. 2.
ALSO
g80: 128 x 1 x 2 = 256
r600: 64 x 4 x 1 = 256
ich denke das wird SEHR eng, hoffe aber dass nvidia vornebleiben kann (die haben es mal verdient, denn ich fand die 7xxx nicht so
überzeugend) aber sie haben einen höllen chip mit dem g80 entwickelt der eine herrausragende IQ hat!!!
mfg s'NO
ABER 512 bit speicherinterface hätte man auch schon vor 4 jahren mit ddr 1 speicher verwirklichen können. das ist wie
damals intel ddr2 speicher ins rennen geworfen hat weil der athlon64 ihenen den boden unter den füßen weggeschossen hat.
das gleiche macht amd jetzt mit dem am2 sockel ... auch nur weil sie nicht schnell genug sind.
ich finde die innovation von nv, ein extra speicher für die shaderunits einzuführen, viel innovatiever und hoffe das sich das
durchsetzt. und das nicht nur weil ich glaube dass es besser ist sondern weil ich es nich mag wenn man einfach nur alte sachen
verdoppelt und verdreifacht. das bringt auf kurze sicht was aber auf langesicht gesehen steht man so ehr schlecht da.
Edit: wer hat eigendlich gesagt dass 512 bit was bringen (will mal meine alte 5700 Ultra mit 512 bit sehen ^^)
außerdem haben shader die direkt an ihren eigenen speicher angebunden sind sicher auch vorteile
mal zu der rohleistung (soweit ich weiß):
g80: 128 1D shader @ 1350 Mhz
r600: 64 4D shader @ 650 Mhz (?)
sagen wir mal das die 650 Mgz des r600 eins sind dann sind die 1350 Mhz der g80 ca. 2.
ALSO
g80: 128 x 1 x 2 = 256
r600: 64 x 4 x 1 = 256
ich denke das wird SEHR eng, hoffe aber dass nvidia vornebleiben kann (die haben es mal verdient, denn ich fand die 7xxx nicht so
überzeugend) aber sie haben einen höllen chip mit dem g80 entwickelt der eine herrausragende IQ hat!!!
mfg s'NO
Zuletzt bearbeitet:
Towatai
Commodore
- Registriert
- Dez. 2005
- Beiträge
- 4.616
MATROX 4 EVER!!!!!!!!!
ey ma im ernst.. die karte hat noch keiner von euch inne flossen gehalten und ihr zerraisst euch hier das maul ohne gnade!
Wartet doch einfach ab bis das teil draußen is und DANN redet das ein oder andere produkt schlechter als es ist! man man man HIRN EINSCHALTEN!!!!!
ey ma im ernst.. die karte hat noch keiner von euch inne flossen gehalten und ihr zerraisst euch hier das maul ohne gnade!
Wartet doch einfach ab bis das teil draußen is und DANN redet das ein oder andere produkt schlechter als es ist! man man man HIRN EINSCHALTEN!!!!!
ThePikeman
Cadet 4th Year
- Registriert
- Mai 2004
- Beiträge
- 127
Warum wird hier eigentlich immer über den Ati-Treiber gemeckert? Immerhin lässt sich dieser bedienen, ohne eine Krise zu bekommen und man findet auch alles was man braucht und sucht sehr schnell. Ich habe schon eine Nervenkrise bekommen bei einem Forceware Treiber den TV-Ausgang richtig zu konfigurieren und mit Shortcuts bzw. Profilen zu versehen. Da ist das Drag & Drop bei Ati wesentlich komfortabler.
Nvidia besitzt keine "richtige" Unified Shader Architektur, da die Shader keine Vertex-Operationen übernehmen können. Wird sich zeigen, ob die Simulation die bessere Methode ist.
Preislich dürften sich die beiden Karten nicht viel nehmen. Der Chip der 8800 wird wohl größer sein, als der R600, aber das PCB etwas simpler. GDDR4 ist ja wohl nur für die Topversion vorgesehen und auch ist nicht bekannt, wie die Preise und Verfügbarkeit dessen beim Produktionsstart der Karten aussehen.
Wer hier schreibt, er würde nie eine Karte der "gegnerischen" Firma kaufen ist ziemlich verblendet und in seinen Ansichten eingeschränkt.
MfG
ThePikeman
Nvidia besitzt keine "richtige" Unified Shader Architektur, da die Shader keine Vertex-Operationen übernehmen können. Wird sich zeigen, ob die Simulation die bessere Methode ist.
Preislich dürften sich die beiden Karten nicht viel nehmen. Der Chip der 8800 wird wohl größer sein, als der R600, aber das PCB etwas simpler. GDDR4 ist ja wohl nur für die Topversion vorgesehen und auch ist nicht bekannt, wie die Preise und Verfügbarkeit dessen beim Produktionsstart der Karten aussehen.
Wer hier schreibt, er würde nie eine Karte der "gegnerischen" Firma kaufen ist ziemlich verblendet und in seinen Ansichten eingeschränkt.
MfG
ThePikeman
Wie wäre es mal mit Grafikkarten die modular aufgebaut sind? So das man Speicher upgraden kann oder nen Physikchip raufsetzen die GPU austauschen, Lüfterhalterung, etc.... Wenn ich mir neue CPU kaufe muss ich auch nicht immer nen neues Mainboard und Speicher kaufen. Langsam wirds zu krass, vor allem die Preise ... denkt euch mal EURO weg und noch gute alte DM ... wer hätte sich damals ne Graka für ~1000 DM gekauft?
Master_Chief_87
Lt. Commander
- Registriert
- Aug. 2006
- Beiträge
- 1.496
Also ich weiss nur dass der R600 mit 750MHz daherkommen soll, aber so richtig offiziell ist leider noch nichts. ATi hat jedenfalls gesagt dass sie den R600 so zwischen 700MHz bis 800MHz takten wollen. Mal sehen was da auf uns noch drauf zukommt.
ThePikeman schrieb:Nvidia besitzt keine "richtige" Unified Shader Architektur, da die Shader keine Vertex-Operationen übernehmen können.
Das ist schlichtweg Quatsch was du da schreibst.
drago-museweni
Admiral Pro
- Registriert
- März 2004
- Beiträge
- 9.581
Interesante Infos Danke CB. aber wenn das wirklich so eine Ultramonsterkarte wird da wird mir der G80 wieder sympatisch mit seinem Stromverbrauch sollte der R600 wirklich über 200watt brauchen na dann malzeit, aber abwarten und Tee trinken.
Es wird auf jeden fall wieder interesant jede Woche mehr infos, binn mal auf den Preis gespannt
Es wird auf jeden fall wieder interesant jede Woche mehr infos, binn mal auf den Preis gespannt
Ich fände es mal eine gelungene Überraschung, wenn ATI im Febrauar einfach eine Karte auf den Tisch legt, die genauso schnell ist, wie der G80, aber mit der Hälfte an Strom auskommt (oder noch weniger). Das wäre mal eine Leistung, denn, wie ich finde, sollte bei neuen Generationen auch mal die fps/Watt-Markte steigen. Ich hab nämlich immer mehr das Gefühl, dass alle sarkastischen Bemerkungen zu 1KW-NTs langsam wahr werden ...
Master_Chief_87
Lt. Commander
- Registriert
- Aug. 2006
- Beiträge
- 1.496
C.J. schrieb:... denn, wie ich finde, sollte bei neuen Generationen auch mal die fps/Watt-Markte steigen...
Also beim G80 ist die Fps/Watt Marke ist sehr stark angestiegen.
Stromtechnisch ist der G80 sehr effiezient, nur wird er im 2D Modus noch nicht so richtig angesteuert, aber ich denke mal ein neuer Treiber dürfte da Abhilfe schaffen.
@kisser
Jo, das ist wirklich absoluter Blödsinn, da beim G80 jede Shadereinheit "alles" berechnen kann und alles was in den Shadereinheiten bearbeitet wurde kann durch diese nochmal modifiziert werden (Loop-Funktion) und wieder, wieder und wieder, praktisch endlos. Beim G80 sind die Shadereinheiten flexibler, können aber eher durch lange Vektoranweisungen überlastet werden als die des R600.
Zuletzt bearbeitet:
die fps/watt sind doch auch diesmal beträchtlich gestiegen
die performance wurde fast verdoppelt
der verbrauhc liegt wohl eher so bei dem faktor 1,7
und das noch in 90nm
ein shrink auf 65nm für den refresh und alle sind glücklich
als bezug die 7900gtx gewählt
nimmt man die x1900xtx sieht noch rosiger aus
die performance wurde fast verdoppelt
der verbrauhc liegt wohl eher so bei dem faktor 1,7
und das noch in 90nm
ein shrink auf 65nm für den refresh und alle sind glücklich
als bezug die 7900gtx gewählt
nimmt man die x1900xtx sieht noch rosiger aus
Seb89
Lieutenant
- Registriert
- Nov. 2006
- Beiträge
- 754
was wird hier für ne kacke gelabert??? Wieso schreiben einige das der G80 dann weniger strom fressen wird??? sollten sich die gerüchte als fakten entpuppen das frisst der R600 rund 100 Watt weniger als der G80
also wieso zitieren hier einige die Watt Zahlen des R600 Chips aus den News und schreiben dann, das der R600 mehr strom frisst als der G80???
Frisst der G80 nicht unter lasst 300+ Watt???
oder sind die tests gefaked https://www.computerbase.de/artikel...tx-test.614/seite-31#abschnitt_stromverbrauch
Also bitte erstmal informieren bevor man so ne scheiße schreibt...
welcher Chip letzt endlich mehr oder weniger strom fressen wird, werden wir erst beim release des R600 erfahren... (PS: an die leute die "nie eine ATI kaufen würden": was habtn ihr für probleme??? ich hatte 3 und halb Jahre lang ne GeForce 4200 TI, lief einwandfrei das Teil [konnte HL2 auf High Settings zocken (nur AA und AF war aus) mit nem XP 2000+]. vor nem halben Jahr hab ich ne gebrauchte 9800 Pro in meim PC verbaut, das Teil läuft ebenfalls ohne Probleme. Also bitte lasst doch die scheiß sinnlosen kommentare ohne sie zu begründen bzw. zu untermauern.
und übrigens @ ein paar leute hier, was habt ihr für Probleme mit den Treibern von ATI??? die sind doch einwandfrei ?!?!
und selbst wenn ihr die so schlecht findet dann kann man sich immernoch OmegaDrivers holen die noch n stück besser sind [meine meinung] (www.OmegaDrivers.net)
Ich persönlich kaufe mir warscheinlich nächstes Jahr im Q3 einen neuen PC der bekommt dann G80 oder R600 je nachdem was P/L-mäßig gesehen am besten ist.
(sry für Groß/Klein + Rechtschreibfehler)
Mfg Sebastian
also wieso zitieren hier einige die Watt Zahlen des R600 Chips aus den News und schreiben dann, das der R600 mehr strom frisst als der G80???
Frisst der G80 nicht unter lasst 300+ Watt???
oder sind die tests gefaked https://www.computerbase.de/artikel...tx-test.614/seite-31#abschnitt_stromverbrauch
Also bitte erstmal informieren bevor man so ne scheiße schreibt...
welcher Chip letzt endlich mehr oder weniger strom fressen wird, werden wir erst beim release des R600 erfahren... (PS: an die leute die "nie eine ATI kaufen würden": was habtn ihr für probleme??? ich hatte 3 und halb Jahre lang ne GeForce 4200 TI, lief einwandfrei das Teil [konnte HL2 auf High Settings zocken (nur AA und AF war aus) mit nem XP 2000+]. vor nem halben Jahr hab ich ne gebrauchte 9800 Pro in meim PC verbaut, das Teil läuft ebenfalls ohne Probleme. Also bitte lasst doch die scheiß sinnlosen kommentare ohne sie zu begründen bzw. zu untermauern.
und übrigens @ ein paar leute hier, was habt ihr für Probleme mit den Treibern von ATI??? die sind doch einwandfrei ?!?!
und selbst wenn ihr die so schlecht findet dann kann man sich immernoch OmegaDrivers holen die noch n stück besser sind [meine meinung] (www.OmegaDrivers.net)
Ich persönlich kaufe mir warscheinlich nächstes Jahr im Q3 einen neuen PC der bekommt dann G80 oder R600 je nachdem was P/L-mäßig gesehen am besten ist.
(sry für Groß/Klein + Rechtschreibfehler)
Mfg Sebastian
Master_Chief_87
Lt. Commander
- Registriert
- Aug. 2006
- Beiträge
- 1.496
Seb89 schrieb:Frisst der G80 nicht unter lasst 300+ Watt???
oder sind die tests gefaked https://www.computerbase.de/artikel...tx-test.614/seite-31#abschnitt_stromverbrauch
Das ist der Gesamtverbrauch des Testsystems, also CPU, RAM, HDD, Grafikarte usw.
---->
Seb89 schrieb:Also bitte erstmal informieren bevor man so ne scheiße schreibt...
Und dennoch, herzlich willkommen auf ComputerBase.
Was aber den Rest angeht, so hast du schon recht, es ist noch nix genaues und vor allem auch offizielles bekannt.
Da hilft leider nur warten.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 382
- Aufrufe
- 37.155
- Antworten
- 125
- Aufrufe
- 34.523
- Antworten
- 434
- Aufrufe
- 88.069
- Antworten
- 265
- Aufrufe
- 49.221
- Antworten
- 59
- Aufrufe
- 16.847
R