Erste Radeon II Benchmarks !?

  • Ersteller des Themas Unregistered
  • Erstellungsdatum
U

Unregistered

Gast
Auf http://www.rageunderground.com/Benchmarks/RV200.htm


gibt es inoffizielle Benchmarks zum R200( Radeon II ), ich
weis nicht wie wahr diese sind, aber besonders gut schneidet die RadeonII dort nicht ab - in 3Dmark2001 ca. 2000 Punkte mehr als eine Geforce2Ultra-also im Verhältnis dann etwa gleich auf mit einer Geforce3, die Spezifikationen der Karte : core: 200/ memory: 230 MHz(DDR)
Was haltet ihr davon ?
 

TheShaft

Lt. Commander
Dabei seit
Juli 2001
Beiträge
1.939
Original erstellt von Unregistered
Auf http://www.rageunderground.com/Benchmarks/RV200.htm


gibt es inoffizielle Benchmarks zum R200( Radeon II ), ich
weis nicht wie wahr diese sind, aber besonders gut schneidet die RadeonII dort nicht ab - in 3Dmark2001 ca. 2000 Punkte mehr als eine Geforce2Ultra-also im Verhältnis dann etwa gleich auf mit einer Geforce3, die Spezifikationen der Karte : core: 200/ memory: 230 MHz(DDR)
Was haltet ihr davon ?
sie schneidet nicht besonders gut ab ??? HÄ ?

die radeon 2 befindet sich im gerade im entwicklungsstadium und es gibt noch keine ausgereiften treiber dafür, trotzdem macht sie aber die GF2 zur schnecke und ist bereits auf GF3 niveau !!?
wieso schneidet sie da nicht gut ab ? kannste mir das mal erklären ?:confused_alt:
mir macht des hoffnung, das ati seine sache gut macht...(wenn die ergebnisse stimmen)
 

Stan

Diskussions-Zerstörer
Dabei seit
Juli 2001
Beiträge
2.346
SChau..ATi macht das gleiche wie 3dfx mit seiner V5-Reihe...Sie setzen auf qualität und nicht mehr nur auf speed...all die sachen wie FSAA, SmartShader etc sind alles drinn..

Da kackt man doch auf ne geforce 3...hehe
 
U

Unregistered

Gast
Radeon II Benchmarks

Aja, haste voll recht, jetzt schon auf Geforce3-Niveau, ups, da bahnnt sich gewaltiges an wenn erst mal dessen Treiber ausgereift sind, hui !!!!!!!
 

Crazy_Bon

Rear Admiral
Dabei seit
März 2001
Beiträge
5.694
Ich frage mich warum die GeForce3 , laut dem 3DMark2K1-Benchmark von dieser Seite, kein Environment Mapping und Pixel Shader kann, während die Radeon2 alles unterstützt.
Da nun mal der Codename R200 für die Radeon2 steht, frage ich mich welchen Chip von ATi auch noch vom Stapel lässt, das sich RV200 nennt. Eine "Radeon2MX?" ;)
Glaube auch, dass sich bei der Radeon2 um eine Vorserienmodell oder Prototyp handelt, der angepeilte Chiptakt war doch höher angesiedelt und die RV200 taktet ja schon mit 230MHz.
 

Tommy

Chef-Optimist
Teammitglied
Dabei seit
März 2001
Beiträge
8.193
Abwarten und Tee trinken

Die Ausrede mit den zu schlechten Treibern habe ich aber leider schon all zu oft gehört und am Ende wurde es dennoch nicht wesentlich schneller. Sicherlich befindet sich der Chip erst am Anfang seiner Entwicklung und somit haben auch die Treiber nicht mehr als Alpha Status. Aber deshalb würde ich noch lange nicht sagen, dass sich die Leistung des Chips so grundlegend ändern wird. Aber ich kann mich auch täsuchen, zumal der Radeon II R200 viele neue Techniken bietet, die ja auch erst einmal unterstützt werden wollen. Hier wird z.B. DirectX 8.1 eine erste Grundlage bieten ...
 

QLink

Lieutenant
Dabei seit
März 2001
Beiträge
659
Ich warte nur mehr auf die ersten Benchmarkergebnisse der Kyro III. Die wird allen zeigen wo der Hammer hängt.(hoffe ich zumindest) Ich erwarte mir ziemlich viel von dieser Karte. Finde das Tile Based Rendering einfach genial. Haben das eigentlich andere Karten auch schon oder nicht???
 
U

Unregistered

Gast
Ich glaube es erst wenn die fertige Karte im Handel ist. Und dann warten wir mal ab wie die Benmarkergebnisse ausfallen. Und dann beurteilen wir mal die Kräfteverhältnisse. Denn ich halte nicht viel von solchen Vorurteilen. Warten wir also ab bis ATIs Karte auf den Markt ist und urteilen dann.

JC
 

Stan

Diskussions-Zerstörer
Dabei seit
Juli 2001
Beiträge
2.346
Naja alle Kyro-karten haben das (1+2)..da die 1. version ja eigentlich baugleich ist..der unterschied liegt bei der herstellung..

Naja ich erwarte mir SEHR viel von der Radeon2 ..Und wieso?
Wieso wartet Nvidia wohl mit der auslieferung der GF3 ULTRA? Na? Weil sie die Radeon2 ueberbieten wollen..und naja somit muss sie eigentlich schneller sein als die GF3..und ich denke dass Nvidia mehr ueber den radeon 2 weiss als sonst wer (ausser ati :) )..

CYA
 

TheShaft

Lt. Commander
Dabei seit
Juli 2001
Beiträge
1.939
Re: Erste Radeon II Benchmarks

Original erstellt von Unregistered
Glaube ich hatte doch recht !
Zahlreiche Webseiten berichten gerade von diesen (inzwischen wieder neueren Benchmarks)Das krasse : Unter 3DMark2001 schlägt die RadeonII eine Geforce3 unter gleichen Bedingungen um ca. 20 Prozent, tja die Geforce3 scheint seinen Meister gefunden zu haben *G*

Hier ein paar Links zu den Benchmarks :
http://www.3dcenter.de/artikel/2001/07-20.php3

http://www.hardtecs4u.de/

http://www.rivastation.de/
*total-baff-sei* ! die radeon 2 ist anscheinend NOCH MEHR für directx8 optimiert wie die gf3 !
unter dx7 (3d2000,quake3) ist sie der gf3 unterlegen,aber unter directx8 scheint das wirklich unglabliche eingetreten zu sein, die GF3 ist ganz klar besiegt :)
die radeon 2 wird somit denk ich die einzig wahre konkurrenz zur kyro III....
 

Carsten

Commodore
Dabei seit
Juli 2001
Beiträge
4.590
wie der Kaiser sagen würde: schaun mer mal!

die radeon I wurde vorab auch als der große GeForce-Killer angekündigt, mit 200/200MHz für chip und speicher....und dann kam doch alles anders....außerdem sehe ich hier keine 20%ige überlegenheit....ganz abgesehen von der mangelhaften dokumentation des umfeldes....die CPU spielt auch ne Riesenrolle in den 3DMarks!

quasar
 

real_Armageddon

Cadet 1st Year
Dabei seit
Juli 2001
Beiträge
14
Die Radeon II ist aber auch nur (bei diesen Benchmarks) bei 3DMark2001 besser. Was ist mit den Spielen, die nicht auf DX8 abgestimmt sind?
Wann wird denn eigentlich die Radeon II kommen (etwa)?
Ich überlege mir jetzt ernsthaft, ob ich mir das Geld für die GF3 sparen und mir eine Radeon II kaufen soll...
Was soll ich tun?:( :confused_alt:
Allerdings scheisst mich ein langes Warten ziemlich an!
 

Scorb

Lieutenant
Dabei seit
Juni 2001
Beiträge
516
Ganz ruhig Leutz:D

ATI hat es ncoh nie geschafft,die Nvidia-Chips zu überbieten...bei gleichem Erscheinen...obwohl,wenn der Preis stimmt,wäre das eine gute Alternative.Aber nur,wenn Kyro3 floppt,was ích aber nicht glaube.
Und das sie Fsaa und oder ähnliche Techniken benutzt,muss ja wohl....sonst bringt die Karte ja nichts neues...und wer weiß,wann ATI die ins Rennen schickt....*wart* *wart*
wart*

Scorb
 

Carsten

Commodore
Dabei seit
Juli 2001
Beiträge
4.590
nV News hat ATI´s John Challinor über die Echtheit der gestern von Rageunderground veröffentlichten ersten R200 / RADEON 2 Benchmarks befragt (Siehe News von gestern):

Q: Would you like to comment on the authenticity of the purported benchmarks of the "R200" and "RV200" on Rage Underground?

A: They're not authentic

Thanks!

John B Challinor II APR
Director Public Relations
ATI Technologies

Demnach sind die Werte nicht echt, was angesichts der teilweise bescheidenen Peformance auch wünschenswert ist...



gestohlen von: http://www.rivastation.com/
 

real_Armageddon

Cadet 1st Year
Dabei seit
Juli 2001
Beiträge
14
Schön! Dann werden (hoffentlich) bald mal ein paar geile GPUs rauskommen. Das heisst dann auch, dass die Preise schnell fallen werden! :D
 

DvP

Admiral
Dabei seit
März 2001
Beiträge
9.514
Es kommt doch ne R300 auch raus! OH Gott was wird das für ein Monster wenn man sich die Spezifikationen im vergleich ansieht:

Computerbase sagte dazu:

Zu ATIs kommenden Chip-Generationen sind nun erstmals genauere, bis jetzt noch unbestätigte, Informationen aufgetaucht. Demnach ist der R200 (RadeonII) bereits als Muster verfügbar und besitzt folgende Eigenschaften: 4 Renderpipelines, 250MHz Chiptakt, DirectX 8.1 Support und HydraVision (= TwinView = gleichzeitige Ansteuerung von zwei Monitoren). Darüber hinaus soll der R200 VOLL SLI FÄHIG, d.h. mit anderen Chips seiner Art koppelbar sein. Voraussetzung dafür ist jedoch ein AGP 4x Board. Mit dem RV200 wird ATI anscheinend eine Art MX-Karte herausbringen. Gegenüber seinem "grossen Bruder" wurde er zwei Renderpipelines und dem SLI-Support beraubt. Die Serienproduktion beider Chips wird jedoch nicht vor September 2001 anlaufen. Auch über den R200 Nachfolger sind bereits detailliertere Informationen verfügbar. Gleich drei verschiedene Typen des R300 soll es geben. Der RL300 wird mit seinen unter 300 MHz Chiptakt aber einem vollen DirectX 9 Support wohl auf den LowCost-Markt angesetzt werden. Alle anderen technischen Daten sollen dem Vorgänger R200 entsprechen. Zweiter Vertreter der neuen Generation wird der RV300 sein, der, bis auf einen Chiptakt von ca. 300 MHz, dem RL300 gleicht. Als neues Flaggschiff plant nVidia den R300. Mit gigantischen acht Renderpipelines, DirectX 9 Unterstützung und an die 300 MHz wird er sich, gerade bei dann aktuellen Spielen, deutlich von seinen Verwandten absetzen. Erste Muster dieser Chips wird es allerdings aller Voraussicht nach erst im 4. Quartal 2001 geben. Nur der R300 soll etwas früher die Labore verlassen, um vielleicht schon zur CeBIT 2002 auf den Markt zu kommen


Voll SLI fähig!!!!!!!!!!!
R300 könnte ne gf3ultra zum teufel jagen!!!!!!!
 

QLink

Lieutenant
Dabei seit
März 2001
Beiträge
659
Original erstellt von DvP
Voll SLI fähig!!!!!!!!!!!
Möchte aber nicht wissen, wo der Preis liegt bzw. ob man dann einfach das Doppelte zahlt. Und wie soll das überhaupt funktionieren, bei nur einem AGP Port??? Wenn ich mich da an die V2 SLI erinnere, da hat man 2 PCI Slots benötigt, geht aber beim AGP schlecht;) . Muss man da einfach dann den Chip auf die Karte in einen dafür vorgesehenen Sockel stecken oder wie??? Kann mir da irgendwie kein wirkliches Bild machen.
 

Stan

Diskussions-Zerstörer
Dabei seit
Juli 2001
Beiträge
2.346
Schubidubidupp! ist doch logisch..hehe man packt einfach mehr auf eine karte! Hehe darum auch AGP4x..wegen der bandbreite..
Naja so eine karte wird teuer...sehr teuer..
 

QLink

Lieutenant
Dabei seit
März 2001
Beiträge
659
Original erstellt von Pandora
Schubidubidupp! ist doch logisch..hehe man packt einfach mehr auf eine karte! Hehe darum auch AGP4x..wegen der bandbreite..
Naja so eine karte wird teuer...sehr teuer..
d.h. wenn man sich z.B. schon eine Karte gekauft hat, kann man diese nicht mehr erweitern, sondern muss sie verkaufen und dann eine neue Karte kaufen, die dann schon mehrere Chips oben hat. Das ist Scheiße !!!:headshot:

Ist ja ein enormer Kostenaufwand.
 
Top