HD2950 Pro/XT vs HD2900 Pro

@stna1981 t h x für die schnellen antworten naja so doll is der unterschied ja net,woher hast du den die daten?

kennst du auch schon den preis für die hd2950pro?

cya
 
Hmm ... ich habs nicht mehr so gut in Erinnerung.

Es gibt zwei verschiedene Versionen der HD2950. Einmal die "Pro" und einmal die "XT". Beide basieren auf dem RV670-Kern.

Die Pro ("Revival") läuft mit 750 Mhz GPU-Takt und 1,8 Ghz Speichertakt und und hat eine 256bit Speicheranbindung (dabei bin ich mir nicht ganz sicher) Die XT ("Gladiator") läuft mit 825Mhz und hat 2,4Ghz Speichertakt. Außerdem hat die XT 512MB GDDR4, die Pro "nur" GDDR3.

Aber beide Karten sollen Mainstream sein, also obere Mittelklasse. Ich denke sie reichen aber in die aktuell High-Endklasse rein, die ja praktisch nur von der 8800GTX/Ultra und teilweise von der 2900XT gebildet werden :).

Daher denke ich kostet die kleine Karte um die 250 EUR, die XT eher 300 EUR.

Alle Angaben ohne Gewähr und so ne ...

EDIT: hier das ganze auf englisch:

We have previously reported that AMD (ATI) will release a new card based on RV670 (Radeon HD 2950). This 55nm built GPU is to fill the performance gaps between the current HD 2600 and HD 2900. It is also a competitor to the NVIDIA 8800GT.

China sticker brand Yeston brings us the photos of a retail pack of HD 2950 Pro. It seems to be made by ATi and has the conventional 6-pin power connector. The card also resembles the HD 2900 series card. The card also comes with CrossFire bridge and DVI-HDMI converter.

Some early results
Q6600 O/C 3.00G
RV670 GDDR4 512m
3DMARK 06 default 12000 marks
1600*1200 4AA 0AF 8000 marks


Some early specs of RV670

There are two edition to RV670. The first is the high end "Gladiator". It's GPU Core runs at 825MHz with 512MB GDDR4 at 2.4GHz. Power rated at 132W. The other model "Revival" has core running at 750MHz, 256M/512M GDDR3 at 1.8GHz. Power rated at 104W.

Both models will have 320 Stream processors, memory interface is 256 bits and both support DX10.1, SM 4.1, PCIe 2.0, UVB, new generation CrossFire technology..

Revival will be priced at 229 USD whlie Gladiator will be priced at around 299 USD. Both will replace the current HD 2900 series.


MfG
Jens
 
Zuletzt bearbeitet:
mh, also um jetzt schon über phenoms zu diskutieren finde ich n bisschen zu früh.

Zur sache: ich hab CoD4:MW schon vorbestellt und guck mal wie es läuft unter meinem System (siehe signatur). Wenn sich herausstellt das die HD2950 wirklich besser ist als die 2900xt 1gb dann verkaufe ich meine eventuell und hole mir die neue, aber ich denke mein system kann CoD4:MW locker mit allen feauteres darstellen, und wenn man mit dem programm "driver snake" bisschen in den treibern rumsaut, wird DirectX 10.1 auch nix neues mehr bringen (weiss nich ob die 2900 hardwaremässig für DirectX10.1 ausgelegt ist, wenn ja dann saut man in den treibern rum sodass sie z.b. als modifizierte 2950 erkannt wird und gleichgut ist.)

Einzig der stromverbrauch der 2900 ist bisschen hoch, aber weiter ist sie super und toppt locker die Ultra Black Pearl von nem kollegen. Das geheimnis der Ultra ist einfach das die treiber alle feauteres freischalten, die HD2900XT ist viel besser als alle denken, jedoch sperrt ATI/AMD aus wirtschaftlichen gründen einige funktionen. Würde man die ATI gesamthaft freischalten, gäbe es einen markteinbruch (ne art Graka-inflation), weil die leistung von nVidia (700€) für 300€ zu holen ist bei ATI. Aber mir und einigen kollegen ist es gelungen einen art trojaner (unser selbstentwickeltes programm, das obengenannte "Driver Snake") in den Bios einzuschleusen der alles freischaltet, und wir sind vor erstaunen fast vom stuhl gefallen.


Also ich würde mal ne 2900XT 1Gb holen und sie dann im november allenfalls verkaufen und die andre holen.

Greetz, Dröhntanne
 
Ähm, ist das dein Ernst?

Davon habe ich noch nichts gehört, und würde es als eine Sensation bezeichnen :D. Vielleicht schickst du mir ja mal ne kurze Info per PN ... danke.

Kannst du 3DMark-Werte oder besser Spielebenches aufweisen?

MfG
Jens
 
@ Dröhntanne

Das klingt ja sehr lustig, haste dich zugedröhnt? :lol:
Wenn die HD2900XT nur vom Treiber beschnitten wäre, warum verkauft ATI dann keinen unbeschnittene Variante für 600€?
Wie kann ein BIOS Mod alles freischalten, wenn der Treiber doch angeblich beschneidet?
AMD müsste da ja wissen, warum schießen die sich ins Beins und hauen keinen Kracher raus?
Und warum habt gerade ihr sowas entdeckt?
Was du da erzähst, klingt übel an den Haaren herbeigezogen, veröffentliche mal deinen "Driver Sneak" und wir werden sehen, überlass ich ihn CB ...

cYa
 
@y33h:

1. gut du hast recht das mit treibern und bios hab ich nicht richtig formuliert, es ist ein gewisses zusammenspiel. wenn du den BIOS "erweiterst" sag ich jetzt mal, nützt dir das nix ohne den treiber zu manipulieren, denn sonst kannste nix damit anfangen. Das ist wie ein Auto mit nem benzintank aber ohne tankloch, sodass es im grunde nutzlos ist.

2. wieso gerade wir ? tja, ich habe (unter anderem) informatik studiert und vor paar wochen hat ein studienkollege mir gesagt dass ATI seine karten meist nicht völlig "freischaltet". Wir (zu dritt) haben uns mal näher erkundigt und dann mal rumgeforscht bei meiner 2900XT. Da wir alledrei informatiker sind kann man das nicht so genau erklären damits für euch verständlich ist. Das "programm" driver snake ist nicht wirklich ein programm, eher ne manipulation.
Aber da du anschienend so gescheit bist und deiner meinung nach alles "langhergezogen" ist hoffe ich du hast n bisschen verstand von grafikkarten. Also: wenn du so schlau bist ist dir sicher die geschichte mit der nVidia Quadro bekannt, oder doch nicht ? dann hier mal ein ausschnitt aus Wikipedia:

"Die technische Nähe der Quadro zur GeForce-Reihe hat zu verschiedenen Wegen des Moddings geführt, um aus der billigen GeForce eine teure Quadro zu machen. Im Internet finden sich vielfach Anleitungen, wie man durch Manipulationen am Grafikkarten-BIOS normale GeForce-Grafikkarten in Quadro-Modelle umwandeln kann, was aber bei neueren Modellen nicht mehr funktioniert. Zudem gibt es die Möglichkeit, über Manipulationen am Treiber (sog. Soft-Mod) die Erkennung der Karte als Quadro zu erzwingen und so die erweiterten Funktionen freizuschalten."

So, wenn dein hirn bis jetzt noch nicht überhitzt ist dann sieh dir mal diesen satz an:
"....was aber bei neueren Modellen nicht mehr funktioniert." ABER nur bei nVidia ! ATI hat eine ähnliche taktik, denn diese strategie lässt die produktionskosten ENORM sinken. Gut, vielleicht zu schwer ausgedrückt für dich. Also, nVidia verkauft die Karte XXX als GeforceXXXGTS für 100€, die GeforceXXXGtx für 200€ und die nVidia QuadroXXX für 500€, aber die architektur der karte ist gleich. Also kann man eine karte unter 3 verschiedenen namen verkaufen, aber die produktion kostet bei allen 3 gleichviel, z.B. 40€. hätte jede karte jedoch eine andere architektur, wären die produktionskosten viel höher, d.h. entweder teure karten oder weniger gewinn. Du kannst eine GeForce 8800GTX locker auf das niveau einer Ultra Black Pearl bekommen, jedoch verfällt die garantie.
Das gleiche ist es mit den ATI's: inetwa gleiche architektur, nur andere konfigurationen. Der rest ist reine marktwissenschaft, ums kurz zu halten: ATI verkauft plötzlich die gleiche leistung wie nVidia, nur dann 300€ billiger --> nVidia geht (fast) pleite und muss preise massiv drücken (Graka inflation) --> ATI bekommt eine monopolstellung --> wettbewerb nicht mer vorhanden usw.
Das ist wie wenn du im moment nVidia und Matrox vergleichst. Deswegen schaltet ATI erst nach und nach die kleinen extrafunktionen frei. überleg mal: wie war die leistung der 2900XT im April beim release und wie ist die leistung jetzt ??? das ist doch ne ziemlich harte leistungssteigerung findest du nicht ? alles reine wirtschaftsfrage, denn im endeffekt verkauft ATI die gleiche karte, aufgemotzt mit 512mb extraspeicher für ein vielfaches mehr, wo doch die extra speicheranbindung vielleicht 1€ extra kostet bei der produktion (pro karte) und ein treiber ein paar kleine funktionen freischaltet. So geht das ! mithilfe von Biosmanipulation kannst du also schon beim Release etwa vorraussagen, wie gut die karte "offiziell" in einem halben jahr ist.Klar dauert es eine weile um einen geeigneten "trojaner" zu entwickeln der das ganze möglich macht, aber im endeffekt spart man sich viel geld. Das gleiche ist es mit der 8800GTS 320mb,640mb & der 8800GTX,Ultra: gleiche architektur, bei der einen grösserer speicher, bei der andren höherer Takt.

AMD hats nicht nötig an der spitze zu stehen, sonst hätten die doch schon lange irgendein topmodel rausgebracht das besser ist als die G80 basierten karten, vergiss nich ATI hat viel mehr grafikerfahrung als nVidia. Sie dir mal die Finanzseite von AMD an, die haben schon ihren gewünschten gewinn draussen.

3. Nein wir werden "driver snake" nicht freigeben, weil 1ens haben wir da endlos dran rumprogrammiert bis wir endlich der treiber die karte als neuen typ erkannt hat, 2ens weil wir eventuell angezeigt werden wenn wir es veröffentlichen wegen irgendnem verletzungsrecht blablabla, 3ens weil das programm nur auf unserem selbstentwickelten betriebssystem läuft, welches wir intern benutzen um solche manipulationen zu vollziehen, bei windows, Mac & Linux gehts nicht und 4ens ist es die sache von ATI wann sie diese funktionen freischalten.
Wir haben mal ne manipulierte Graka verkauft bei eBay, ging recht schnell über den tisch aber wir können nicht garantieren dass die Graka auf jedem PC läuft, weil unsere Patches auf unsere systeme optimiert sind. Vielleicht wenn du glück hast findest du wieder mal eine auf eBay unter dem namen "modifizierte graka xxxx" aber ich glaube nicht das wir uns diese scherereien nochmals antun, ausserdem verfällt sofort die garantie und es muss ein neuer kühler rauf weil alles viel wärmer wird.

So und jetzt renne schnell zum tiefkühlfach und hohl dir bisschen eis bevor dein hirn gänzlich überhitzt.


@elite-kampfsau: ich kann mal wieder n test machen, aber wir sind grade dran den BIOS vom mainboard zu knacken und versuchen den Ram auf 2000mhz laufen zu lassen. Auch sind wir grade dran ne Physxkarte zu knacken um zu sehen wies mit der ist. Aber wenn wir nen test machen knall ich die ergebnisse hin.

So jetzt geh ich mal bisschen zocken, und y33H@, ich empfehle dir WÄRMSTENS mal dein altes Wirtschaft&Recht buch zu holen und nochmal ganz genau das kapitel marktwirtschaft und marktwirtschaftsstraegien zu lesen, dann wird dir hoffentlich einiges klar.
 
1.) Wozu sagst du uns das alles?
2.) Warum sollt gerade nur IHR drauf gekommen sein?
3.) Was bezweckst du mit deiner Aussage?

Und da muss ich y33H@ Recht geben, warum haben die dann nicht gleich ne XTX aufm Markt gefeurt, wenns ja sowas von überhaupt kein Problem is :rolleyes:

Gib deine Weisheiten mal bei 3dcenter preis...Mal gucken was die Experten dazu meinen :lol:
 
@ Dröhntanne

Naja das Leude ihre (verk*ckte) hardware, auch zu sehen bei (GTS320) bis aufs letzte verteidigen is ja schon manschma schlimm.

Aber must du Leute wie z.B. "y33H@" textlich auschaun lassen wie Honks die deiner Meinung nach nix drauf haben? ich denke nicht.
Der Ton macht immer noch die Musik. ;)

"anschienend so gescheit bist, hoffe ich du hast n bisschen verstand, wenn du so schlau bist, wenn dein hirn bis jetzt noch nicht überhitzt, vielleicht zu schwer ausgedrückt für dich"

Für mich klingt das bischen nach selbst überheblichem, Informatik studiertem?

Dröhntanne schrieb:
wie war die leistung der 2900XT im April beim release und wie ist die leistung jetzt ?

Die Steigerung ist überhaupt nicht s0 dolle, wie du es hier angibst (siehe divers. Spiele/Benchmarks/Treiber vergleiche).

MFG
 
Also ich hab mir hier jetzt den Beitrag von Dröhntanne nochmals durchgelesen und ich muss sagen: sorry, nichts gegen dich persönlich, aber ich habe selten so einen Blödsinn gelesen.

1. Der Schreibstil ist für einen studierten Informatiker unter aller Sau. Was man daraus schließt, bleibt jedem selbst überlassen.

2. Hier werden Vergleiche gezogen, die gar nicht angebracht sind. Eine R600 oder G80-Karte mit dem entsprechenden Workstation-Pendant zu vergleichen und zu behaupten, dass sich durch BIOS- und Treiber-Mods die Desktopkarten in Workstationkarten verwandeln lassen, ist eine Sache und funktioniert auch noch. Aber dann zu behaupten, dass das für den Anwender Vorteile bringt, zeugt schon davon, dass man keine Ahnung hat. Workstationkarten wie die FireGL oder Quadro basieren technisch auf dem gleichen Chip, es werden lediglich per Treiber funktionen freigeschaltet, die für den Heimanwender eh ohne Bedeutung, z. B. beschleunigte Berechnung von 3D-CAD-Modellen. Auf die Spieleleistung wirkt sich das nicht aus.

3. Die Behauptung, es käme zu einer "Graka-Inflation", infolge derer nVidia pleite geht, ist übelstes BILD-Niveau. Erstens geht nVidia sicher nicht so schnell pleite, bei den Gewinnmargen die die Hersteller mit ihren Graikkarten einfahren. Selbst wenn die High End-Karten für 200 Euro über den Tisch gehen, machen die noch immer Gewinne. Außerdem hat ATi schon lange keinen Vorsprung mehr vor nVidia, weder im Notebook-Bereich, noch bei IGPs und schon gar nicht im Desktopsektor.

4. Der R600 ist noch immer so lahm wie im April. Er bricht bei AA/AF nach ewie vor ein. Und dass ATi jetzt durch optimierte Treiber (wahrscheinlich auch zu Lasten der Qualität) die Performance verbessert, ist kein Anzeichen für die Leistungsfähigkeit des R600, sondern eher ein Anzeichen der miesen Treiberpolitik. Zumal die Verbesserungen bei allen Karten der HD2000-Serie wirken und nicht nur beim R600.

5. "Die Finanzseite von AMD" (was auch immer man darunter verstehen mag) hat gewünschten Gewinn "draußen"? Ja nee ist klar, deshalb fährt AMD auch seit drei Quartalen 3-stellige Millionenverluste ein.

6. Ihr habt also ein eigenes Betriebssystem geschrieben. Zu dritt? Ja nee ist klar. Und da - wie du ja selbst sagst - das ganze nicht per se kompatibel zu Windows ist, habt ihr auch noch schnell den Quellcode der Benchmarks und Spiele gecrackt, damit sie auf ihrem Betriebssystem laufen...

7. Und das ganze ist bloß euch aufgefallen und niemand sonst? Du glaubst wirklich, dass die ganzen Leute, die bei der 9700 Pro & Co. die deaktivierten Pixelpipelines entdeckt haben und diejenigen, die Progs wie Rivatuner entwickeln, das alles nicht endeckt hätten, wenn dem so wäre? Oder irgendwo interne AMD-Dokumente existierten, die das ganze belegen und die zufällig an die Öffentlichkeit gelangen?

8. Und nochmal die Frage: was hätte AMD davon? Sie machen sich absichtlich zum Gespött der ganzen Medienwelt, weil sie es nicht schaffen, bei längerer Entwicklungszeit einen mindestens gleichwertigen Chkp zu entwickeln? Sie geben freiwillig den High End-Bereich bis auf weiteres kampflos an nVidia ab? Sie verlieren absichtlich Marktanteile? Und wieso das alles? Weil sie nicht zugeben wollen, eine bessere Karte zu haben, weil dann der erbitterte Konkurrent in Not gerät? Alter Schwede, also das kann man wirklich nur glauben, wenn man in einer anderen Welt lebt, wo sich Hase und Igel gute Nacht sagen...

So könnte ich jetzt weiter machen, aber eigentlich ist es unsinnige Verschendung kostbarer Lebenszeit, denn jeder, der ein bisschen Ahnung hat weiß, dass das alles nichts außer heiße Luft ist. Ohne einen konkreten Beweis kann ich auch behaupten, dass ich einen Mod für einen G80 geschrieben habe, der die Karte um 50% beschleunigt, dass ist dann in etwa genau so glaubwürdig wie deine Behauptung...
 
@Dröhntanne: Schön, dass du die Forummitglieder sogar beleidigst und herablassend behandelst ... das zeugt besonders von Deiner Reife, solche Programme zu entwickeln.

Nichts gegen Dich - ich kenne Dich nicht und weis nicht, was du drauf hast in Sachen Informatik, aber du kannst sicher verstehen, dass solche Behauptungen hier niemand glaubt. Vor allem, dass Nvidia pleite gehen könnte. Aber ich kann mir vorstellen, dass es da einiges an Absprache zwischen AMD/Ati und Nvidia gibt. Aber genaueres wäre ebenfalls nur Spekulation :).

Also, wenn Du etwas nachweisen kannst, würde ich das gerne sehen. Aber woher wisst Ihr, dass die Karte soviel Leistung hat, wenn Ihr es nur auf einem eigenen Betriebssystem geschafft habt, oder laufen darauf Spiele/Benches?

MfG
Jens
 
Sicherlich können 3 Informatikstudenten ihr eigenes OS schreiben. Ruft doch mal bei Billy an und fragt ihn warum er für Windows 2000 dann so viele 1000 Progger brauchte ?
 
Naja gut, ich habe davon kaum Ahnung, aber ein "einfaches" OS was einfach nur "läuft" ist ja vielleicht möglich. Aber eines worauf Benches und Spiele laufen ... naaajaaa.

Vielleicht meldet sich Dröhntanne ja nochmal hier :)

MfG
Jens
 
Der wird wohl grad damit beschäftigt sein, Screenshots in Photoshop zu zeichnen...
Finds aber immer wieder großartig, dass es so selbstverherrlichende "Möchtegerns" gibt, die sich mit solchen Textkonstruktionen Anerkennung verschaffen wollen.
Denn so weiß man wenigstens, dass es immer noch genug "Kellerkinder" gibt, die man am Wochenende verkloppen kann. :D
 
Selbst ein OS was einfach nur läuft bräuchten 3 Informatikstudenten jahre, wenn sie auf keinen bestehenden Code zurückgreifen. Das ist einfach mal blödsinn was er da schreibt, na mal sehen vllt. meldet er sich ja noch mal und kann ja dann auch M$ Konkurrenz machen.

Denke das wird jetzt alles zuviel OT
 
Deinen Orthographie- u. Grammatikkenntnissen entnehme ich, dass du ca. in der 7. Kl. Hauptschule von der Schule gegangen bist. Aber dann Informatik studiert, ist schon klar.
Deine und i.ü. auch jedermanns Ausführungen wären um einiges nachvollziehbarer, wenn eine gewisse sprachliche Untergrenze nicht unterschritten würde. Du befindest dich weit drunter.
 
Zurück
Oben