News Die-Plot des Nvidia GT200 und Überblick

@Pantherfibel: Wie süß, hab ich noch gar nicht gesehen. Die werden schon irgendwann kommen, weil einfach billiger, aber erstmal müssen die 38X0 raus. Also spätestens wenn die knapp werden, kömma drauf hoffen.

Mosla schrieb:
Also wenn ich mir das so anschaue, bin ich bald geneigt, komplett auf AMD (Board, Grafik, Prozzi hab ich schon) zu setzen. Die Stromsparfeatures sind nicht zu unterschätzen und preiswerter ist AMD ja auch noch dazu.:freak:

Was willst du noch? Mehr gibts von AMD doch grad nicht... Obwohl in deiner Sig ne Geforce steht :p

deathhour schrieb:
Hab ich mir auch schon überlegt aber die Prozis sind dann doch nicht soo stromsparend oder?? Also der Phenom verbraucht ja auch ganz schön viel Strom im vergleich zu Intel! Oder seh ich das falsch??

Siehe CB-Test:

https://www.computerbase.de/artikel...test.789/seite-23#abschnitt_leistungsaufnahme

Aber wer braucht schon QC? Lieber nen günstigen DC X2 und wenn man unbedingt QC braucht, kann man auf die 45nm QC von AMD aufrüsten, ist ja mitm AM2+ Sockel kein Problem.

deathhour schrieb:
@KAOZNAKE

Trotzdem muss man doch zugeben das die 3870 schon eine Ecke mehr features hat als der Vorgänger! Und das ist Inovation. Was mir eben auch bei Nvidea ein wenig fehlt(8800GT=9800GT ^^)

Ähhh hab ich was anderes behauptet? Ich hab grad versucht dem Unyu klar zu machen, das der Wechsel im Namensschema von AMD von der 2900 auf 3870 berechtigt war, im Gegensatz zu NVIDIA. Bzw. war die Namensgebung bei NV dazu ausgelegt, die Leute aufs Kreuz zu legen. Und ja die 3870 hat eine Ecke mehr features als die 2900.

@illegalz: "3. Fenster aufmachen, eine Grafikkarte schafft es ohnehin nicht ein gesamtes Zimmer auch nur um 1 Grad temp anzuheben"

Also in meiner PC Kammer merk ich deutlich wies wärmer wird. Im Winter mach ich dann immer die Tür zu, dann hab ichs in ner halben Stunde schön kuschelig. Ehrlich. :smokin:
Wobei da natürlich der ganze PC beteiligt ist. Aber Temperatur Messung mach ich jetzt nicht, is mir zu warm. Hab auch ne 3870, is aber auch ne kleine Kammer ;)

Unyu schrieb:
Vorteile der 9800GTX (Performance) gegenüber 8800GTX (altes High-End):
-VP2
-PCIe 2.0
-Hybrid SLI
-Stromverbrauch
-Leistung, gewaltige Shaderpower und noch weniger Probleme bei AF
-Preis

Das rechtertigt einen neuen Namen, oder wird hier wieder mit zweierlei Maß gemessen?

Nein, wird es nicht. Ich erklärs dir zum letzten mal, ob dus dann begreitst oder nicht, ist mir wurscht. Keiner hat was gegen eine Umbennenung der Geforce 8 Serie in die Geforce 9 Serie. Bloß wie einzelne Karten (8800GT und 9800GTX) benannt und positioniert wurden, stößt nunmal vielen sauer auf. Kannst du auch auf diversen Reviews als Fazit lesen. Circa Wortlaut: "Gute Graka, braucht kein Mensch"
Und erreichen wollte NV, das Leute mit wenig bis keine Ahnung entweder noch alten Müll kaufen (8800GTS 320/640) oder neuen Müll (9800GTX, weil keine Mehrleistung zur 88GTX-->verarsche)

Unyu schrieb:
Was soll da verbessert sein? HD3 macht das selbe MSAA wie HD2, SSAA kennt AMD ja nicht und diese Blur AA Sorten sind für die Tonne.

Die Geschwindigkeit. D.h. trotz halbiertem SI wird eine bessere Skalierung mit aktivierter Kantenglättung erreicht im Vergleich zur 2900. Sprich die Performance bricht teilweise sogar weniger ein, ach was erklär ich hier, lies selber:

https://www.computerbase.de/artikel...est.720/seite-5#abschnitt_aa_und_afskalierung

Unyu schrieb:
Du meinst RV770 und GT200?
Schlechter Vergleich.
Machs so:
AMD nimmt zwei 350PS Motoren und Nvidia ein 1000PS Motor.

Wir haben hier einmal 2x 800Millionen Transistoren vs 1x 1400Millionen Transistoren.
Die 2x 800 können die 1400 nicht schlagen. Was daran effizient sein soll ist mir unklar.
AMDs Vorteil ist die 55nm Fertigung und der Yield, ob der Kunde die Yield zu spüren bekommt? RV670 war ja nicht besonders billig für seine Größe .....

Ja ich mein den RV770, aber warum erzählst du was von 2x800Mill. Transistoren? Das wär dann der R700.
Ich wollte bloß Ansatz der Grakahersteller verdeutlichen, nicht so sehr die Performance. Deswegen hab ich die "PS-Zahl" neutral gehalten.
Warum soll der R700 die GTX280 nicht schlagen können? Wenn CF gut skaliert, sollte das kein Problem sein.
Wenn alles so hinhaut wies sich jeder vorstellt, wird die 4870 auf Höhe der 3870X2 liegen.
Bei guter Skalierung kommste mit CF und der X2 auf 100% mehr Perfomance von der 4870 (also doppelt so viel).

Das das nicht reichen soll, kann ich mir nicht vorstellen, da muss die GTX280 schon gut schneller werden als die 2x9800GTX im SLI-->wow.
Glaub ich nicht dran, da die 9800GTX im SLI auch teilweise auf die doppelte Performance kommt. Und das sind dann auch 256 Shader-Prozessoren.

Wir werden sehen.

nWarrior schrieb:
Wenns stimmt, dann gebe es ja KAUM noch Grund für eine HD4870.

*HUST* *HUST* *PREIS* *HUST *HUST*

Wenn bei dir das Geld auf Bäumen wächst, komm ich gern mal vorbei und ernte ;)

hmm lt. deiner Sig schon, wann kann ich kommen? ;););)

Warte lieber auf den Refresh der GTX280 in 55nm (hatte bereits tape-out), billiger, kühler, schneller. Streich das billiger, scheint ja egal zu sein. Wie man so liest, soll die GTX280 (65nm) sowieso eher in homöopathischen Dosen auf den Markt kommen und höchstens von vier AIB zu bekommen sein. Kann man auch nur abwarten.
 
Zuletzt bearbeitet:
nWarrior schrieb:
Angeblich GTX 280 nur 30W im Idle! GT200 also doch mit Stromsparfunktion?
Wie immer ohne Quelle, aber diesmal haben sie es sich nicht aus den Fingern gesaugt.
http://www.xtremesystems.org/forums/member.php?u=23418
" It looks like that the Geforce GTX 280-Chip needs only 30 watts in Idle. So Nvidia has implemented a 2D-Powerstatemode. But it is not sure, because it is controvers to Nvidias Hybrid-Power-tactic."

KAOZNAKE schrieb:
Und erreichen wollte NV, das Leute mit wenig bis keine Ahnung entweder noch alten Müll kaufen (8800GTS 320/640) oder neuen Müll
Das ist wohl eher Sache der Hersteller.
Außerdem wer wenig Ahnung hat ist doch auf der anderen Seite auch schlecht dran.
Wer keine Ahnung hat muss sich informieren oder er geht zu MM, da wird er gleich 5mal beschiessen, nicht nur durch eine 200€ Karte so schnell ist wie eine andere 200€ Karte mit 1000 weniger im Namen.

Und ja, das ist recht einseitig, wo ist die Mehrleistung der 3870 zur 2900XT?

KAOZNAKE schrieb:
*HUST* *HUST* *PREIS* *HUST *HUST*
G92(b) *hust* ;)
 
Ich lehne mich jetzt vielleicht weit aus dem Fenster, aber ich halte die 30W für einen Fake. Wieso sollte Nvidia den Verbrauch bei Last rausrücken, aber kein Wort über einen Stromspar-Modus sagen.
 
Seh ich genauso. NV hat doch sonst "die große Fresse" :D Legen sich ja sogar mit INTEL an. Bloß warum? Baut NV CPUs? Naja, außer die komischen kleinen Dinger die keine Sau interessieren.

BTT: Unyu, dein link geht leider nicht, aber das halt ich mal sowas von für fake. Wenn einer was hat, dann die Asiaten, die waren bis jetzt immer am schnellsten. Außerdem: Wo sind die benches? Was interessiert den Typ der idle Stromverbrauch? Hat der keine anderen Sorgen?!? :lol::freak::rolleyes::eek::stacheln::stock::utenforcer::utminigun::utbiorifle::utrocket::utflakcannon::utpulsegun::utripper::utxloc::watt::confused_alt:

EDIT:Habs selber gefunden

http://www.xtremesystems.org/forums/showthread.php?p=3031614#post3031614

EDIT2: Irgendwie doch nicht :(
 
Zuletzt bearbeitet:
^^ naja
@KAOZNAKE ich dich vorhin kurz falsch verstanden xD ^^

Sorry dann hab
 
@kaoznake
"Also in meiner PC Kammer merk ich deutlich wies wärmer wird. Im Winter mach ich dann immer die Tür zu, dann hab ichs in ner halben Stunde schön kuschelig. Ehrlich.
Wobei da natürlich der ganze PC beteiligt ist. Aber Temperatur Messung mach ich jetzt nicht, is mir zu warm. Hab auch ne 3870, is aber auch ne kleine Kammer "

nimm dir einen Heizlüfter mit 2kw leistung, der brauch um ein 14 qm zimmer um 5 Grad zu erwärmen etwa 8 minuten.
Eine Grafikkarte, wie eine HD3870 die du dann mit durschnittlich 80 Watt belastet braucht folglich 200 Minuten, also 3 Stunden un 20 Minuten, also ziemlich lange
 
Zu den 30W im Idle:
gtx280powersj4.jpg


ups sind ja nur 25W ^^
 
Ist zwar nur die Karte ansich, was immernoch viel ist für nix, aber glauben mag ich dem Diagramm nicht so wirklich. Das hätte ich gerne mal Nachgemessen...
 
das diagramm ist echt mal schwachsinn, eine 9800GTX verbraucht im 3dmark06 schon mehr als 80 watt

EDIT: ich hab da mal ne frage: ich versteh das ganze mit "angekündigt" und "offiziell vorgestellt" noch nicht so ganz.
wann werde ich meine HD4000 oder GTX2xx bei z.B. Alternate kaufen können?
 
Halte es auch für unwahrscheinlich das die GTX 260/280 im Idle einen Stromsparmodus hat, wie Power Play. Intel bekommt kein SLI Lizenz und Hybrid Power auf Nforce 7 only, ist extra so eingerichtet damit mehr Nforce Chipsätze verkaufen werden. Meiner Meinung nach schadet sich NV mit dieser Politik selber, GPUs bringen mehr Gewinn als Chipsätze. Hoffentlich stimmt dein Diagramm Unyu, Nvidia ist ja immer für eine Überraschung gut.(2006 CEO:die GF8 hat keine unified Shader; Lounch des G80 CEO: oh doch das hat sie und sie ist verdammt schnell)

@KAOZNAKE

Du stellst CF als Option dar die Leistung einer GTX 260/280 zu erreichen, oder sogar zu toppen. ATI sagt selber das CF nicht zu fixen ist! Es ist so wie es heute ist, mit all seinen Nachteilen die bei weitem die (Vorteile) überwiegen.
99% werden nicht bereit sein 500€ und mehr für CF oder Quad CF auszugeben, wenn es dann nicht perfekt und einwandfrei arbeitet.

Die 4850/4870 ist nicht als direkter Gegner gegen die 280 GTX aufgestellt, sondern gegen die 9800er Reihe von NV. Wenn NV es nicht endlich schafft der 9800GTX oder der 9800GT 1024MB Vram zu verpassen(bei der 8800 GT gehts doch auch), dann hat ATI DIE große Chance auf die sie so lange schon gewartet haben! Denn ohne genügend Vram ziehen die neue ATI Karten Kreise um die 9800er Reihe, mit hohen Qualitäts Einstellungen versteht sich.

CF und Quad CF soll den Brute-Force-Chips Einhalt gebieten, das aber wiederum ist nicht möglich mit teuren Multi-GPU Karten die noch im Beta-Stadium stecken.

Eins muss ich der HD4000 heute schon lassen, endlich haben sie ein ansprechendes Layout gefunden, ohne die kitschigen Flammen etc., die Heatpipe sieht auch sehr gut aus.

http://www.pcgameshardware.de/aid,6...enu=browser&image_id=827473&article_id=645647
https://pics.computerbase.de/2/1/8/7/0/20-1080.1076423470.jpg
 
Zuletzt bearbeitet:
am 16 juno kannste die 48XX kaufen am 17 juno die 260/80 gtx
 
illegalz schrieb:
das diagramm ist echt mal schwachsinn, eine 9800GTX verbraucht im 3dmark06 schon mehr als 80 watt

Stimmt, dann würde laut dem Testsystem von CB eine HD 3850 keine 10 Watt benötigen unter Last.. ^^
 
Dark Soul schrieb:
Leute darf ich Vorstellen, das ist NWarrior:D DER NVidia Fan überhaupt;) Im PCGH Forum extrem bekannt dafür:D Gewöhnt euch schon mal an solche Kommentare;)


keine angst, er beweist seine.. ähm.. kompetenz alleine dadurch, dass er 8gb ddr2-1000 in seinen rechner steckt
mehr muss man glaub ich gar nicht mehr sagen
 
@Unyu: CJ traut sich ja echt einiges, verrät Woche für Woche die Stärken von Nvidias Karten...
 
@CB:

Woher habt ihr eigendlich die Informationen zu den Transistorangaben? Der GT200 sollte doch rund 1 Milliarde haben und der RV770 müsste doch auch mehr als 800 Millionen haben.

MfG Pantherfibel
 
nWarrior schrieb:
Irgendwas dagegen? Die Karten werden doch eh schon in ca. 2 Wochen vorgestellt.

Ja, er soll auch was über den RV770 verraten :). Da hält er sich irgendwie verdächtig bedeckt... Obwohl er einiges weiß und auch (wie bei NV) unter NDA steht.
 
aber glaubt ihr wirklich, dass man die grafikkarten am 17/18 juni dann kaufen kann?
was schätzt ihr, wie lange braucht es, damit SINVOLLE und echte benchmarks von Computerbase,Chip,Netzwelt etc. rauskommen? auf die werde ich nähmlich sicherhaltshalber warten

@nvidia fan nwarrior wieso hast du ein X38 chipsatz, siehst du dann doch ein das Nvidia in bestimmten bereichen nix draufhat (ich will damit keine neue Diskussion entfachen) oder?

stell ich das so richtig da?

ATI X1xxx vs Nvidia 7xxx
ATI HD 2xxx vs Nvidia 8xxx
ATI HD 3xxx vs Ndidia 8xxx
ATI HD 4xxx vs Nvidia 9xxx

Bleibt leider kein gegner füt die GTX 260/280, außerdem hat ATI wie es mir scheint 2 anläufe gebraucht
 
Zuletzt bearbeitet:
Zurück
Oben