hat nVidia nicht total versagt ?

Also ich würd auch sagen : Abwarten und Tee trinken (Für mich bitte mit viel Zucker)

Diese Spekulationen bringen mal gar nichts,man kannn icht über etwas urteilen was man nicht kennt aber leider sind Menschen ja so,wegen Langeweile oder so ^^

Die genauen Daten und die Performance wird sich erst bei den ersten Tests hier oder wo auch immer zeigen und dann kann man anfangen zu Motzen vieleicht hat der Thread danna uch eine Daseinsberechtigung aber derzeit kritisiert dieser nur Vermutungen.

lg
 
mmic29 schrieb:
Ob nvidia "versagt" hat, wird sich erst zeigen, wenn ofizielle Tests erschienen sind. Die 8800GTX wurde vor dem release auch von vielen Quellen schlecht geredet, wobei nvidia mit ihrer "wir nutzen noch keine unified-shader-Täuschung" natürlich viel dazu beigetragen hat. Was man nvidia natürlich ankreiden kann ist die Tatsache, dass die GPU wirklich ein absoluter Energiefresser wird, was aber der werten high-end-Gemeinde vollkommen egal sein dürfte. Das DX10.1 noch nicht unterstützt wird ist in meinen Augen nicht wirklich schlimm, wenn man mal die bisher doch sehr überschaubare Zahl an DX10-games betrachtet, die DX10 auch wirklich überzeugend nutzt.
.

Hast du schonmal Assassin's Creed mit ner nVidia & ner ATI gespielt ? ich war neugierig und habs probiert. erst mit meiner 8800GT und dann mit der 3870X2, es macht einen beträchtlichen unterschied der nicht so unterschätzt werden sollte, ich glaube hier auf der CB haben die das mal verglichen und Screenshots gemacht. meiner meinung nach sollte ab jetzt DirectX10.1 in den games verwendet werden, denn AA und so sehen wirklich besser aus.

ausserdem "trimmt" nVidia ihre karten auf pure leistung mit ihren treibern um auch das letzte fps rauszuholen. es gab hier bei CB auch mal nen artikel der zeigte das auf gleichen einstellungen die ATI's Crysis schöner darstellen als eine gleichwertige nVidia (ich glaube das waren 8800GT vs. 3870), ich such mal den link.

Greetz

€dit: @W33D3RCH3N: ich habe bereits fett geschrieben dass es sich um vermutungen handelt. und da ich mir das bein gebrochen habe und ich im moment nichts anfangen kann, diskutiere ich hier halt ein wenig. wie du schon gesagt hast, aus langeweile;)
 
Zuletzt bearbeitet:
Desoxyribo schrieb:
DirectX10.1 in den games verwendet werden, denn AA und so sehen wirklich besser aus.
Ja MSAA sieht unter D3D10.1 so wie unter D3D9 aus. :)

Sollte: Ja.
Wird: Nein.
Warum: Weil AMD sein Kernfeature #1 nicht pusht und weil Nvidia es nicht anbietet.

btw. man munkelt bei .1 in AC wird nicht alles so fehlerfrei dargestellt wie in .0
Das MSAA, tja auf den Marketingfolien nicht schlecht, im reallife nicht mehr so zu sehen http://hardocp.com/article.html?art=MTQ5Myw3LCxoZW50aHVzaWFzdA==

Fritzler schrieb:
zudem vergleichst du hier high end vs midrange
Falsch, ich vergleiche 2 ähnlich schnelle Karten.

Desoxyribo schrieb:
weil nVidia & ATI im moment nen dual-gpu tik haben ganz einfach
Klar, nvidia verdoppelt den G92 und das ganze soll dann langsamer als ne 5200 werden. :rolleyes:

Desoxyribo schrieb:
weil nVidia & ATI im moment nen dual-gpu tik haben ganz einfach
Woran erkennst du das?
Die 9800 GX2 ist wie die anderen Karten eine Notlösung um die 3DMark Krone zu halten. (Ich schreibe extra nicht Performance Krone!)

Desoxyribo schrieb:
bitte pflanz den G92b traum woanders
G92b ist real, oder mit welchem Chip wird nvidia wohl den notwendigen Schritt zu 55nm wagen?
 
Zuletzt bearbeitet:
Bei AC wird besonders augenfällig, wie sinnvoll DX10.1 sein könnte. Die Behauptung der Entwickler, der 10.1-Pfad sei wegen diverser Darstellungsfehler entfernt worden, hat bei der betroffenen Community vollständiges Rätselraten ausgelöst, auch die PCGH hat keine Probleme feststellen können, ganz im Gegenteil:

http://www.pcgameshardware.de/aid,640754/Test/Benchmark/Assassins_Creed_D3D-101-Modus_im_PCGH-Praxistest/

Das verblüffende Fazit: die Kantenglättung sieht bei der 3870 nicht nur besser aus, es ist auch noch schneller als mit DX9.

Die Radeon HD3870 dagegen legt in einer Auflösung von 1.680x1.050 Bildpunkten und maximaler Ingame-Kantenglättung durch die Installation des Update-Pakets satte 31,5 Prozent zu und kommt auf 26,7 Fps. Dieser Wert liegt zwar weiterhin unter dem der 8800 GT, jedoch ist hier zu beachten, dass die Geforce erstens übertaktet ist und zweitens mit einer schlechteren Qualität rendert.

Zur Crysis-Problematik und zum vermeintlichen "Cheaten" der nvida-Treiber vgl. http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=487&Itemid=29

sowie http://www.pcgameshardware.de/?article_id=627442
 
Zuletzt bearbeitet:
hat nVidia nicht total versagt ?

1.) Plenken ist unschön, eine echt weit verbreitete Unsitte hier im Forum.

2.) MMn Blödsinn jetzt schon darüber zu spekulieren, ob die Karte "versagt" hat, oder nicht. Fakt ist, es gibt die Karte noch nicht zu kaufen und kein einziges Review. Da von vornherein irgendwas zu unterstellen ist schon ziemlich anmaßend.

Dennoch, sollten sich die Specs in etwa bewahrheiten, wäre das einzige Kritikwürdige aus meiner Sicht der imense Stromverbrauch. 236W sind wirklich jenseits von gut und böse, bin mal gespannt wie das gekühlt werden soll. Und gerade bei solchen Werten ist es doppelt ärgerlich, daß der idle-mode wieder mal wegrationalisiert wurde.

Nichtsdestotrotz sollte man erstmal erste Reviews und Usererfahrungen abwarten, bevor man zu laut motzt. Letztendlich ist ja auch niemand gezwungen das Ding zu kaufen ;)
 
Unyu schrieb:
Woran erkennst du das?
Die 9800 GX2 ist wie die anderen Karten eine Notlösung um die 3DMark Krone zu halten. (Ich schreibe extra nicht Performance Krone!)

EBEN ! du befestigst doch nur was ich gesagt habe ! um die krone zu ergreifen (3d Schwanzvergleich 06) bauen die dual-GPU lösungen ! und ich betrachte das als tik ! wo ist denn da dein gegenargument ?

bezüglich DirectX10.1: guck dir mal Rumpel01's (danke für den beistand;)) links an, vorallem dieses bild *klick* sollte doch eindeutig zeigen was in DirectX10.1 steckt. und das ist kein fake, denn ich habe es wiegesagt selber ausprobiert.

Greetz

@Juggernaut: wieso habe ich die fredfrage mit nem fragezeichen gekennzeichnet ? ich hätte auch schreiben können "nVidia hat ja total versagt !". das habe ich extra gemacht, weil das meine meinung ist im moment, und ich wissen möchte inwiefern die anderen user mit mir diese meinung teilen. so feuert man eine diskussion an, mit einer themafrage (wenn du schon im Gymi bist solltest du das wissen;) ). Hier können die user ihren gedanken freien lauf geben zu den angegebenen specs, weiterdenken und so mögliche konsequenzen ziehen. so macht mann es bis zum release noch spannender:D
 
Zuletzt bearbeitet:
rumpel
Das Problem an der PCGH Präsentation:
Es handelt sich dabei um die Marketingfolie. ;)
Guck mal einen Beitrag höher. :(
Und um was streiten wir? Um MSAA, das eh nicht alles glättet.

Performane: Warum sind die HD3 unter D3D10 so langsam? Sie brauchen .1 um den normalen Abstand zu halten. Darauf zu schießen was .1 allgemein bringen könnte ist seh gewagt.
Zudem gibt es ja keine weiteren .1 Titel.


Desoxyribo schrieb:
http://hardocp.com/images/articles/1209327136LbT4Ywf2ib_7_8_l.png
 
Fritzler schrieb:
was du noch vergessen hast:
die nvdia karten haben keine stromsparmechanismen

wer darauf so scharf iss kann einfach sein bios flashen...

aber back 2 topic:
also in erster linie gibt es irgendeinen offiziellen benchmark der beiden karten imo? nein!

stammen die bisherigen infos aus gerüchteküchen? zum größten teil JA!

und wozu gibt es bitte schön hybrid sli (weil sich ja einige hier über die wahrscheinlich viel zu hohe verlustleistung beschweren!)

mfg
 
Es ist ja nicht so als hätte das PCGH "erfunden", vielmehr bestätigten sie den Befund von vielen:

http://www.rage3d.com/articles/assassinscreed/index.php?p=4

With either the 2900XT or the 3870X2 without SP1, that particular area seems to receive no AA, in spite of the rest of the screen being properly AAed. Once SP1 is installed on the 3870X2 sporting system, the edge gets properly antialiased, whilst on the 2900XT installing SP1 has no effect.

The impact that DX10.1 has is quite frankly greater than expected. A 20% improvement in AA performance is very impressive. GPU refreshes have been built around lesser gains. Based on the game's behavior it's possible that Ubi are doing their own Custom Resolve in order to get HDR correct AA, and are also taking advantage of the full access to MSAA buffers DX10.1 brings in order to get both better quality and better performance, but without an official statement we'd rather refrain from speculating further.

Es ist viel gewagter, anhand dieser Dokumentation das Potential von DX10.1 zu negieren als den Befund zu akzeptieren und festzuhalten: die Implementierung wäre sinnvoll, evtl. sogar bahnbrechend, wenn damit die Performance von (MS)AA auch auf Budget-Karten signifikant verbessert werden kann. ;)
 
Zuletzt bearbeitet:
Desoxyribo schrieb:
@Juggernaut: wieso habe ich die fredfrage mit nem fragezeichen gekennzeichnet ? ich hätte auch schreiben können "nVidia hat ja total versagt !". das habe ich extra gemacht, weil das meine meinung ist im moment, und ich wissen möchte inwiefern die anderen user mit mir diese meinung teilen. so feuert man eine diskussion an, mit einer themafrage (wenn du schon im Gymi bist solltest du das wissen;) ). Hier können die user ihren gedanken freien lauf geben zu den angegebenen specs, weiterdenken und so mögliche konsequenzen ziehen. so macht mann es bis zum release noch spannender:D

Ist ja gut, meine Meinung steht sowieso oben. Der Energiebedarf ist, wenn er so zutreffen sollte, kritkwürdig, den Rest werden die Reviews schon zeigen.

Aber bitte hör auf zu plenken, das ist grausam :stock:
Als Gymnasiast solltest du die korrekte Anwendung von Satzzeichen doch kennen ;)
 
Unyu schrieb:

das ist ein sehr schöner fake um nVidia in helles licht zu stellen: hast du schonmal Assassin's Creed gespielt ? wenn ja dann solltest du wissen das die kleinste bewegung schatten ändern kann usw. um das zu vergleichen muss exact der gleiche winkel gepostet werden. da die zwei bilder unterschiedliche winkel zeigen (wenn auch nicht sehr gross) kannst du das nicht als vergleich hinziehen, keine diskussion. Guck dir zum beispiel mal die zum teil lächerlichen hintergrundtexturen im Bf2 an. gut, ist ein älteres spiel aber jedes game hat solche bugs, es ist unmöglich das ohne bugs hinzukriegen. und ich schätze mal das ist genau so ein bug. denn über 100 websites berichteten schon davon das Assasin's Creed mit ner ATI & SP1 besser aussieht.

@Rumpel01: könntest du vielleicht die news ausgraben in der zwei vergleichsfotos von Crysis stehen ? da stand was davon dass nVidia zwar schnellere karten hat wegen reinen perfomancetreibern, aber bei ATI siehts dafür besser aus. wäre nett, so als verlgeich dass auch ohne DirectX10.1 ATI treiberbedingt schönere bilder bringt.

Greetz

€dit: @Juggernout: zum glück habe ich die zeit hinter mir, und im studium ist das den profs völlig egal (ausser du studierst deutsch;)) ich studiere maschinenbau & physik, da haben die zahlen einen grösseren wert. Was hast du mit dem plenken ? das ist kein plenken das ist spekulieren und der aktuellen warheit (auch wenn sie auf gerüchten basiert) ins auge sehen;)
 
Zuletzt bearbeitet:
Du plenkst immer noch und outest dich so langsam doch als Fanboy. Im großen und ganzen ist die BQ des G80/G92 dem R600/670 überlegen...da hilft auch irgendein Einzelbeispiel des "Crysis Releasetreibers" nicht wirklich...

Und wie es bei der neuen Generation aussieht, bleibt abzuwarten. Da kann jetzt wirklich nur spekulieren, zumal der Treiber ja auch noch ein gewaltiges Wörtchen mitzureden hat.

Und nein, ich bin kein Fanboy, ich versuche das ganze möglichst objektiv zu sehen. Beim G7x vs. R5x0 wars z.B. noch andersrum ;)

P.S.: Sry, aber lol ;D
http://de.wikipedia.org/wiki/Plenk
 
Zuletzt bearbeitet:
danke;) ich ein fanboy ?*plenk* bei mir im haus laufen 4nVidias und 2 ATI's, also von fanboy würde ich da nicht reden (jeweils 2 Quadros in meinen 2 workstations und die 2 ATI's aus der signatur welche ich wenns sein muss gegen einander austausche). ich hab noch ne 8800GT rumliegen, also wären das 5 zu 2;):D ! *plenk*

Greetz ! *plenk*
 
Geht das bitte auch ohne gegenseitige Fanboy-Unterstellungen? Das geht einem nämlich beträchtlich auf die Nüsse, danke. :rolleyes:

Bleibt bitte beim Thema.

@desoxyribo: Das Relevante habe ich in Post #24 bereits verlinkt. ;)
 
Desoxyribo schrieb:
das ist ein sehr schöner fake um nVidia in helles licht zu stellen:
Fake? Warum, die Jungs haben beides mal ein Savegame geladen.
Mir gings nicht darum, das die AMD Karte mit falschen Helligkeitswerten rechnet oder das das Bild nicht exakt gleich aus dem Screenshot ausgeschnitten wurde.

Übrigens, es gibt öfter Titel, in denen MSAA beschissen funktioniert.

PS. Nein, ich nutze Vista ungerne.
 
ganz meine meinung, sorry dass ich mich drauf eingelassen hab;)

jo ist ja ganz gut der link aber soweit ich mich erinnere hattet ihr ein paar sehr gute vergleichsbilder, nicht von der demo sondern vom active gameplay, dort han man schon einen unterschied gesehendass es irgendwie "intensiver" war bei den ATI's. aber ist auch egal.

ich geh pennen, gute nacht

Greetz !*plenk*

€dit: @Unyu: mir ist klar dass es dir nicht um die helligkeit ging sondern darum das im screenshot das bild von der nVidia besser dargestellt wurde. die bilder müssen exakt bereinstimmen sowie bei PCHG sodass du sie im photoshop überlappen kannst und keinen unterschied merkst. nur so kannst du zumindest zu 90% garantieren dass die grakas exakt die gleichen bilder rendern mussten. das oben mit "um nVidia in helles licht zu stellen" war nicht wörtlich gemeint, ich hätte auch schreiben können "damits für nVidia besser aussieht, mein fehler;) nur so aus neugierde: was hat das ganze mit Vista zu tun ob du es gerne nutzt oder nicht ? ich nutze es mittlerweile gleich gerne wie XP, wenn nicht lieber, nur so nebenbei;)
 
Zuletzt bearbeitet:
Desoxyribo schrieb:
danke;) ich ein fanboy ?*plenk* bei mir im haus laufen 4nVidias und 2 ATI's, also von fanboy würde ich da nicht reden (jeweils 2 Quadros in meinen 2 workstations und die 2 ATI's aus der signatur welche ich wenns sein muss gegen einander austausche). ich hab noch ne 8800GT rumliegen, also wären das 5 zu 2;):D ! *plenk*

Greetz ! *plenk*

Das ist schön für dich, wenn du so viele Graka's hast, ändert aber nichts daran, daß die Behauptung, der G80/G92 habe eine schlechtere BQ gegenüber dem R600/670 Unfug ist.

Ja, es gab diesen ominösen Crysis-Treiber, der wohl cheatete oder einfach schlecht optimiert war. Ändert aber nix an der Tatsache, daß die Texturfilterung und AA-Qualität bei nv in der aktuellen Generation besser ist. Hier ein recht interessanter Artikel, dummerweise fehlt dort der Vergleich zum R600/670, vllt. find ich da auch noch was.
 
Zuletzt bearbeitet: (quote eingefügt)
Zitat von Fritzler Beitrag anzeigen
zudem vergleichst du hier high end vs midrange
Falsch, ich vergleiche 2 ähnlich schnelle Karten.

9600GT=nvidias midrange
3870=Atis high end ;)

die 9600GT zieht 95W und die ATi 110W, das sind jetz nich sehr große unterschiede (15W)
wobei die 3870 im idle deutlich weniger verbraucht und die 9600GT eben nicht
 
Centurio81 schrieb:
Doch.
Tatsache ist doch dass wir gar nix wissen.
Im Grunde ist das hier alles Spekulation.
Meiner Meinung nach wird die GTX 280 deutlich schneller sein.
Und ne X2 Lösung von Seiten AMDs akzeptier ich nicht.
Hier muss man Einzelchip gegen Einzelchip vergleichen. Und da denke ich wird der GTX zeigen was geht..

Naja, im Gegensatz zu den meisten bin ich der festen Ansicht (so wie Nvidia und ATI auch,und die haben wohl mehr Ahnung), dass MutliGPU die Welt gehört. Klar, meckern hier die meisten,und sie leidet an "kinderkrankheiten", aber diese werden früher oder später ausgemerzt.

Bei DX10 meckern ja auch alle, bis heute noch...aber ohne DX10 karten kommt man net aus, und das ist,was ich an den neuen Nvidias, wenn sie denn ohne DX10.1 unterstützung kommen, so abstoßend finde. Dass sie den Fortschritt behindern (ja, unyu, DX10.1 ist ein Fortschritt,weil erst damit DX10 vorteile bringt,die DX9 nicht hat), da sich fast alle nach Nvidias richten. AMD hat leider nicht das geld, um jeder namenhaften Firma ein paar Probanten zu schicken und an der Entwicklung teilhabe zu erzwingen. AoC ist mal wieder ein netter Beweis wie das in die Hose gehn kann^^.

@Unyu
MSAA, naja,i weiß net was du dagegen hast. Du sagtest MSAA glättet eh nicht alle kanten, sitmmt zum teil, bei Nvidia ist es so, sieht man vor allem in AC sehr schön,da werden nämlich fast keine kanten geglättet. Und nein, ein Bug mit DX10.1 ist das größte Märchen dass ich in letzter Zeit gehört habe.

Du beschwerst dich immer über die filtertricks von ATI, ja,die AF leistung von ATI ist momentan a weng schlechter als die nahezu perfekte von Nvida, aber bei Kantenglättung siehts ganz anders aus. Zudem Nvidia ja mal gern bei nem Spiel via treiber paar features und Details wegblendet, damit ihre Karten in den Benchmarks vorne liegen, auf kosten der Bildqualität. Siehe Crysis (ihr vorzeigetitel nummer 1,dass ich net lache...), und das ist nicht das einzige.

@Juggernaut

wie oben schon erwähnt,die Bildqualität ist auf das AF bezogen besser, im ganzen (von af abgesehn) ist da aber kein unterschied,wenn dann sogar ein Nachteil..


@Fritzler
die 3870 ist nicht AMD´s high end karte,das war sie nie. Sie ist als gehobenes Mittelfeld gekommen, die X2 war und ist mom ATI´s High End, nur viele akzeptieren nun mal kein Multi GPU.

gruß
 
Zuletzt bearbeitet:
Schinzie schrieb:
@Fritzler
die 3870 ist nicht AMD´s high end karte,das war sie nie. Sie ist als gehobenes Mittelfeld gekommen, die X2 war und ist mom ATI´s High End, nur viele akzeptieren nun mal kein Multi GPU.

gruß


öhm da muss ich fritzler mal recht geben von seiten Amd/Ati wird die 3870 als highend verkauft, das sie als midrange aufgefasst und in dem segment verkauft wird iss ne ganz andere sache
 

Ähnliche Themen

Zurück
Oben