DX11 Gerüchteküche Teil III (AMD HD7000 und Nvidia GTX600)

Weshalb Physik auf OpenCL (oder DirectCompute, wie es der 3D Mark 11 macht) besser ist? Ganz einfach: es würde schon jetzt auf allen (DX11) Grafikkarten laufen und zwar ohne dass sich nVidia oder AMD dagegen wehren könnten ;-)

AMD wird nie PhysX unterstützen außer auf Basis eines Lizentausches, wenn sie nVidia dagegen eine ihrer Techniken unterchieben könnten (so wie es mit Intel bei den CPUs läuft). Ansonsten machen sie sich vom Konkurrenten abhängig... schlechter Plan.
 
wertewandel schrieb:
was brauchst du da für beweise? reichen dir die umsatzzahlen von ageia und nvidia? anders als mit logik und menschenverstand kann man das nicht belegen ohne in ein paralelluniversum zu reisen, also sei mal nicht pingeliger als der papst ;) ich hab es nicht als fakt deklariert.

Geld ist nicht alles wie man gut bei Physx sieht, welches AUS GUTEM GRUND unter Nvidias Flagge immer ein Nischendasein pflegen wird!

Jesterfox schrieb:
Weshalb Physik auf OpenCL (oder DirectCompute, wie es der 3D Mark 11 macht) besser ist? Ganz einfach: es würde schon jetzt auf allen (DX11) Grafikkarten laufen und zwar ohne dass sich nVidia oder AMD dagegen wehren könnten ;-)
/signed

Jesterfox schrieb:
AMD wird nie PhysX unterstützen außer auf Basis eines Lizentausches, wenn sie nVidia dagegen eine ihrer Techniken unterchieben könnten (so wie es mit Intel bei den CPUs läuft). Ansonsten machen sie sich vom Konkurrenten abhängig... schlechter Plan.
/sowas von signed, das hat AMD auch trotz Intels Marktmissbrauch das ein oder andere mal den Arsch gerettet...

wertewandel schrieb:
es stehen immer noch beweise aus, warum physik auf opencl besser sein soll als physix, zumal es keinen echten förderer als den guten willen ohne finanzielle mittel gibt.
Also früher wollte man möglichst gute Spiele produzieren und hat deswegen z.B. die Engine entweder Eingekauft oder selbst produziert.
Heute nimmt man Geld, damit man Physx einbaut, scheint ja sehr toll zu sein :evillol:
 
was denn hier los? aufstand im zwergenland? amd tritt intel irgendwo in den arsch?
ihr habt aber schon verstanden, dass amd genauso nur ein wirtschaftsunternehmen ist und nur so lange den guten spielt, wie dass den größten gewinn verspricht. siehe apple die 198X die befreier spielten und heute großer diktator sind... entschuldigt, wenn ich jetzt aus ner zeit zitiert habe, wo mancher noch quark im schaufenster war, so wie hier verhaltensstrukturen mit namen verknüpft sind.
ihr verliert auch ein bisschen das thema aus dem sinn, wenn ihr amd bei cpus und gpus zum heiligen proklamieren müsst...

und dass der betreiber keine steuerung mehr über sein kind hat kann investoren und gönner nur abschrecken. kein wunder, dass amd den kindern erzählt sie wollen es so günstig wie möglich um dann die projekte dazu durch völlige unterfinanzierung am langen arm verhungern zu lassen...

also wollt ihr sagen, dass es in künftigen grafikkarten mit nem patt weitergeht? amd verweigert sich der naheligensten lösung ohne gleiche bedingungen für ne alternative zu schaffen und bremst damit mit gleicher kraft die etablierung eines umfassenden systems für spiele, was im sinne aller spieler sein würde, wie nvidia in physix investiert.

zum letzten: der treibersupport war gestern nicht halb so aufwendig wie heute, wo jeder kunde ein lauffähiges programm auf allen 900 verkäuflichen grakas haben will.
heutzutage lässt man sich code und ganze programmabschnitte dazuarbeiten. das ist noch nichtmal "der zweck heiligt die mittel", sondern nur die konsequente anpassung an heutige möglichkeiten.

ist eigentlich schon was zu dx12 bekannt? so wie heute durch die standards gehetzt wird (es gab mal dx9.0c und co) kommt es doch nur zu einer entwertung des begriffs und damit manövriert man es trotz quasi-omnipräsenz richtung lokus.
 
wertewandel schrieb:
also wollt ihr sagen, dass es in künftigen grafikkarten mit nem patt weitergeht? amd verweigert sich der naheligensten lösung ohne gleiche bedingungen für ne alternative zu schaffen und bremst damit mit gleicher kraft die etablierung eines umfassenden systems für spiele, was im sinne aller spieler sein würde, wie nvidia in physix investiert.

Es gibt genug Alternativen, die können sich aber nicht durchsetzen, weil Nvidia den Physik Markt verzerrt mir ihren "Investitionen".
 
wenigstens investieren sie geld in diesen sektor! sowas schafft arbeitsplätze und macht die sache interessanter für informatiker, die sich auf dieses gebiet gerne spezialisieren würden.
ich will nicht wissen wieviele studenten cuda und co nutzen. das sind teilweise stellen die die unis nicht das volle budget kosten oder gar zusätzlich geschaffen wurden.

auf die idee mit der gigantischen dreiecksleistung ist man ja auch nicht von allein oder über nacht gekommen. das werden wir in zukunft bei maxwell und co noch häufiger sehen, dass mit und in kooperation von nvidia entwickelte spiele ausgesprochen schlecht auf den aktuellen amd-karten laufen werden. hawx2 hat ja schon gezeigt was kleine dreiecke mit einem minimum an pixeln kantenlänge so ausmachen können und wenn man sweeny und co von epic glaubt könnte es noch besser für nvidias architektur werden...
ich bin wahrlich gespannt wann amd mal was komplett neues zeigt und nicht nur ships refurbished. :p
 
wertewandel schrieb:
ich bin wahrlich gespannt wann amd mal was komplett neues zeigt und nicht nur ships refurbished. :p

Eyefinity ;)

AMD sieht seine Sache etwas anders als Nvidia.
Sie kaufen keine anderen Firmen auf und versuchen nicht das aufgekaufte in ihre Technik zu integrieren und versuchen damit ein Quasi-Monopol zu kreieren.
Sie sind OpenSource.
Die Aufgabe eine Grafikkartenschmiede sind keine Physikengines, sondern nur die die offene Basis dazu. Also momentan OpenCl.

Ansonsten überschreitet man nämlich seine Kompetenzen und hält den Markt eher auf, als ihn zu beschleunigen. (Siehe Physx ;) )

Das einzige, was man machen kann ist, Geld/Manpower in OpenSource Lösungen reinzupumpen.
Allerdings hat man dann zumindestens direkt keinen, der das Geld wieder reinbringt, weil man nicht sagen kann: "Nur mit uns Physx!"

Wie du schließlich schonmal gesagt hast, verfolgt auch AMD eigene Interessen und die sind wahrscheinlich nicht: "Ich unterstütze eine gute Lösung, damit die sich auf OpenCL-Basis durchsetzt und Nvidia, wenn sie sich die Hörner abgestoßen haben, sich ins gemachte Nest setzen kann"
 
derGrimm schrieb:
Du tust ja gerade so, als wäre Physx die einzige Physikengine, die zur Verfügung steht... :rolleyes:

dafür tust du so, als wenn physx nur auf einer nvidia-gpu laufen würde. auch nicht gerade das gelbe vom ei.
 
AMD sieht seine Sache etwas anders als Nvidia.
Sie kaufen keine anderen Firmen auf und versuchen nicht das aufgekaufte in ihre Technik zu integrieren und versuchen damit ein Quasi-Monopol zu kreieren.
ati/amd hat ebenso hersteller in seiner vergangenheit aufgekauft wie nvidia. zwar waren da nich so marketingwirksame technologien dabei wie physx, aber sie werden die firmen wohl kaum gekauft haben, nur um sie zu schließen und die technologie in vergessenheit geraten zu lassen.

und jetzt ist schluss mit dem amd vs nvidia gebashe. und damit sind alle gemeint! hier gehts um gerüchte zu kommenden grafikkarten!
 
Zuletzt bearbeitet:
derGrimm schrieb:
AMD sieht seine Sache etwas anders als Nvidia.
Sie sind OpenSource.
da hat lübke recht, schweig in stille du schufft!
amd ist so open source wie bill gates kommunist :lol::
eyefinetie, hd3d um mal 2 aktuelle programme zu nennen ... fast allen kram denn sie sich mal selbst aus den fingern saugen sind genauso ultra proporitär. ansonsten steigen sie gerne in offene counter-konzepte ein wo man nicht viel investieren muss und sich noch nen schönen schein geben kann. und behaupte jetzt nicht das gegenteil, opencl ist nicht das einzige, auch für stereoskopie und multi-monitoring gibt es genügend konkurrenzfähige projekte aus dem open-source-umfeld, dennen es einfach nur an manpower bzw. geld fehlt...

lübke, mach mal keine hektik. du hast ja selbst gesagt, dass momentan arg wenig zu den neuen karten gemunkelt wird, obwohl die heiße phase nach der konzeption anbrechen wird. gerade da darf man doch ruhig mal die kontur der unternehmen nachzeichnen und überdenken welche elemente sie abseits der pcbs verwenden. software bzw. treiber ist einfach eine dicke geschichte heutzutage wie damals, wo schon manches unternehmen drann zerbrochen ist.
ist doch ein schöner disskurs zur gerüchteküche, denn nur von gestern und heute kann man prognosen ableiten. ansonsten kannst du dieses thema von der "gerüchteküche" in "glaskugelwettgucken" umbenennen, da wird bestimmt niemand mehr fundierte gedanken einbringen...
 
Ich hoffe das die kommenden Modelle von AMD/ATI und Nvidia weniger Leistung verbraten...ist auch ein Argument für mich beim Kartenkauf...wurde ja bei der 5870 recht ordentlich gemacht.
 
acc schrieb:
dafür tust du so, als wenn physx nur auf einer nvidia-gpu laufen würde. auch nicht gerade das gelbe vom ei.
Grafikkartenthread?! ;)

wertewandel schrieb:

Hält aber keine Entwicklung auf, weil das vom Hersteller eigentlich "nur" das Bereitstellen
der Auflösung erfordert.
wertewandel schrieb:
Kann ich nicht zu sagen, der 3D Zug interessiert mich (noch) herzlich wenig...
 
rentex schrieb:
Ich hoffe das die kommenden Modelle von AMD/ATI und Nvidia weniger Leistung verbraten...ist auch ein Argument für mich beim Kartenkauf...wurde ja bei der 5870 recht ordentlich gemacht.

Die könnten diesmal etwas weniger verbrauchen, damit man den Verbrauch mit der 2ten 28nm Generation wieder voll ausschöpfen kann und nicht gleich am Limit ist, aber so groß wird der Unterschied nicht sein.

Niemand zwingt dich bei den großen Karten zuzuschlagen, du kannst auch einfach zur Mittelklasse greifen und dann haste deutlich weniger Verbrauch.
 
Weiß man schon wann die nächste Generation Nvidia 600er an den Start gehen wird / soll?
 
Frühestens ganz am Ende des Jahres. Wenn man den Gerüchten glauben darf aber wohl nicht vor Q1 vllt. sogar Q2 2012
 
@wertewandel: ich habe nichts gegen etwas ot, aber wenns in ner fanboy-schlacht ausartet ist schluss mit lustig. hier werden keine pseudo-ethischen wertvorstellungen diskutiert, die wild in das geschäftsgebaren der hersteller reininterpretiert werden. weder ist der eine hersteller ein heiliger, der aus reiner nächstenliebe handelt, noch ist der andere hersteller das böse, der uns armen kunden nur schaden will.
keiner hat die absicht, die entwicklung vorsätzlich aufzuhalten, alle tun nur was für ihre rein finanziellen interessen und es gibt grundsätzlich keinen unterschied im handlen von amd und nvidia.

ihr könnt gerne über die features selbst diskutieren, aber ich will hier kein gebashe gegen eine marke. wer welchen hersteller bevorzugt, merkt man auch so aus euren beiträgen. also bleibt friedlich und vorzugsweise auch sachlich.

danke.

@rentex: da sich die verbrauchswerte zuletzt stark im grenzbereich bewegt haben (bei den topmodellen) und ganz besonders nvidia (gtx480) auch harsche kritik (imho zu recht) einstecken mussten, gehe ich stark davon aus, dass beide auch hierauf ihr augenmerk richten werden. der shrink bringt ja neues sparpotential mit sich. vor allem hoffe ich auf einen würdigen nachfolger der 5770, die in meinen augen der inbegriff der effiziens ist.

eine 5770 in 28nm als 7670 wäre imho ne tolle sache :)

allerdings muss ich auch sagen, dass das problem dank der sparmodi nicht mehr so groß ist wie noch zu zeiten der 8800gtx und 2900xt, die auch beim surfen, in office und dvd-schaun vollen verbrauch hatten.
 
@fxdev
Kommt ganz drauf an was du als nächste Generation siehst, High-End wirds dieses Jahr wahrscheinlich kein neues mehr von NV geben und von AMD erwarte ich auch keins. Es wird wohl Shrinks von aktuellen Chips oder andere kleine Chips geben, aber das wird wohl eher nen geshrinkter GF116, im besten Fall vll GF114, was ich aber bezweifle.
 
Okay, ein Shrink ist ja keine Neuentwicklung, die ich ja eigentlich auch nicht meinte. Es wird also auf einen Shrink hinauslaufen, z.B. GTX 680 die schneller und sparsamer ist als die 500er und 400er Serie?
 
ein shrink des gf114 wäre schon ne kleine sensation. eine gtx560 ti in 28nm, die taktraten würde ich gern sehn ;)
oder wie schon gesagt den verbrauch einer 5770 in 28nm

@fxdev: da keine größeren veränderungen wie ein neues dx oder dergleichen anstehen, wäre der schritt nur logisch, ja. eine grafikkarte, die schneller und gleichzeitig sparsamer als die gtx580 ist und dabei alle features bietet, wäre schon ein ordentlicher fortschritt.
 
Zuletzt bearbeitet:
@fxdev
Die GTX680 wird eher kein Shrink, das dürfte Kepler werden und schneller wirdse sicher, ob sparsamer ist dann ne andere sache. Die Karten dadrunter könnten alle Shrinks sein, so dass es am Ende aussieht wie bei der 200er Serie wo nur der Topchip die neue Architektur war.

@Lübke
joa, nett wäre das Ding, 1ghz Standardtakt und 1,2ghz mit übertakten, frage ist allerdings wie es mit den Rop-Leistung aussieht, da man das Speicherinterface auf 192bit verkleinern müsste. Aber das wird eh alle geshrinkten Chips treffen, daher ist die 5770 in 28nm auch schwer möglich. Man muss das Ding entweder etwas größer machen als es normal werden würde oder aufn 96bit Speicherinterface runtergehn. Da könnte Amd mit der gesamten Serie auf 4d Shader wechseln, da man eh den Platz zur Verfügung hat.
"Krumme" Speicherinterfaces dürften diesmal bei AMD aber sowieso kommen, man ist so einfach zu unflexibel und viel schnelleren Speicher als man gerade benutzt gibt es nicht.
 
Zurück
Oben