G
Ganzir
Gast
Das kommt von Charlie zu 110%
Um mich nun endgültig als Dummbatz zu erkennen zu geben:
Wer ist Charlie?
Greetz
Ganzir
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Das kommt von Charlie zu 110%
Lübke schrieb:@
da wo ati auch geld verdient. nur dass die g210/gt220 in der herstellung billiger ist
genau davon spreche ich ja.
das hört sich so an wie wenn man bei ner grafikkarte 2 transistoren oder einen kleinen zusatzchip dazu löten müsste und schwupps hat man dx11, dx11 braucht eben ein komplett neues chipdesign, nvidia hat ja bei den dx10 karten noch nicht mal teslation oder wie das heißt, das stellst du dir also zu einfach vor. Und will dich, und die presse hören, wenn in ein paar monaten dann solch eine karte als top-modell rauskommen würde und nicht mal die ati-karten überflügeln würde.wenn man dem g215 dx11 spendieren würde, wäre sie technisch auf aller neuestem stand. dazu mehr shader reinpacken, und das gegenstück zur 5770 wäre fertig und wohl jedem preiskampf gewachsen.
danko71 schrieb:@Complication
Nvidia hat nicht aufs falsche Pferd gesetzt. GPGPU ist einfach ein ganz eigenes und auch sehr wachstumsträchtiges Martksegment das Nvidia mit aller Macht für sich sichern möchte.
Lübke schrieb:und darum denke ich, werden chips nach dem chema chips wie den fermi auf dauer verdrängen.
mehr wollte ich damit gar nicht aussagen.
aus welchem nasenloch hast du denn bitten den blödsinn gezogen?
Nur im Verhältnis zu den sonstigen Nvidia Produkten - doch es reicht ja nicht zu sich selber Konkurrenzfähig zu seing94 -> g215 = die zukunft weil billig
Da stimme ich dir voll und ganz zu. Doch Nvidia muss halt erstmal die Strukturen schaffen die Ati/AMD ja schon hat - da zeigt sich jetzt der Vorteil der Übernahme durch AMD. Nvidia muss die Bereiche erst trennen und etablieren. Ich vermute sie wollten es unter einen Hut bringen und sind daran gescheitert den Spagat zu schaffen.Lübke schrieb:aber die trennung von profi-hardware (fermi-quadro, tesla) und spielegrafikkarten halte ich im falle nvidias für einen dringend erforderlichen schritt, wenn sie die agressive preisstrategie von amd überleben wollen. der fermi geht imho völlig am spielermarkt vorbei.
Complication schrieb:Nur im Verhältnis zu den sonstigen Nvidia Produkten - doch es reicht ja nicht zu sich selber Konkurrenzfähig zu sein
Eine GraKa ohne DX11 kann gar nicht zukunftsfähig sein, weil die Vorteile eben nicht nur im highend Gaming liegen. Direct2D z.B. beschleunigt mit DX11 nativ über die Hardware und benötigt mindestens DX10.1 um über die WDDM 1.1 Treiber mit Umweg GDI zu beschleunigen, wenn auch nicht so effektive wie mit DX11 wo GDI gar nicht mehr benötigt wird -> Das ist auch einzig und alleine der Grund für die hektischen Releases der kleinen Karten von Nvidia. Bisher haben sie ja immer abgestritten dass es was bringt. Selbst Browser nutzen diese Features schon mit "Aha-Effekt" wo es gar nicht auf Fps ankommt.
Bin ja mal gespannt, als was der "Geforce-Fermi" rauskommt! GTX480?
Naja mit ner 3xx machts so langsam keinen Sinn mehr - da blickt doch wirklich keiner mehr durch bei denenKAOZNAKE schrieb:Bin ja mal gespannt, als was der "Geforce-Fermi" rauskommt! GTX480?
Was möglich und nicht ist zeigt dieses Diagramm - und es geht nicht nur um möglich, sondern in erster Linie darum was nativ auf der Hardware läuft oder was über die Treiber erst ermöglicht wird und somit zusätzliche Ressourcen benötigt und langsamer läuft:AwesomeSauce schrieb:Diejenigen Dinge, die du aufgezählt hast, sind möglicherweise schon auf wesentlich älteren GPUs möglich. Dass sie es jetzt in die DX11-Spezis geschafft haben, heisst genau nichts! Die Direct3D-API ist eine Vorgabe, nichts weiter, darüber hinaus ist alles möglich... Das sollte nur mal gesagt sein!
https://www.computerbase.de/forum/t...gpu-beschleunigung.666573/page-5#post-6997959Aus dem Artikel geht hervor, dass es im Prinzip 3 verschiedene Umsetzungen des Direct2D gibt je nach verbauter Hardware/DX Version.
- Für DX9 Karten und XP (maximal DX 9) die ganz linke
- Für Vista und DX10 Karten unter Win7 mit WDDM 1.1 Treibern die mittlere mit dem "Umweg" Direct3D10
- Für DX10.1 und höher unter Win7 der direkte Weg über das DXGI
Das ist ja der Irrtum - Tessellation ist kein DX11 Feature sondern wurde von DX11 aufgenommen. Auch die XT2000 Serie hatte Tessellation Units: http://www.trustedreviews.com/graphics/review/2007/05/16/AMD-Radeon-HD-2900-XT/p6Lübke schrieb:er meinte das eher in dem sinne, dass die karten mehr zu bieten haben, als die dx-angabe verrät. bei meiner 3850 z b tesselation: dx11-feature aber die karte ist als dx10.1 deklariert, weil sie die vorraussetzungen für dx11 nicht voll erfüllt.
Tessellation is a technology that has been around for a few GPU (graphics processing unit) generations. AMD has had Tessellation support since 2001, which was then called Truform; we also implemented Tessellation in the XBOX 360 GPU, then codenamed “Xenos”. Tessellation is a feature which increases the number of polygons in an image. Basically, Tessellation enables a more lifelike image, both of objects and landscape. Back in the day characters who were CG (computer generated) looked very blocky, almost cartoon like; with the use of Tessellation, developers are now able to significantly increase the number of triangles to draw an image, thus creating a more lifelike quality in games.