News AMDs HD-6000-Serie ursprünglich in 32 nm gedacht

KainerM schrieb:
Und an die Kritiker: Nennt mir drei konkrete Unterschiede in der Chiparchitektur zwischen HD6000 und HD5000.

  • UVD 3.0
  • Display Controller: bis zu 6 Monitore über DP 1.2 (je 3 Monitore)+HDMI 1.4a
  • bis zu 4096x2160 Auflösung @50 Hz
  • Tessellation Einheit der neuesten Generation
  • Keine FP64 Instruktionen mehr in den Shadern (wirkt sich stark bei Computing Performance aus)
  • 25% kleinerer Die als Cypress und nur ca. 7% langsamer.
  • Speichercontroller von Redwood verbaut -> 50% kleiner dafür 4,2 GHz anstatt 4,8 GHz Speichertakt => führt zu 4x64 bit = 256 bit Speicherinterface.
Über einen Displayport-Hub lassen sich auch 3 normale Monitore anschließen mit beliebigen Anschlüßen (DP, HDMI, DVI oder VGA) ohne dass der Stromverbrauch für Multimonitor Betrieb steigt, da kein zusätzlicher Taktgeber arbeiten muss:

msthub-jpg.205982


Oder die Monitore werden einfach in Reihe geschaltet:
daisy-jpg.205983
 

Anhänge

  • MSTHub.jpg
    MSTHub.jpg
    26,5 KB · Aufrufe: 1.462
  • Daisy.jpg
    Daisy.jpg
    24,8 KB · Aufrufe: 1.476
@ KainerM
Warte erstmal auf den Rest der 6000 Serie bevor du urteilst....wie wäre das?
 
KainerM schrieb:
AMD hätte auch beim geplanten Shrink nur über die kleineren Prozess das gleiche gemacht wie nV bei dem G92 / G92b. Kleinere Struktur, (fast) gleicher Chip. Und witziger Weise wurde das nVidia damals übel genommen, bei AMD hat nun niemand ein Problem.

Der Barts ist kein Juniper, der Chip wurde - selbstverständlich auf Basis der bekannten Architektur - neu Entwickelt.

Der G92(b) war aber hingegen nicht der "fast" gleicher Chip, es war der gleiche Chip.
Unterschiedlich verteilt, ohne Änderungen bis auf höherer Taktung und dem Aufbau drumherum, in 5 verschiedenen Generationen.
Die GPU einer 8800 GT ist (strukturverkleinert) unverändert die gleiche, wie die der GT 330.

KainerM schrieb:
Und an die Kritiker: Nennt mir drei konkrete Unterschiede in der Chiparchitektur zwischen HD6000 und HD5000.

- UVD3
- verbesserte Fixed Function Unit
- veränderter AF-Filter
- DP 1.2
- HDMI 1.4 (Stereo 3D Fähig)

weitere Dinge kannst du ja gern hier oder auf wikipedia raus lesen.
 
Zuletzt bearbeitet:
TNM schrieb:
Bisschen "alter Hut" ist das schon, aber gut, wollen wir mal nicht meckern.
zu spät^^


KainerM schrieb:
IUnd witziger Weise wurde das nVidia damals übel genommen, bei AMD hat nun niemand ein Problem.

Was die Unterschiede zwischen HD5k und HD6k sind wurde dir ja schon erklärt.
Nun nenne mir die Unterschiede, die damals dagegen gesprochen habe, dass einfach nur Umgelabelt wurde.
 
die 6k Serie wurde zu schnell "gefertigt". Meiner Meinung ist diese jetzt unfertig in die Läden gekommen ... abwarten bis die richtigen 6k kommen ;-)
 
aklaa schrieb:
die 6k Serie wurde zu schnell "gefertigt". Meiner Meinung ist diese jetzt unfertig in die Läden gekommen ... abwarten bis die richtigen 6k kommen ;-)

Was wurde denn "zu schnell" gefertigt?
 
Complication schrieb:
  • UVD 3.0
  • Display Controller: bis zu 6 Monitore über DP 1.2 (je 3 Monitore)+HDMI 1.4a
  • bis zu 4096x2160 Auflösung @50 Hz
  • Tessellation Einheit der neuesten Generation
  • Keine FP64 Instruktionen mehr in den Shadern (wirkt sich stark bei Computing Performance aus)
  • 25% kleinerer Die als Cypress und nur ca. 7% langsamer.
  • Speichercontroller von Redwood verbaut -> 50% kleiner dafür 4,2 GHz anstatt 4,8 GHz Speichertakt => führt zu 4x64 bit = 256 bit Speicherinterface.
Über einen Displayport-Hub lassen sich auch 3 normale Monitore anschließen mit beliebigen Anschlüßen (DP, HDMI, DVI oder VGA) ohne dass der Stromverbrauch für Multimonitor Betrieb steigt, da kein zusätzlicher Taktgeber arbeiten muss:

msthub-jpg.205982


Oder die Monitore werden einfach in Reihe geschaltet:
daisy-jpg.205983

Das ihr alle so auf Eyefinity und ähnlichen Quark steht?! Solange man extra Hardware braucht um ein Feature zunutzen, emfinde ich es persönlich als sinnlos. Selbiges bei Nvidia mit 3D-Vison (nur um es bemerkt zu haben).

Für die neue DP-Technologie braucht man:
-Monitore mit extra Anschluss +integrierten DP-Hub = vereinzelt / teuer
-oder entsprechende Verteiler (passiv / aktiv) = teuer

Was mir in diesem Zusammenhang einfällt, ist dass bei AMD-Fans immer auf jedes Watt extra, dem Stromverbrauch so genörgelt wird. Auffällig ist dabei aber, dass genau diese Leute, die über Stromverbräuche so meckern dann mindestens 3 Displays (!) im Eyefinity nutzen.

Das ist alles andere als stromsparend und auch nicht besonders günstig. Warum kommt mir das dann so scheinheilig vor? Vielleicht weil es das ist? :evillol:

Neue Features?
Dass die Chips kleiner sind als ihre Vorgänger ist löblich, dennoch muss hinzugefügt werden, dass AMD einiges gestrichen hat. Die Geschichte mit der Bildqualität ist anscheinend nur der Anfang. Wir werden sehen

-Double-precision wurde wegoptimiert (!):
Gamer interessiert das wenig, stört aber das "Allroundtalent der Preiskracher". Bei der 5770 nicht wichtig, aber bei 6850 oder 6870 erwartet man mehr.

-Bildqualität wurde zugunsten von Frames verringert:
Das ist mogeln wie in besten Nvidiazeiten (Mann war ich damals sauer, genau wie jetzt). Dies in irgendwelchen Untermenüs anzupassen ist für viele User nicht gerade Kundenfreundlich.

Als Frage bei der Installation wäre sinnvoll:
"Wollen sie mehr Bildwiederholfrequenz (FPS), was meist zu flüssigeren Bildabläufen führt oder eine bessere Bildqualität (evtl. weniger FPS)?"

Der nicht technikversierte Kunde könnte hier zumindest entscheiden und sich nicht durch für ihn verwirrende Menüs klicken. Wieviele rufen ihr CCC auf oder wissen überhaupt, was das ist :king:

-Hubs + Spezialhardware für Multidisplaybetrieb:
Das sogenannte zweischneidige Schwert! Wie oben bereits angedeutet bin ich kein Fan von solchen Bastellöstungen. Preis und Aufwand stehen in keinem Verhältnis. Es ist schon fast günstiger sich einen Großbildfernseher (ab 47 Zoll) zu kaufen, bei dem man keinen störenden Rahmen und ewig gezogenes Bild hat -> wie immer ist das aber Geschmackssache.
Um es anders zu formlieren: Kein Feature, dass für alle wichitg ist.

Namenswirrwar:
Egal von welcher Seit man die Namensgebung der 6800er sieht, es ist verwirrend und irreführend zugleich. Dass die 32nm nicht kamen, ist Schicksal. Entweder hat man eine 5770 oder eine 5850, aber nicht beides zusammen. Es handelt sich um andere Klassen. Von der HD6870 will ich nicht reden, da diese etwa auf Niveau der 5850 ist.

Was man hierbei jedoch durchgehen lassen könnte, wäre es, wenn AMD einfach sagt:

"Unsere neuen Karten passen in keine der beiden Kategorie, also führen wir ein Pseudorating wie bei den CPUs ein. Zum Beipsiel eine Karte in der Preisregion der 5770, die aber fast so schnell ist wie eine 5850."

Dann führt man ein Ratingsystem ein wie (R für Rating, +für Mehrleistung
-AMD Radeon 6850R = so schnell wie eine 5850
-AMD Radeon 6850+ = schneller als 5850, aber langsamer als 5870

ODER

-AMD Radeon 6870R = so schnell wie eine 5870
-AMD Radeon 6870+ = schneller als 5870

Leider ist das nicht erfolgt und AMD hat absichtlich das Namenchaos hinterlassen. Erklärt doch einmal einem absolut ahnungslosen User das neue Namensschema. Ich bin mir sicher ihr werdet erstens für verrückt erklärt, oder es heißt: "sind die doof (AMD)?"

Übertaktbarkeit:
Laut Tests wird den 6800er wenig übertaktbarkeit und zudem gibt es noch kein einheitliches Bios (6850er mit 6870er Bios???) -> Ein Zeichen, dass die Karten verfrüht auf den Markt kamen. An der Taktschraube kann man wohl nach momentanem Wissenstand nicht mehr viel drehen. Das könnte daran liegen, dass die Karten schon auf Anschlag laufen um eben ähnliche Leistung wie die alten 5800er zu liefern.
Das schaffen übertaktete GTX460er auch, aber eben diese wollte man bei AMD schlagen.

Stromverbrauch:
Der allheilige Stromverbrauch, die heilige Kuh - wird stehts verglichen wie Werte in einem Quartett. Mein Karte hat ...W Stromverbrauch..... - Ha meine Karte hat aber ...W weniger verbrauch als deine. Diese pseudogrünen Kommentare kann man sich sparen. Es bringt doch nichts. Am sparsamsten/umweltfreundlichsten wäre es den PC auszuschalten, aber naja.

Soviel unterschied macht der Stromverbrauch wirklich nicht. Ich habe es selbst mit unterschiedlichen Karten gemessen. Sogar mit echten Strommessgeräten! Wieviele von euch benutzen sie? Fakt ist doch, dass die User sich entweder auf die Tests verlassen, die je nach Testsystem stark variieren und meist nur das Gesamtsystem angegeben wird (= Ratespiele). Entweder das, oder man verlässt sich auf ungenaue Softwarelösungen.
Das Thema weite ich aber nicht aus, da es eine eigene Rubrik füllen könnte :eek:

Zusammenfassung:
-Trotz fehlendem 32nm-Prozess musste AMD die Karte Physisch verkleinern und hat daher vieles weggelassen. Wirkliche Mehrleistung gibt es nicht, da meist langsamer/vergleichbar mit Vorgänger 5800er (Leistung). Die 5700er Reihe läuft weiter, also kann man sie nicht wirklich hier einbeziehen.

Das entstandene Namenschaos ist bewusst gewollt und soll verwirren. Der Kritikpunkt vieler hier im Forum, man hätte andere Zahlen/Benennungen nehmen, wird aber gerne von AMD-Fans abgeschmettert (schade).

Die Designentscheidungen für den 40nm-Prozess hatten scheinbar katastrophale Auswirkungen auf die 6800er. Ich habe hierfür viele Punkte aufgezählt. Leistungstechnisch hätte man sie auch weglassen können. Einziger wirklich guter Punkt der 6800er ist der Preis. 150-200€ ist genau die Mainstreamklasse, in der fast 60% (meine Schätzung) ihre Karten kauft.

Für diese Preis-/Leistungsklase ist sie gut aufgestellt, hat aber einige Macken, die die teureren Karten nicht haben (diese Kosten aber mehr). Es ist schade, dass sie nicht in 32nm kam, denn dann hätte man vielleicht wirklich die Eierlegende-Wollmilchsau geschaffen. Zurzeit sieht es so aus, dass die meisten Features für die Leistung beschnitten wurden.

Zurzeit ist die 6800er Reihe in meinen einfach nur für Aufrüster älterer Karten ohne DX11 gedacht. Ich bin gespannt, ob sie in 28nm das wird, was sie hätte werden sollen.
 
@OldboyX:

Recht gut zusammengefasst.
Dazu kommt: Man war aufgrund der GTX460 unter Druck, da hier im Vergleich zu den Top Modelln richtig Umsatz gemacht wird.

Außerdem ist Ende November für das Weihnachtsgeschäft zu spät, das ist für AMD Ende November längst gelaufen.
 
Da glaube ich eher, dass der Barts "Sothern Islands" ist und Cayman "Northern Islands". Bei
Turks ist es noch nicht klar, ob der 5D oder 4D hat und damit zu welcher Generation er gehört. SI wurde als Hybrid eingefügt, um den 40nm-Prozess besser auszunutzen und mit wenig Entwicklungskosten hohe Fertigungseinsparungen zu erreichen. Ursprünglich war NI für 32nm Bulk und SOI gedacht, jetzt gibts halt nur SOI, weil der Bulk-Prozess sowohl bei GF als auch bei TSMC gestrichen wurde. So wird es offenbar die NI-Chips sowohl als 40nm als auch als 28nm-Varianten geben, oder es wird eine neue Generation mit 28nm geben (die aber definitiv nicht SI wäre).
 
@ Hardware_Hoshi

So viele Kritikpunke du auch an der 68XX siehst, bringt sie für uns alle etwas Gutes. Die nVidia Karten haben einen gewaltigen Preisruck erlebt und die Performance/Preis wurde gewaltig verbessert, bei beiden Herstellern. 32/28nm ist momentan absolut kein Argument. Es ist/war einfach nicht möglich neue GPUs auf Basis dieser Strukturbreiten zu produzieren.
Wer die neuen AMD Karten (69XX natürlich noch ausgenommen) nicht gut findet, kann trotzdem mal leise "danke" sagen und sich eine nun deutlich billigere GTX460 1gb oder GTX470 schnappen. Oder warten, wenn möglich. Mehr Performance gibts im November und auch NV wird kontern müssen, auch wenns darum nur sehr waage Gerüchte gibt. Hoffentlich auch mit weiteren Optimierungen und nicht nur mit Brute Force.

GTX470 35€ Preisrutsch durch den Release von Barts an einem Wochenende:
http://geizhals.at/deutschland/?phist=519535
 
Zuletzt bearbeitet:
Also wenn ich mir die Unterschiede anschaue:
UVD 3.0: Keine Ahnung inwiefern das im Chip wirkliche Änderungen braucht, da kenn ich mich nicht aus.
Display Controller: Teil des Chips?
Aulösungen: Teil des Display Controllers
Tesselation: Keine Angaben ob diese Tesselationseinheit eine Hardware- oder eine Softwareänderung ist. Tesselationsleistung derzeit eigentlich nicht objektiv messbar
Keine FP64 Instruktionen mehr: Keine Ahnung was das konkret bedeutet, hat für Spieler aber meiner Meinung nach keine Relevanz
25% kleiner, nur 7% langsamer: Alleine und ausschließlich wegen der Taktraten. Taktbereinigt bleibt die Performance ident.
Kleinerer Speichercontroller: Alles bekannt, verschlechtert die Perfomance, macht den Chip billiger.

Also bleib für mich eine echte Änderung im Design aus. Echte Änderungen sind zum Beispiel seinerzeit die Architektur der Geforce 8 gewesen, sowie Fermi oder HD2000. Das war nicht nur ein bloßes neu-zusammenstellen von vorhandenen Komponenten. Bei der HD6000 werden - noch nicht existierende Modelle kann und werde ich nicht berücksichtigen - nur bekannte Teile neu zusammengestöpselt, so wie eben nVidia es beim kleinen Fermi gemacht hat. Da kann man auch nicht von einer neuen Architektur sprechen - es wurden nur Anzahlen von Einheiten geändert, das Funktionsprinzip ist das Selbe. Auch wenn es sich natürlich um einen "neuen" Chip handelt.

Und auch in Realleistung ausgedrückt hat sich bei der HD6000 nichts großartiges getan; die Chips wurden kleiner, dafür aber höher getaktet. Die Leistung pro Dollar ist gleich der der HD5770. Die Bildqualität ist stellenweise besser, stellenweise schlechter. Von der Tesselationsleistung merkt man derzeit noch nirgends was, darum muss man die - wie bei der GTX 480 - vorne außen lassen.
Der Nachteil all dieser Änderungen ist aber der, dass der Kunde das bekommt, wofür er bezahlt - und nur wenig mehr. Übertaktung wird mit der HD6000 völlig uninteressant - generell würde sowas erst ab 10-15% Mehrleistung Sinn machen. Und die sind auf HD6000 Karten nicht in sinnvollem Rahmen (sprich ohne Modifikationen) möglich. Die HD6850 wird ja sogar künstlich früh abgeriegelt, zumindest derzeit.

Betrachtet man nun Fermi, so muß man anerkennen dass diese derzeit ziemlich genau die gleiche Leistung zum gleichen Preis liefern. Der EINZGIE praktische Nachteil der GTX 460/470 ist die Leistungsaufnahme, und da reden wir von 10W bei der GTX 460 und 60W bei der GTX 470. Klar ist das bei der GTX 470 doch merkbar mehr, der Unterschied der GTX 460 zur HD6850 kann aber vernachlässigt werden. Selbst bei Dauerbetrieb unter Vollast sind das im Jahr etwa 85kWh, was wiederum ca. 15€ entspricht. Allerdings - keine Spielerkarte wird im Dauerbetrieb unter Vollast gefahren. Bei 4 Stunden täglich reduziert es sich auf weniger als 3€ im Jahr an Stromkosten.

Gut finde ich den Preisrutsch nach unten, meine GTX 460 kostet jetzt 10€ weniger. Aber letzten Endes war es der GF104, der AMD zum Handeln gezwungen hat. Auch die Preise für die HD5850 und HD5870 fallen derzeit stark. Eine HD5850 gibt schon um 180€, und auch die HD5870 haben um 30€ nachgegeben seit Anfang Oktober.

BTW; ich fand das getue bei nVidia damals auch nicht gut, dass man gleiche Karten unter gleichem Namen verkauft hat. Nur macht AMD derzeit nicht wirklich was anderes, die HD5770 wird ja in Zukunft als HD6770 verkauft werden. Und da finde ich es genau so schlecht. Was mich aufregt sind die gewaltigen Einsparungen, die dem Kunden als Vorteil für ihn verkauft werden.

mfg
 
Hardware_Hoshi schrieb:
Das entstandene Namenschaos ist bewusst gewollt und soll verwirren. Der Kritikpunkt vieler hier im Forum, man hätte andere Zahlen/Benennungen nehmen, wird aber gerne von AMD-Fans abgeschmettert (schade).
seh ich nicht ganz so wie du....
zugegeben, das namenschaos verwirrt, und ist mehr als unglücklich
ob das ganze bewusst gewollt ist, wage ich zu bezweifeln....
das ganze wird im regelfall auch nicht von "amd-fans" abgeschmettert.

tatsache ist jedoch leider, dass die aktuellen karten nicht ins leistungs und preis schema von amd passen... für eine 6770 sind die karten zu teuer, und/oder zu schnell.... für eine 6850/6870 sind die karten definitiv zu langsam...
ich persönlich hätte wahrscheinlich eine bezeichnung wie z.b. 6790 (6850) oder 6830 (6870) gewählt... anscheinend wollte amd das aber nicht.....




Hardware_Hoshi schrieb:
Die Designentscheidungen für den 40nm-Prozess hatten scheinbar katastrophale Auswirkungen auf die 6800er.

andersrum wird ein schuh draus: zusammen mit der entscheidung am 40nm prozess festzuhalten traf die entscheidung northern islands zu bringen...

die "neue architektur" ist immerhin so gut, dass der ursprünglich für den namen 6770 geplante chip schneller war/ist als erwartet, und so ein namenstechnisches upgrade bekam (zugegebener massen: übertrieben)... welche auswirkungen die entscheidung für 40nm tatsächlich hat, werden wir erst mit cayman sehen

Hardware_Hoshi schrieb:
Zurzeit ist die 6800er Reihe in meinen einfach nur für Aufrüster älterer Karten ohne DX11 gedacht.

ich wüsste jedenfalls nicht, warum man als besitzer einer relativ potenten DX11 karte der ersten generation wechseln sollte.... ist aber immer so: es ist damals mit sicherheit auch niemand von einer geforce 8800GTX (erste DX10 generation) auf eine 9800GT umgestiegen
 
Sowas änliches habe ich mir schon gedacht das Sie mit 40nm auf Nummer sicher gehen wollten nach dem anfänglichen Debakel durchaus verständlich, etwas kannsten Sie den Stromverbrauch ja senken, währe interessant gewesen was gleich mit 32nm möglich gewesen währe.

So muss man halt abwarten biss zur 7XXX Serie oder wie auch immer.

Hoffentlich giebts die 6XXX in schönen großen Mengen ohne Engpässe nicht das die Preise wieder steigen vor allem dann bei den 69XX.
 
Deshalb entschloss man sich schlussendlich dazu, die komplette HD-6000-Serie noch einmal in 40 nm zu fertigen.
Absolut richtige Entscheidung. Die 8800GTX war auch noch in 90nm, dafür aber im ausgereifte Verfahren, das vorallem massig verfügbar war. Beim R600 hat man ja auch gesehen was passiert wenn man einen unausgereiften 80nm Prozess unbedingt nutzen will. Daher ist es auch überhaupt nicht garantiert das es mit einem 32nm Shrink effizienter geworden wäre. Wäre der 32nm Prozess so schlecht geworden wie befürchtet, weil TSMC einfach nix auf die Reihe bekommt, dann wäre der Stromverbrauch mit Sicherheit sogar gestiegen. Oder auch der 65nm Prozess bei den CPUs von AMD, der war auch nicht so gut gelungen...
 
drago-museweni schrieb:
Sowas änliches habe ich mir schon gedacht das Sie mit 40nm auf Nummer sicher gehen wollten nach dem anfänglichen Debakel durchaus verständlich, etwas kannsten Sie den Stromverbrauch ja senken, währe interessant gewesen was gleich mit 32nm möglich gewesen währe.

So muss man halt abwarten biss zur 7XXX Serie oder wie auch immer.

@drago & kasmopaya

Ich weiss ich wiederhole mich, aber ihr habt den Zusammenhang nicht verstanden, daher die Fehlinterpretation. Es gibt keine 32nm Fertigung, also war das auch keine bewusste Entscheidung seitens AMD, sondern eine ERZWUNGENE.
Die Wahl war: keine 6er Serie, oder eine weitere 40nm Ausgabe. Letzteres war eine konsequent logische Entscheidung da man <200€ ein Angebotsloch hatte, welches NV mit der GTX460 sehr gut allein abschöpfen konnte.

Die 7ner Serie kommt in 28nm, welche von TSMC ab nächstem Jahr angeboten wird (man rechnet mit Samples Mitte 2011, Massenproduktion Herbst 2011). Das ist ein anderes Blatt Papier.
 
Hardware_Hoshi schrieb:
Das ihr alle so auf Eyefinity und ähnlichen Quark steht?! Solange man extra Hardware braucht um ein Feature zunutzen, emfinde ich es persönlich als sinnlos. Selbiges bei Nvidia mit 3D-Vison (nur um es bemerkt zu haben).

Für die neue DP-Technologie braucht man:
-Monitore mit extra Anschluss +integrierten DP-Hub = vereinzelt / teuer
-oder entsprechende Verteiler (passiv / aktiv) = teuer
Völliger Unsinn - man braucht einen Monitor der DP hat und kann dann 2 weitere anschließen mit DVI, HDMI. Man braucht lediglich einen aktiven Adapter wenn man keinen Displayport Monitor kaufen will oder schon 3 ohne DP rum stehen hat. Das mit dem Hub und der Daisy Chain ist nur eine zusätzliche Option und verbessert die HD6xx Serien auf bis zu 6 Monitore für alle Grafikkarten. Damit muss man keine Eyefinity Version mehr kaufen.
Beispiel Monitore mit DP:
HP ZR22W - mit IPS Panel
BenQ BL2400PT
Dell U2410
Und noch reichlich mehr ab 150,- €
http://www.heise.de/preisvergleich/?cat=monlcd19wide&xf=100_DisplayPort&sort=p

Das Problem ist dass die Händler den DP nicht erwähnen in den Produktbeschreibungen und daher nicht informierte eben nach wie vor denken das wären seltene Stücke. Wer heute ohne DP Monitore kauft ist selber Schuld. Vor allem wenn er über 3D nachdenkt.

KainerM schrieb:
UVD 3.0: Keine Ahnung inwiefern das im Chip wirkliche Änderungen braucht, da kenn ich mich nicht aus.
Display Controller: Teil des Chips?
Aulösungen: Teil des Display Controllers
Tesselation: Keine Angaben ob diese Tesselationseinheit eine Hardware- oder eine Softwareänderung ist. Tesselationsleistung derzeit eigentlich nicht objektiv messbar
Keine FP64 Instruktionen mehr: Keine Ahnung was das konkret bedeutet, hat für Spieler aber meiner Meinung nach keine Relevanz
Dafür dass du keine Ahnung hast was diese Dinge mit GPUs und deren Architektur zu tun haben machst du sehr seltsame Aussagen.
Tesselletioneinheit eine Software Änderung? Nimm dir einen Fisch.
 
Zurück
Oben