News GeForce RTX übertakten: Turing skaliert kaum mit der Leistungsaufnahme

@Carmelito
"Und bei AMD gibt es ne vernünftige Vram-Ausstattung + HBCC kostenlos. "
Das ist aus meiner Sicht keine "unzulässige Aussage zur allgemeinen Performance" sondern FAKT.

Wenn Du meine Erwartung zur Performance hören möchtest, bitteschön:
Bei Games wird u.a. Turing für einen stärkeren Durchsatz von LowLevel + FP16 + Shaderinsintrincs+AC sorgen, geschweige denn HDR.
Rate mal wer mit profitiert . Uups, das ist ja Vega.
Von daher darf man auch mal FH4 zeigen.
Soll ja um Neukäufer gehen. (ne 1070 ist echt nada im Vgl. zur 56)
Und HisN würde sicher auch keine 1060 empfehlen.
Ne 2080 könnte man sicher auch klein kriegen (5k bei pcgh).

Passend zu RX580:
Der Nachfolger kommt wohl doch nicht gleich als 7nm-Navi sondern evtl. vorher nur ein 12nm-Refresh
(was mir nicht so gefällt).
http://www.pcgameshardware.de/Radeo...riant=cx_2&cx_artPos=1&cx_type=trend#cxrecs_s
 
Zuletzt bearbeitet:
Toni_himbeere schrieb:
Ich denke auch, dass da bei Nvidia so einiges nicht wie gewünscht geklappt hat. Mir scheint das auch nicht so gewollt zu sein, merkt aber jeder der mal 1min. drüber nachdenkt.

Bei AMD ist man das gewöhnt, bei Nvidia ist es was neues. Man sieht das doch auch schon an dem sehr späten Release der RTX Karten, dann das Lieferung so verzögert werden, selektierte Chips sowie OC bei der FE. Dazu die großen Chips gepaart mit dem Preisanstieg der Ti. Sowas macht man nicht, wenn es nicht wirklich notwendig ist. Hinten raus ist da irgendwas Grundliegend schief gelaufen. Was genau wird nur Nvidia wissen. Der nächste Quartalsbericht wird vielleicht Auflösung bringen.
Da ist nicht wirklich etwas schief gelaufen …
Der Punkt ist, warum sollen sie etwa 1 Million alte Karten der GTX 10x0-Serie für geschätzt 45-65 Millionen Verlust als eben jenen abschreiben, wenn man diesen Verlust in 450-500 Million und damit praktisch eine halbe Milliarde Gewinn verwandeln kann, wenn man nur ein wenig Trommelwirbel verursachen braucht?


In diesem Sinne

Smartcom
 
GERminumus schrieb:
Ich zitiere mich mal aus einem anderem Thread:


Ich werde das Gefühl nicht los in einem Dilemma zu sitzen.
Entweder den technisch schlechteren Monitor aber dafür mit bis zu 30% mehr fps (1080ti zu v64)

Oder den technisch ansprechen Monitor mit weniger GPU power.

Als NVIDIA Kunde finde ich keine so richtig ansprechenden Monitore ( zumindest zu viele Kompromisse in der jeweiligen Preisklasse)
Und wenn ich auf einen Freesync Monitor setze, gibt es keine entsprechende GPU ( wäre die v64 doch nur auf 1080ti Niveau)
Punkt 1: wenn man in deine Signatur schaut, dann wird einem schnell klar dass auch eine Vega mit der Leistung einer 2080ti für dich nicht in Frage kommen wird.
Punkt 2: Deine 30% sind witzig. Mit BIOS-Tweaks wird die V64 mal eben 20% schneller und dann nehmen sich die beiden effektiv so gut wie gar nichts. Was auf der einen nicht spielbar ist, ist auf der anderen auch nicht spielbar.
 
Suschusu schrieb:
Kommt das nicht auf die zu spielenden Spiele an?
Bei Doom oder Shootern im generellen hast du natürlich sowieso hohe FPS die nahe an der refreshrate sind.
Aber bei Witcher 3 usw auf WQHD brechen die FPS doch mal ein, da lohnt doch Freesync/Gsync?!

keine Ahnung, aber auch FreeSync FPS Einbrüche auf 50fps haben sich für mich ruckelig angefühlt, so dass ich auch dort immer mit 60+ gespielt habe.

Am besten selber testen und urteilen :-)

Ich kann ohne 144hz nicht spielen.
Ohne G/F-Sync problemlos möglich ^^
 
Raucherdackel! schrieb:
Punkt 1: wenn man in deine Signatur schaut, dann wird einem schnell klar dass auch eine Vega mit der Leistung einer 2080ti für dich nicht in Frage kommen wird.
Punkt 2: Deine 30% sind witzig. Mit BIOS-Tweaks wird die V64 mal eben 20% schneller und dann nehmen sich die beiden effektiv so gut wie gar nichts. Was auf der einen nicht spielbar ist, ist auf der anderen auch nicht spielbar.

Punkt 1, ich erwähnte weder meine 7970 noch meine r290 noch mein r290 cf Setup in meiner Signatur.
Ich bin kein Nvidianer, guck dir meine anderen Posts an, du wirst sehen das ich pro AMD bin. Bitte keine Unterstellungen.

Punkt 2: mal eben ein paar BIOS tweaks? ernsthaft?
20% Mehrleistung?
von Referenz Vega zu strix Vega sind es 3-5% lächerliche Mehrleistung. Da kitzelst du mal eben per Bios Tweaks nochmal 20% bzw. 15-17% raus? mal eben?
Und eine 1080ti kann man nicht übertakten?

Kannst du mir mal ein Beispiel oder ein scrennshot oder irgendwas geben?
Denn so empfinde ich dein Beitrag als bloße Unterstellung mit einem Hauch Provokation
 
Zuletzt bearbeitet:
Dural schrieb:
Wie AMD kein NDA hätte, wie AMD die Treiber nicht auch zurück behalten würde.

Sicher gibt es bei AMD auch NDAs, aber warum machen diese keine Aufregung in den Medien? Irgendwo ist da der Haken, das muss doch auch den hartgesottenen Fanboys auffallen?

Dural schrieb:
Vega 56 Leistung reicht für jeden? Nur nicht für die die in 4K Zocken wollen

Dann schau dich mal im Forum um, wie viele Leute mit VEGA durchaus flüssig in 4K spielen.

Dural schrieb:
, nur nicht für die die Max Qualität haben wollen,
nur nicht für die die gute VR Leistung haben wollen,

Ok, sehe ich ein. Es wird mit einem Hype also eine Minderheit bedient. VR ist weiterhin eine Nische.

Dural schrieb:
nur nicht für die die relativ sparsame Karten haben wollen.

Das Totschlagargument ... kaufe eine doppelt so teuere Karte und schau auf den Strom. Wow!


Dural schrieb:
Es gibt kein OC Verbot, Turing bringt einfach nicht mehr hin, das dürfte in erster Linie an der Grösse der GPU und dem 12nm Herstellungsprozess liegen.

Das ist wohl richtig. Es ändert aber nichts an der Tatsache das auch hier dreist gelogen wurde. Ein Vorwurf der AMD heute noch mächtig ins Gesicht schlägt "Overclockers Dream" bei Vega.

Als ob da nVidia sooo viel besser ist?

NVIDIA-RTX-2080-OC-Headroom.jpg

Dural schrieb:
Gerade mit Turing macht GPP durch aus Sinn, da nur diese Karten RT wirklich beherrschen. Jetzt können die Konsumenten Grafikkarten unter dem Label "Gaming" (Reines Beispiel) Grafikkarten kaufen die entweder RT können oder nicht. Das ist purre Kunden Verwirrung, AMD hofft doch nur etwas den Trittbrett Fahrer spielen zu können.

Was hat den "Gaming" mit Raytracing zu tun?
Bisher hat wohl niemand gespielt?

Dural schrieb:
Ja die 2080 macht gar keinen Sinn, ist nur die zweit schnellste Grafikkarte und man könnte meine das JEDER schon eine 1080ti hat... Mit deiner Logik wäre bei jeder neuen Grafikkarten Generation die Modelle unter dem vorherigen Topmodell Nutzlos.

Im Grunde ist die 2080 sinnlos ...
RTX Performance ist nicht ausreichend.
Die Shader Performance ist gleich der 1080ti.
Die 1080ti ist günstiger und hat mehr VRAM.

Erklär mir, warum man solch eine überteuerte Karte kaufen soll?
 
  • Gefällt mir
Reaktionen: Mcr-King
Inxession schrieb:
Im Grunde ist die 2080 sinnlos ...
RTX Performance ist nicht ausreichend.
Das wissen wir noch nicht.

Die Shader Performance ist gleich der 1080ti.
Wir wissen nicht, wie die Karte unter Einsatz von mesh shading arbeitet bzw. durch die neue Organisation bei zukünftig dafür optimierten Spielen performt.

Die alte Renderpipeline kann künftig mit den neuen Karten ordentlich abegkürzt werden.
Gibt halt auch da noch keine Software, die das nutzt.

Grüße
Zero
 
Axxid schrieb:
Die News zu den 2080ern haben enorme Resonanz, da hätte ich mir eine kurze Recherche, bzw. einen kurzen Bezug zu Berichten anderer OC-Experten gewünscht.

Von Tom's Hardware:
"Da trifft es die OC-Gilde schon deutlich härter, dass bis auf spezielle OC- und LN2-BIOSe alles das, was normal über den Tresen geht, sehr restriktiv abgedrosselt wird. Nvidia begrenzt die Boardpower sehr hart und es ist schon eine Art eingebaute Spaßbremse, wenn man trotz Chiller kaum signifikant über 2 GHz kommt, obwohl alle Werte eigentlich gut aussehen. Es fehlt dann schlicht die Power, die aber eigentlich auf ein echtes Spannungsdefizit zurückzuführen sein dürfte. Der Strom ist ja nur ein Faktor, denn für das OC braucht man nun mal die Spannung. Und genau da hat Nvidia den Riegel angesetzt. Man wird schon wissen, warum.
Damit endet der kleine Exkurs erst einmal, aber ich bin mir sicher, da kommt sicher noch das eine oder andere noch hinzu."
Link: https://www.tomshw.de/2018/09/21/nv...nden-komponenten-und-viele-neue-erkenntnisse/
 
  • Gefällt mir
Reaktionen: Mcr-King
Hallo zusammen,

@ Alexus6677

Alexus6677 schrieb:
der andere Artikel stellt es jetzt wieder aus anderer Perspektive dar. Also bleibt wohl bloß das Fazit : keine China-Böller!

Welche anderen Artikel meinst du? Und was die China-Böller Thematik angeht, das ist schon lange nicht mehr so, wie es mal war. Schau nur mal, für wen Fortron alles Netzteile fertigt. Mit dem Begriff "China-Böller" gehe ich mittlerweile äußerst sparsam um daher, nur jetzt als Paradebeispiel.

So long....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
GERminumus schrieb:
Das ist eine ernst gemeinte frage, weil ich außer von Usern bzw. einmalig bei der 980ti von EVGA, noch nie etwas zum selektieren gefunden habe.
Hast du irgend eine Quelle?
Bisher nehme ich das nur als Mythos ohne jegliche Beweise wahr.

Nur weil es nicht offiziell von den Boardpartnern gesagt wird, ist Mythos wohl eine übertreibung.

Guck dir mal die Liste bei Geizhals an, da hat jeder Boardpartner ca. 3 Modelle pro Chip, die Unterschiedlich getaktet wurden.

https://geizhals.de/?cat=gra16_512&xf=132_8192~9810_7+8228+-+GTX+1080&sort=artikel#productlist

Wenn das nicht nach Selektierung schreit, dann weiß ich auch nicht weiter...
Einige sehen den Wald vor lauter Bäumen nicht.
 
  • Gefällt mir
Reaktionen: Mcr-King und CBL
m.Kobold schrieb:
Nur weil es nicht offiziell von den Boardpartnern gesagt wird, ist Mythos wohl eine übertreibung.

Guck dir mal die Liste bei Geizhals an, da hat jeder Boardpartner ca. 3 Modelle pro Chip, die Unterschiedlich getaktet wurden.

https://geizhals.de/?cat=gra16_512&xf=132_8192~9810_7+8228+-+GTX+1080&sort=artikel#productlist

Wenn das nicht nach Selektierung schreit, dann weiß ich auch nicht weiter...
Einige sehen den Wald vor lauter Bäumen nicht.


Vor lauter Bäumen sehe ich nun doch Wald, dieser sieht aber etwas anders aus als du ihn siehst.

Deiner Logik nach hat ein Hersteller mit drei unterschiedlich getakteten Modellen also auch entsprechend selektiert, von mir aus in 3 Leistungsklassen.
Dies würde ja auch 3 Unterschiedliche OC Klassen bedeuten (ich rede von normalem manuellem OC)
Wo die teuersten Karten dann auch immer den höchsten OC Takt erreichen würden.

Wenn ich limitierende Faktoren wie Wärme (Wakü) oder das Powertarget beseitige, sollte sich ja jeder Chip entsprechend seines Preises unterschiedlich hoch Takten lassen, quasi sein gesamtes Potential dank Selektierung entfalten können. Habe ich dich da richtig verstanden?

Wie kann es also sein, das wenn PT und TT keine Rolle spielen, es völlig egal für OC ist ob ich eine Referenz Karte oder eine Super duper Custom Karte habe?
Spätestens nach dem eliminieren der TT und PT sollten doch die selektierten Chips ihre volle Stärke ausspielen können.
Warum aber gibt es unter den Customes genauso viele oder wenige Nieten wie unter den Referenz Karten (PT und TT entsprechend)?

Wie genau soll eigentlich Selektiert werden?
Ein Chip wird auf das PCB gelötet, man stellt fest der ist toll und man baut den Chip dann wieder aus und baut diesen auf ein entsprechend fettes Custom Layout?
Oder selektiert nvida vor?


Ich behaupte: Es wird bisher überhaupt nichts selektiert. (RTX 20X0 ??)
Die Custome Karten unterscheiden sich nur in Kühlung und Stromversorgung, ansonsten haben die Null Vorteil zu einer Referenz Karte.
Sobald man die Begrenzungen wie TT und PT eliminiert hat ist es reine Chip Lotterie.
Sonst würde es ja keine Nieten, auch unter den Custome Modellen geben.
Der Hersteller nutzt den Glauben/Märchen der Selektion um Menschen für lächerliche 20-100mhz mal eben 100-200€ mehr abzunehmen. Es soll Leute geben die darauf reinfallen und an diesen Mythos glauben, auch nur ohne ein einzigen Beweis.
Gut funktioniert bei Religion ja auch^^
 
Deleo schrieb:
Da ich Generell keinen Grund zum Übertakten sehe, isset mir generell egal. RTX sowieso.
Ich glaube aber auch das die karten Generell schon nah an ihrer Grenze sind und daher die ganze Geschichte seitens Nvidia.
Was die Karten aber haben ist ein enormes Undervolting Potenzial, ich konnte meiner RTX 2080 gestern 40 Watt bei 100% abrasieren und dennoch gegenüber den Standardwerten eine leichte performancessteigerung rausholen. Da ist einiges an Luft nach unten möglich.
Auch der Ram Takt der Karten hat einiges an Luft nach oben, 500-600Mhz sind da ohne viel zu testen drinnen.
Reines Overclocking ist nicht alles. Es ist auch toll wenn die Karte anstatt 200 Watt nur mehr 160 Watt bei 100% zieht.
 
DocWindows schrieb:
Nun, wenn die Partner keine besseren Karten bauen können oder dürfen, dann sollten sie vielleicht etwas langsamere Karten bauen und dafür mit dem Preis unter die FEs gehen.

Wenn man sieht wie viele Leute über den Preis jammern, könnte das ne echte Chance auf Verkaufszahlen werden.

Warum sollten die das machen wenn NVIDIAs Founder Modelle jetzt schon wieder erstmal ausverkauft sind? Wird auch genauso dann für die Custommodelle sein, die erste Fuhre wird weggehen wie warme Semmeln. Wenn von 1000 Forumusern 500 laut schreien gibts immernoch 500 stille die die Karten einfach kaufen.
Und selbstverständlich gebietet es das Basiswissen in Geschäftemacherei dass etwas heiß Erwartetes nicht die Nachfrage übertrumpft, damit die Preise schön hoch gehalten werden können. Bisher funktionierts auch hier.
 
  • Gefällt mir
Reaktionen: .Sentinel.
th3o schrieb:
Warum sollten die das machen wenn NVIDIAs Founder Modelle jetzt schon wieder erstmal ausverkauft sind?

Die Aussage hat sich nur darauf bezogen, dass die FE-Modelle anscheinend mittlerweile so gut sind dass sie mit den Custommodellen konkurrieren können, bzw. die Partner nicht mehr so stark an der Konfiguration drehen dürfen wie bisher.

Also stellt sich die Frage ob die Customs schneller als die FEs sein müssen damit sie teuerer verkauft werden können, oder ob sie zur Abwechslung auch mal langsamer als die FEs sein dürfen und dafür etwas billiger.

Die Liefersituation ist bei dieser Überlegung erstmal außen vor. Es geht rein um die technische Problematik und die Vorgaben seitens nVidia.
 
DocWindows schrieb:
Die Aussage hat sich nur darauf bezogen, dass die FE-Modelle anscheinend mittlerweile so gut sind dass sie mit den Custommodellen konkurrieren können, bzw. die Partner nicht mehr so stark an der Konfiguration drehen dürfen wie bisher.

NVidia hat in der Tat mit der FE eine Steilvorlage abgeliefert, die heurigen FEs sind wirklich gute Karten mit ordentlichem Lautstärkeverhalten die wie Panzer gebaut sind, was die wenigsten übrigens wissen ist dass die 2080 ein enormes undervolting Potenzial haben. Ich konnte gestern mit einem Kurztest bereits 40 Watt bei Vollast wegmachen was sie in 1070iger Partnerkartenregionen katapultiert und gleichzeitig die Performance ein paar fps steigern.
Alleine der Speichertakt lässt sich risikolos um 600MHz erhöhen und 1.9GHz schafft meine Karte bei 0.925 stabil, was in etwa dann im Gesamtbild eben die 40 Watt Ersparnis ergibt.
 
GERminumus schrieb:
Deiner Logik nach hat ein Hersteller mit drei unterschiedlich getakteten Modellen also auch entsprechend selektiert, von mir aus in 3 Leistungsklassen.
Dies würde ja auch 3 Unterschiedliche OC Klassen bedeuten (ich rede von normalem manuellem OC)
Wo die teuersten Karten dann auch immer den höchsten OC Takt erreichen würden.

Wir reden hier von Schubladen OC für den großen Markt. Wieso du das mit manuelles OC
vergleichen möchtest ist mir ein Rätsel. Das was die Boardpartner machen ist eine grobe auswahl der chipgüte
mit MHz/Vcore und dann werden die aufs Board geklatscht... Ich denke man kann hier von einen Richtwert ausgehen und was dadrunter fällt wird halt in den günstigeren Karten verbaut.

GERminumus schrieb:
Wenn ich limitierende Faktoren wie Wärme (Wakü) oder das Powertarget beseitige, sollte sich ja jeder Chip entsprechend seines Preises unterschiedlich hoch Takten lassen, quasi sein gesamtes Potential dank Selektierung entfalten können. Habe ich dich da richtig verstanden?

Ich kann mich zwar nicht dran erinnern das ich das irgendwann mal behauptet habe, aber das wäre dann wohl der Standard begriff von Silikon Lotterie.

GERminumus schrieb:
Wie kann es also sein, das wenn PT und TT keine Rolle spielen, es völlig egal für OC ist ob ich eine Referenz Karte oder eine Super duper Custom Karte habe?
Spätestens nach dem eliminieren der TT und PT sollten doch die selektierten Chips ihre volle Stärke ausspielen können.
Warum aber gibt es unter den Customes genauso viele oder wenige Nieten wie unter den Referenz Karten (PT und TT entsprechend)?

Wie genau soll eigentlich Selektiert werden?
Ein Chip wird auf das PCB gelötet, man stellt fest der ist toll und man baut den Chip dann wieder aus und baut diesen auf ein entsprechend fettes Custom Layout?
Oder selektiert nvida vor?

Aber ich denke so easy funktioniert das nicht, da sind ja nicht nur Power und Templimit sondern auch spannungslimitierung und der Generelle Sweetspott und wie gut das vom Hersteller ausgelootet wurde...

Und bei den 2080ti FE Karten hat nvidia schon alles am Limit eingestellt:
https://www.tomshw.de/2018/09/26/ge...uebertaktung-und-diese-herzlich-wenig-bringt/

GERminumus schrieb:
Ich behaupte: Es wird bisher überhaupt nichts selektiert. (RTX 20X0 ??)
Die Custome Karten unterscheiden sich nur in Kühlung und Stromversorgung, ansonsten haben die Null Vorteil zu einer Referenz Karte.
Sobald man die Begrenzungen wie TT und PT eliminiert hat ist es reine Chip Lotterie.
Chip Lotterie kann auch schon vor dem OC auswirkungen haben, Stichwort undervolting, es ist weniger Power nötig um so besser die Chipgüte ist.

GERminumus schrieb:
Sonst würde es ja keine Nieten, auch unter den Custome Modellen geben.
Der Hersteller nutzt den Glauben/Märchen der Selektion um Menschen für lächerliche 20-100mhz mal eben 100-200€ mehr abzunehmen. Es soll Leute geben die darauf reinfallen und an diesen Mythos glauben, auch nur ohne ein einzigen Beweis.
Gut funktioniert bei Religion ja auch^^

Dieses OC nach oben über die 2.0-2.1Ghz ist nur was für die kleinen Pimmelmänner die den längsten in den Benches haben müssen aber in der Praxis ruckelts dann mehr als wenn man seine Karte nur auf 1900Mhz laufen lässt, die Spannung runterdreht, das Powertarget erhöht und dann die Karte möglichst gut Kühlt z.B. mit ner eigenen Lüfterkurve oder ne Wakü und dann bleibt die dann auch Stabil auf 1900Mhz (ohne Turbo Boost 3.0 Bullshit) mit sauberen FPS. Während der mit 2,1Ghz E-Penis Heizung Frameeinbrüche/Latenzen und Takt schwankungen von 1800-2100Mhz hat weil er entweder ins Power/Vcore Limit oder ins Temptarget rein kommt oder vom Turbo Boost gedrosselt wird.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: CBL
@m.Kobold
Ich glaube wir verstehen unterschiedliche Dinge unter chipgüte und Selektion.
Eine Selektion macht für mich nur für die maximale Leistung Sinn. Und da dürfen limitierende Faktoren (pt tt) nicht zwischen grätschen, da ja sonst wieder die Selektion des Chips keinen Sinn machen würde.

sind das powertarget und Temperatur Target nicht limitierend, konnte ich bisher keine Abhängigkeit zwischen Custom und fe Model feststellen.
Diesbezüglich habe ich auch noch nie irgendwo etwas gelesen gehört.

Würde man bisher selektieren, würde es doch auch keine wertvollen „Perlen“ geben, welche zum Teil zu horrenden Preis verkauft werden. Allein caseking mit ihren CPUs. Da findet vom endverkaufer eine Selektion statt, die so richtig teuer ist.

Wir werden da vermutkivh nicht auf einen Nenner kommen, ist aber völlig ok.
Schön das du sachlich bleibst.

Edit: bezüglich der bordpartner:
Die Flaschen einfach nur unterschiedliche BIOS Versionen ( also Einstellung)
Jeder fe Chip erreicht bisher den maximalen Takt der jeweilen custom karte, solange pt und tt nicht limitieren. Dürfen sie ja wie gesagt auch nicht wenn die chipgüte eine Rolle spielen soll.
 
Zuletzt bearbeitet:
@GERminumus
Ich bin mir nicht sicher ob das eine Generelle diskussion über Selektion ist, oder ob wir über die neuen nvidia chips reden? Denn gestartet wurde das Thema von der perspektive das wir eigentlich von den nvidia 10*0 Karten diskutiert haben, weil jemand drittes indirekt behauptet hat das angeblich keine Selektierung mit den alten Karten stattgefunden hat.... deswegen ja auch der Geizhals Link.

GERminumus schrieb:
Edit: bezüglich der bordpartner:
Die Flaschen einfach nur unterschiedliche BIOS Versionen ( also Einstellung)
Jeder fe Chip erreicht bisher den maximalen Takt der jeweilen custom karte, solange pt und tt nicht limitieren. Dürfen sie ja wie gesagt auch nicht wenn die chipgüte eine Rolle spielen soll.

Ich glaub du hast nicht mitbekommen das nvidia ganz offiziell die Selektierten OC Chips als (A) Chips makiert.
https://www.computerbase.de/2018-09/selektierte-turing-gpus-nvidia-oc-geforce-rtx/

Viele haben den Artikel nicht richtig gelesen und behaupten jetzt das nur nvidia diese OC Chips mit der FE vertickt... aber das ist bullshit... denn die Customs bekommen die genauso.

Aber natürlich weiß keiner wie genau nvidia beim Selektieren vorgeht, ich denke nur das nur grob getestet wird (minimum aufwand) um die Spreu vom Weizen zu trennen und das trotzdem noch genug spielraum für Silikon Lotterie vorhanden ist.
 
Zurück
Oben