News GDDR6: GeForce RTX mit Micron, Quadro RTX mit Samsung

Smartcom5 schrieb:
Habe ich auch nur mit einem Wort erwähnt, daß OC in irgend einer Art und Weise erstrebenswert sei? Richtig; Nein.

Ist es trotzdem nicht genau dieser Punkt (des OC-Potentials), der immer wieder vom nVidia-Marketing wie von den Nutzern solcher Karten als Alleinstellungsmerkmal promiment beworben wird? Richtig; Ja, absolut.
„Keine weiteren Fragen, euer Ehren!“ Anhang anzeigen 706582


In diesem Sinne

Smartcom

Also wo nVidia "immer wieder" das Overclocking mit ihren Karten bewirbt möcht ich jetzt aber mal stichhaltig belegt haben.
Nur weil sie jetzt mit den neuen FE Kühlkontept mal davon angefangen haben wurde das nicht ständig gemacht.

Man liest bei solchen Kommentaren immer wieder den unrationalen Hass auf einen Hersteller heraus.
Ergänzung ()

jusaca schrieb:
Ich finds schon schade, dass jegliche Kritik als Fanboy-Gelaber abgetan wird, egal wie berechtigt sie ist. Das wirft irgenwie immer den Verdacht auf, dass vielleicht eher derjenige, der solche Vorwürfe von sich gibt, besagter "Fanboy" ist...

Ich bin ganz bestimmt kein AMD Fanboy, die Karten von Nvidia sind immer noch besser als die von AMD. Aber gerade bei dem gigantischen Gewinn, den NVidia momentan einsteckt, war einfach mehr Fortschritt durch große Mengen Geld für R&D zu erwarten.
Und dazu kommen diese unverschämten Mondpreise, die für die 2000er-Serie aufgerufen wird. Ich würde ja sagen: Ach, sollen die Dummen eben kaufen, juckt mich nicht. Aber das Problem ist, dass es ja nicht besser wird, wenn der Hersteller merkt, dass er mit solch einer Dreistigkeit immer durchkommt! Und leider gibt es zunehmend Leute, die unreflektiert und in braver "Fanboy-Manier" absurde Summen ausgeben, komme was da komme... Verrückte Zeiten ;/


Nun ja das viele pseudokritische Kommentare eher die Abneigung gegenüber einer Firma als neutrale Betrachtung der Fakten nahelegen sollte man aber auch nicht einfach so verschweigen bzw ausblenden.

Fanboy hört sich zwar immer sehr böse an aber am Ende des Tages sind ein großer Teil der Kommentare unter nVidia, AMD und Intel News genau das. Fanboykriegsgelaber.

Ob ein größerer Fortschrit (in der Rohleistung) zu erwarten war durch das RD Budget darüber liesse sich trefflich streiten, letztlich ist die aktuelle Weiterführung der Technologie nahe einer Sackgasse und ohne komplett neuen Ansatz wird es kaum noch große Sprünge geben können. Das ist das gleiche wie mit den CPU's. Sowohl AMD als auch nVidia arbeiten daher ja an der Paralelisierung mit NVLink und (ich hab mir die AMD Term noch nicht gemerkt ^^).

Und ja dann kommen wir zu meinem Lieblingsthema aktuell, die Preise :-D. Ja Mondpreise klingt hart aber da hast du in meinen Augen nicht unrecht. Auch wenn ich sie mir leisten könnte werde ich ganz sicher solche Preise nicht zahlen. Und wenn ich lesen muss soviele% schneller als die alte Generation also soviel mehr Geld ist gerechtfertigt bekomm ich immer das große reiern. eine Neue Generation hat mehr Bang for the Buck zu liefern ansonsten ist es ein Rückschritt und kein Fortschritt.

Na ja sollen sie machen. Das feiern von dem fehlerhaften RT (ich komm immer noch nicht los vom lachen als ich die Texturhaften RT Explosionen gesehen hab ^^) mit seiner Game/Hairworks artigen Implementierung kann ich auch nicht wirklich nachvollziehen.
Geschissen drauf das die erste Iteration zu langsam ist das ist normal aber der proprietäre (bzw teils propritär wenn ich das richtig gelesen habe lasse mich aber gerne eines besseren belehren) Ansatz führt nur dazu das langfristig die Entwickler das Feature mehrfach Programmieren müssen (sofern dann AMD/Intel eigene RT fähige Karten haben), es einfach sein lassen oder es nur auf nVidia geht ist neben dem Preistag dann ein KO Kriterium für mich.
Ergänzung ()

Smartcom5 schrieb:
Ja klar, aber man wird ja wohl noch sagen dürfen, daß der Vorstoß in Sachen Raytracing im Moment bestenfalls keinen Mehrwert bietet, sondern einfach mit einem massiven Preisaufschlag zu haben ist.


In diesem Sinne

Smartcom

Mhm irgendwie erinnert mich das an so viele Gelegenheiten wo etwas neueres eingeführt wurde.

Einfach mal so in den Raum geworfen die eigentlich zu langsamen ersten 2d/3d Karten. Da gab es davor und dannach genug Beispiele.

Wenn man deiner Argumentation folgt wird es nie RT geben. Weil jetzt soll es nVidia sein lassen warum sollten sie dann weiter daran arbeiten? Und ich zumindest freue mich auf eine RT Zeit wenn am besten alles durch RT berechnet wird. Der Weg dahin wird lange und mit vielen Steinen sein aber ohne ihn zu beschreiten werden wir nicht dahin kommen.

Also wenn das der Kern deiner Kritik an nVidia ist kann ich nur lachen.
 
Zuletzt bearbeitet von einem Moderator:
ChuckBROOzeG schrieb:
Also wo nVidia "immer wieder" das Overclocking mit ihren Karten bewirbt möcht ich jetzt aber mal stichhaltig belegt haben.
Nur weil sie jetzt mit den neuen FE Kühlkontept mal davon angefangen haben wurde das nicht ständig gemacht.

Man liest bei solchen Kommentaren immer wieder den unrationalen Hass auf einen Hersteller heraus.
Nein, natürlich hat nVidia insbesondere die GTX 10x0-Serie niemals mit grandiosem OC-Potential beworben und dies auch garantiert nicht als eines der Kauf-Argumente pro GTX 10x0-Karten dargestellt … Niemals nicht! Kann ja gar nicht! Sag mal, hört Ihr euch eigentlich manchmal auch noch selbst zu?!
Werbung für die 10x0-Serie;
Und bevor jetzt wieder kommt „Ja, kann ja jeder schnell in Photoshop gebastelt haben!“;
Diese ganze Werbung war immer schon so, was das OC-Potential betraf. Bitte klicke und sehe es selbst mit eigenen Augen auf der offiziellen Seite von nVidia – ganz of·fi·ziell auf → GeForce.com.
nvidia-geforce-gtx-10-series-laptops-overclocking-unleashed-640px.jpg

Was bedeutet für Dich Overclocking unleashed“ wenn nicht frei übersetzt „Entfesseltes Übertakten?
-
8084_37_nvidia-geforce-gtx-1080-ti-review-titan-dead.jpg

„Worlds fastest memory overlcocks 1080“ - „Welthöchstes Memory-OC für GTX 1080“

Werbung für die GTX 9x0-Serie;
GTX_980_Mobile__10_-pcgh.png

„Built for Overclocking - „Entwickelt fürs Übertakten
-
GTX_980_Mobile__3_-pcgh.png

„Built for Overclocking - „Entwickelt fürs Übertakten
-
457913.PNG

„Breakthrough Overclocking - „Bahnbrechendes Overclocking
-

GTX_980_Mobile__20_-pcgh.png

„Engineered for Overclocking - „Entwickelt für‘s Übertakten

Soll ich weiter machen?
Ja klar, „alles irrationaler Hass auf einen Hersteller“ und wir Misepeter ziehen uns sowas bloß aus den Fingern, stimmt‘s? Manchmal nimmt die Verteidigung der Fanboys echt religiöse Züge an, ist irgendwo ziemlich bedenklich … Insbesondere dann, wenn die Sinne derart vernebelt zu sein scheinen, daß man – hoffentlich unbewußt – gewisse Fakten ständig unterschlägt, um sein Weltbild nicht korrigieren zu müssen.

nVidia hat seine Karten die letzten Jahre immer wieder und explizit nicht nur für sondern mit grandiosem OC-Potential beworben. Bei der GTX 10x0-Serie hat man soweit ich weiß sogar explizit gesagt, daß man +2.1 GHz Core-Takt erreichen könnte – was dann hinterher in der Realität und Praxis nicht ansatzweise erreicht wurde sondern +200 MHz darunter lag (man korrigiere mich bitte, falls ich mich in der Zahl irren sollte; finde gerade die explizite Folie nicht).
Fakt ist: Die Leute denken sich sowas kaum aus, sondern rekapitulieren lediglich ihr Gedächtnis …


In diesem Sinne

Smartcom
 
Smartcom5 schrieb:
Nein, natürlich hat nVidia insbesondere die GTX 10x0-Serie niemals mit grandiosem OC-Potential beworben und dies auch garantiert nicht als eines der Kauf-Argumente pro GTX 10x0-Karten dargestellt … Niemals nicht! Kann ja gar nicht! Sag mal, hört Ihr euch eigentlich manchmal auch noch selbst zu?!
Werbung für die 10x0-Serie;
Und bevor jetzt wieder kommt „Ja, kann ja jeder schnell in Photoshop gebastelt haben!“;
Diese ganze Werbung war immer schon so, was das OC-Potential betraf. Bitte klicke und sehe es selbst mit eigenen Augen auf der offiziellen Seite von nVidia – ganz of·fi·ziell auf → GeForce.com.
Anhang anzeigen 706757
Was bedeutet für Dich Overclocking unleashed“ wenn nicht frei übersetzt „Entfesseltes Übertakten?
-
Anhang anzeigen 706771
„Worlds fastest memory overlcocks 1080“ - „Welthöchstes Memory-OC für GTX 1080“

Werbung für die GTX 9x0-Serie;
Anhang anzeigen 706767
„Built for Overclocking - „Entwickelt fürs Übertakten
-
Anhang anzeigen 706768
„Built for Overclocking - „Entwickelt fürs Übertakten
-
Anhang anzeigen 706770
„Breakthrough Overclocking - „Bahnbrechendes Overclocking
-

Anhang anzeigen 706772
„Engineered for Overclocking - „Entwickelt für‘s Übertakten

Soll ich weiter machen?
Ja klar, „alles irrationaler Hass auf einen Hersteller“ und wir Misepeter ziehen uns sowas bloß aus den Fingern, stimmt‘s? Manchmal nimmt die Verteidigung der Fanboys echt religiöse Züge an, ist irgendwo ziemlich bedenklich … Insbesondere dann, wenn die Sinne derart vernebelt zu sein scheinen, daß man – hoffentlich unbewußt – gewisse Fakten ständig unterschlägt, um sein Weltbild nicht korrigieren zu müssen.

nVidia hat seine Karten die letzten Jahre immer wieder und explizit nicht nur für sondern mit grandiosem OC-Potential beworben. Bei der GTX 10x0-Serie hat man soweit ich weiß sogar explizit gesagt, daß man +2.1 GHz Core-Takt erreichen könnte – was dann hinterher in der Realität und Praxis nicht ansatzweise erreicht wurde sondern +200 MHz darunter lag (man korrigiere mich bitte, falls ich mich in der Zahl irren sollte; finde gerade die explizite Folie nicht).
Fakt ist: Die Leute denken sich sowas kaum aus, sondern rekapitulieren lediglich ihr Gedächtnis …


In diesem Sinne

Smartcom


Ok jetzt haben wir 2 Beispiele das ist für mich immer noch kein IMMER WIEDER. Da musst du auch nicht mit niemals nicht kommen weil das hab ich nicht behauptet.

Und da ich mir das Marketing Zeug selten ernsthaft gebe erinnere ich mich an sowas auch kaum weil das alle machen. Können wir bei AMD und Intel genauso massenhaft finden. Irgendwelche Versprechungen die gar nicht oder nur teilweise eintreffen.

Und es geht immer noch um die Art und Weise der "Argumentation" warum ich unrationalen Hass einigen unterstelle.

Und lese ich da heraus das ich n nVidia Fanboy bin? Ah danke das finde ich super werd ich gleich mal in meiner Threema Gruppe ausbreiten das werden mit "endlich kommst du zur hellen Seite" kommentieren denk ich.
Vor allem weil ich mir kürzlich für mein Zweitsystem ne Vega 64 gekauft habe und gerade Gestern nen x399 zu meinem herumliegenden 1950 (Gewinnspiele sind was geiles) bestellt hab. Pornöser FreeNAS income! Klar ich bin total BlauGrüner Fanboy. Das Fanboysein geht soweit das ich höchstwahrscheinlich mit der nächsten Main Graka auf das unmögliche warte und auf eine neue AMD HighEnd nach Navi spekuliere.

So ich geh dann mal meine "the way it's meant to be played" Statue anbeten bb
 
Smartcom, vielleicht solltest Du nochmal über Deinen hier verwendeten Foren-Alias nachdenken.

Deine Aussagen sind alles, aber nicht "smart". Auch wenn Du hier einen auf pseudo-intellektuell machst, siehe auch Deine Signatur, so sind Deine Aussagen schon grenzwertig.

Wie kann man so eine übertrieben starke Antipathie gegenüber technologischem Fortschritt haben, sich zugleich aber in einem Fachforum für Technik aufhalten?

Du scheinst mit allem was teuer ist auf Kriegsfuß zu stehen. Ich habe hier noch eine Rechnung(welche ich später evtl. mal einscannen werde), wo ich für ein Upgrade von 2MB RAM auf 4MB RAM, satte 620DM bezahlt habe. Das bei einem 486 DX2-66.

Als ich damals von meiner Cirrus Logic Graphikkarte auf eine Spea Mirage P64 mit S3 Trio64 umgestiegen, haben mich auch alle komplett ungläubig angeguckt, wie ich für eine 2D-Grafikkarte > 500DM ausgeben kann.

Dafür hatte die Karte einen deutlich verbesserten DAC,2D-Acceleration und konnte den Desktop schon mit 32Bit und 60Hz darstellen bei 1024x768. Danach ging der Spaß erst richtig los mit Karten von Matrox. Vor allem die Millenium war mit 4MB WRAM schweineteuer und lag bei 700 DM, oder so.

Mein erster 3D-Beschleuniger war eine Diamond Viper V330 mit 4MB SGRAM und Riva128 Chipsatz von Nvidia. Ich habe mir dann noch zu meinem Geburtstag eine Diamond Moster 3D gewünscht. Schon damals hat es richtig Spaß gemacht die Technologien miteinander zu vergleichen. OpenGL,Glide,Direct3D und auch das war schweineteuer.

Ohne diese Arbeit würden wir heute ganz woanders stehen, weil wir uns immer aufgrund der Kosten gegen technologischen Fortschritt entschieden hätten. Niemand wird dazu gezwungen, aber wenn es etabliert ist, dann profitieren viele davon und die ganzen Nörgler halten solche Dinge auf einmal für selbstverständlich, zu solchen Personen gehörst auch DU.

Wenn es nach Dir gehen würde, hätten wir keinerlei 3D-Grafiken und würden noch immer mit IDE-Kabeln unsere Magnetplatter betreiben. Auf Lochkarten will ich erst gar nicht zurückgehen, denn die Arbeit mit solchen zu arbeiten war enorm.

Technologien wie 3DXpoint bringen dem regulären Consumer in der tat nichts, aber in speziellen Anwendungsbereichen wird hier eine technologische Lücke geschlossen, die bis Dato immer ein Problem und nicht performant war. Ich selber habe eine Optane900P mit 480GB als AIC und merke nahezu keinen Unterschied zu meiner 2TB NVMe von Samsung. Dennoch habe ich mich bewusst für die Optane entschieden, weil ich die Technologie dahinter toll finde und es ein komplett neuer Ansatz ist, der gerade in diesem Bereich viel verbessern könnte.

Warum Du also so dermaßen aufschreist bzgl. der neuen Technik erschließt sich mir nicht.
 
Smartcom5 schrieb:
nVidia hat seine Karten die letzten Jahre immer wieder und explizit nicht nur für sondern mit grandiosem OC-Potential beworben. Bei der GTX 10x0-Serie hat man soweit ich weiß sogar explizit gesagt, daß man +2.1 GHz Core-Takt erreichen könnte – was dann hinterher in der Realität und Praxis nicht ansatzweise erreicht wurde sondern +200 MHz darunter lag (man korrigiere mich bitte, falls ich mich in der Zahl irren sollte; finde gerade die explizite Folie nicht).
Fakt ist: Die Leute denken sich sowas kaum aus, sondern rekapitulieren lediglich ihr Gedächtnis …

Das ist richtig- Da wird (in meinen Augen zu unrecht) die Werbetrommel gerührt.

Das ist insofern nicht sonderlich klug, weil ja auf der anderen Seite immer mit der Intelligenz der Grafikkarte geworben wird und mit der Sensorenbatterie, die aufgrund der Betriebssituation den Takt selbst noch oben erweitern kann (z.B. Boost) und somit sowieso schon das angebliche Optimum aus der Grafikkarte herausholt.

Da widersprechen sich also zwei Marketingaussagen letztendlich, denn entweder wird das Optimum sowieso bereits ausgereizt, oder nicht.

Ich glaube dass deshalb ein signifikante Overclockingmöglichkeit von CPUs/GPUs, die mit ihrem Takt immer flexibler umgehen, in Zukunft nicht mehr vorhanden sein wird.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartcom5
ZeroZerp schrieb:
Ich glaube dass deshalb ein signifikante Overclockingmöglichkeit von CPUs/GPUs, die mit ihrem Takt immer flexibler umgehen, in Zukunft nicht mehr vorhanden sein wird.

Grüße
Zero

Fände ich persönlich echt nicht verkehrt. Aber ich bin eh ein Sonderling :-D
 
ZeroZerp schrieb:
Ich glaube dass deshalb ein signifikante Overclockingmöglichkeit von CPUs/GPUs, die mit ihrem Takt immer flexibler umgehen, in Zukunft nicht mehr vorhanden sein wird.

Grüße
Zero

AMD zeigt ja bei CPU's wie dynamisches Boost-Verhalten funktioniert (Ryzen 2000), daher frage ich mich die ganze Zeit schon, wann Intel den in irgendeiner Form bei ihren CPU's einführt, denn die sind ja bisher festgenagelt.
 
  • Gefällt mir
Reaktionen: .Sentinel.
ChuckBROOzeG schrieb:
Fände ich persönlich echt nicht verkehrt. Aber ich bin eh ein Sonderling :-D
Ist halt, wenn man das Spiel auf die Spitze treibt dann schwierig irgendwelche Standardspezifikationen rauszulassen.

Denn je nach Güte takten die Dinger dann unterschiedlich. Wenn Intel dann Samples an die Tester verschickt, werden sie automatisch einen für anderen nicht vorhandenen Vorteil haben, wenn sie sich nicht ins eigene Fleisch schneiden wollen.

Genaue Tests sind dann fast nicht mehr möglich, weil die Sensoren bei CPU#1 "nur" z.B. 2 GHz zulassen, wo CPU#2 dann 2,3 oder 2,4 GHz packt. Schwierig dann noch irgendeinen Wert zu testen oder festzulegen.

Ist ja jetzt schon so mit der TDP. Wenn nicht durchs Mainboard erzwungen, genehmigen sich die CPUs je nach bedarf einfach Strom bis an die Turbogrenze, der einfach höher liegt.

Grüße
Zero
 
ZeroZerp schrieb:
Ich habe in der Tat ein persönliches Problem damit, wenn Dinge ohne Fakten durch den Dreck gezogen werden. Und habe ein noch größeres Problem mit welcher Selbstherrlichkeit, Arroganz und Geringschätzung dies passiert (wenn hier z.B. einige superlustige meinen Herrn Huang als "Lederjacke" brandmarken/abwerten zu müssen).
Das ist extrem schlechter Stil und zeugt von den niederen Beweggründen und dem völligen mangel an Respekt und dem Mindestmaß an Erziehung, der hier herrscht.

Vielleicht solltest Du zur Abwechslung einmal selber in den Spiegel schauen bzw. vor der eigenen Tuer kehren, bevor Du hier (nicht zum ersten Mal) alle - die im CB Forum nicht Deiner Meinung sind und Dir scheinbar mangels Toleranz nicht in den Kram passen - anprangerst, anstatt hier den nVidia Prediger und Moralapostel zu geben, denn letzterer steht Dir leider absolut nicht ;).

Das sind Verhaltensmuster von 5 Jährigen, die wütend mit dem Fuß aufstampfen und "ich will aber" schreien. "Und wenn ich es nicht kriege, oder es mir nicht passt, dann mach ich es kaputt".

Das sind krankhafte Auswüchse einer Konsumgesellschaft, die sich allein schon durch ein simples Angebot hintergangen, verarscht und betrogen fühlt und dem Anbieter die Pest an den Hals wünscht.

Ich ziehe aus meinen fortwährenden Richtigstellungen nur die Hoffnung, dass jemand der in einem Technikforum an neuer Technik interessiert ist, trotz der vielen Schreihälse auch eine andere Sichtweise erhält und nicht nur den undifferenzierten, einseitig negativen (obwohl auf Schätzungen beruhenden) Shitstorm anheim fällt.

Das wird nämlich echt zur Krankheit hier, jedwede Innovation im Keim ersticken zu wollen, nur weil man PERSÖNLICH keinen Nutzen darin erkennen kann oder einem der Preis nicht passt (das tut er fast nie, weil man immer alles kostenlos will).

zu 100% egozentrisches Weltbild

Wie oben bereits geschrieben ist es die Art und Weise der Kritik. Zu 99% unterste Schublade ohne Begründung, Quellen oder sonst erkennbaren Anstrengungen seine Meinung, die schnell ins Forum gekotzt wird überhaupt darzulegen.

Das ist extrem schlechter Stil und zeugt von den niederen Beweggründen und dem völligen mangel an Respekt und dem Mindestmaß an Erziehung, der hier herrscht.

Ein guter Stil und eine gute Kinderstube sehen m.E. anders aus als Deine oben zitierten Ausfaelle ... und was soll der Zirkus eigentlich, wenn noch nicht einmal neutrale/glaubwuerdige Tests verfuegbar sind und Du selber mit Huelsen argumentierst (die Du anderen ankreidest).

Ich koennte die Liste Deiner in juengerer Vergangenheit getaetigten, unruehmlichen Zitate noch weiter ausfuehren bzw. nach anderen Stellen suchen, aber das bringt nichts (ich denke die Botschaft ist klar, dass Du Dich - diplomatisch ausgedrueckt - nicht mit Ruhm hier bekleckerst) und der "Muecken-Elefant" ist schon gross genug.

Des Weiteren, in was fuer einer Traumwelt lebst Du eigentlich?

Vermutlich heisst Du die an Betrug grenzende GTX 970 Taeuschung nVidias auch fuer gut (wogegen der 3GB GTX 1060 Bauernfaenger noch harmlos ist) und GPP und die GeForce Experience Datenspionage, die Preistreiberei mit Einfuehrung der Titan-Serie und all den propriertaeren, pseudo-innovativen Mist (Gameworks, G-Sync, usw.) mit dem man die Kundschaft leider schon viele zu lange durch den Kakao gezogen hat (die man frueher aber wohl noch nicht noetig hatte).

Dann wird auch noch von Dir ueber die Open Source Politik AMDs hergezogen, ich glaub' mein Schwein pfeift :rolleyes:.

Und wer hat diese miese Kundenpolitik/-behandlung nVidias zu verantworten?

3x darfst Du raten ...

genau, der ach so noble Herr Jen-Hsun Huang, a.k.a. "die Lederjacke".

Und letztere Bezeichnung ist weder vulgaer noch per se anzueglich (auch wenn sie natuerlich negierend gemeint ist, so gesehen ist der sich am ewig gleichen Kleidungsstueck orientierende, wenig schmeichelhafte Spitzname m.M.n. durchaus passend gewaehlt und eigentlich schon Kult, auch wenn Du das noch nicht mitbekommen haben solltest bzw. das sich mit Deinem Humorverstaendnis evt. nicht vertraegt), im Gegensatz zu dem was Du hier teilweise in Deinen Ausbruechen verzapft hast.

Wenn Du das nicht abkannst, dann ist das bedauerlich und auch wenn Du nicht gerade neu in diesem Forum bist und wuerde ich Dir raten Dir zukuenftig ein dickeres Fell zu zu legen anstatt vieles persoenlich zu nehmen ;).

Ergo, wuerde ich mich mit Deinen generalverurteilenden/pauschalisierenden Bekundungen lieber etwas zurueck halten, als jemand, der sich mit den eigenen Kommentaren ab und zu wohl auch Steine werfend ins Glashaus setzt und sich scheinbar leider nicht genuegend maessigen kann, denn damit disqualifizierst Du Dich u.U. leider fuer eine vernuenftige Diskussion (mit vielen) hier.

Letzteres waere prinzipiell schade, denn es hat den Anschein, dass (die (gespielte?) Emotionalitaet oder das in Rage schreiben aussen vor) Du an sich argumentieren kannst, technisch durchaus bewandert scheinst und damit nicht alles was Du schreibst hanebuechen oder unsachlich, sondern teilweise ueberlegenswert oder manchmal durchaus zutreffend sein kann.

So, das war es auch schon von meiner Seite aus (eine Moderation (???) scheint es hier ja nicht zu geben oder diese labt sich evt. genuesslich am Popcorn) und ich hoffe, dass das "Kriegsbeil" damit (vorerst?) etwas begraben werden kann.


Ach ja, da war ja noch etwas, das Thema an sich ...

... nun, zum Speicher muss ich aus meiner Sicht zum besten geben, dass dieser bei den kommenden RTX Karten mit Sicht auf Langlebigkeit bestenfalls mangelhaft der Menge nach und somit enttaeuschend ausgefallen ist (das ist fuer mich persoenlich der groesste Kritikpunkt an den RTX Karten bleibt in Verbindung mit dem insgesamt ziemlich durchwachsenen Preis-Leistungs-Verhaeltnis, das RT-Raytracing Nischen-Feature ist das eigentlich trotz der Praesentation/des Hypes fuer mich persoenlich aktuell wenig bis gar nicht relevant).

Allerdings wuerde ich mich nicht so weit aus dem Fenster haengen Micron Speicher generell als schlechter als Samsung oder SK Hynix Speicher fuer Grafikkarten oder speziell fuer die kommenden RTX Karten anzusehen.

Dazu reicht zugegebenermassen mein Wissensstand seit Anbeginn der GPU-Entwicklung nicht aus, um das generell einschaetzen zu koennen und auch wenn den Spezifikationen nach Samsung und SK Hynix natuerlich die leistungsfaehigeren GDDR6 Produkte aktuell als Micron zu haben scheinen, ist eine bessere Uebertaktbarkeit ohne entlarvende Tests noch nicht gesichert.

Es ist gut moeglich, dass Micron da im kommenden Jahr spezifikationstechnisch noch aufholen wird gegenueber den beiden grossen suedkoreanischen Speicherherstellern, zumal sie mit GDDR5X ja auch eine Zeit lang vor der Konkurrenz lagen und als letzter, groesserer nicht-asiatischer Speicherhersteller schon einiges auf dem Kasten haben muessen, um in dem Geschaeft noch mithalten zu koennen.

So, das war es von mir dazu in diesem Thread ... ein schoenes Wochenende wuensche ich noch allerseits ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartcom5 und stevefrogs
@Chismon

Von den Ausführungen, die Du von mir zitiert hast kann ich leider aufgrund deren Wahrheitsgehaltes, der zudem niemanden persönlich ins Gebet nimmt, keinen Abstand nehmen. Denn genau so drastisch sehe (nicht nur) ich das hier inzwischen. Auch die Wortwahl ist bezüglich des Zirkuses, der hier teilweise veranstaltet wird, in Ordnung.

Aufgrund Offtopic werde ich hier nicht anfangen, Deinen Post zu zerpflücken. Zudem verstehe ich nicht, warum Du Deine Kritik an meinem Auftreten, welches nun mal rein garnichts mit dem Thema oder entferntesten mit Technik zu tun hat, nicht an mich per PN schickst. Must keine Angst haben.
Werde in meinem Umkreis als durchaus angenehmer Zeitgenosse gesehen, der auch mit Kritik umgehen kann.
Auch hier gilt - Der Ton macht die Musik.

Somit die Bitte an die Moderation beide Posts (meinen und seinen) dorthin zu versenken, wo er hingehört.

Abschließend zum Rest. Ich heiße die wachsende Respektlosigkeit und das immer weiter gesteigerte egozentrische Verhalten gepaart mit persönlichen Angriffen, welches in den Foren aufgrund von Anonymität zelebriert wird inzwischen für unerträglich.

Gut möglich, dass es hier gewollt ist, dass es ohne technischen Inhalt und oftmals auf persönlicher Ebene hoch hergeht. Darüber habe ich noch garnicht nachgedacht.
Du wirst aber feststellen, dass zumindest meine Posts ausnahmslos einen technischen Bezug haben und diesen immer mit Praxisbeispielen, Links etc. unterfüttert werden.

Mag sein, dass ich dann das Forum meiden muss. Kostes schliesslich auch eine Menge Zeit neue Aspekte aufzuzeigen und gegen einseitiges Gebashe eine Alternativsichtweise anzubieten.

Mir tuts leid um ein Forum großer Reichweite, das durchaus einige vernünftige Köpfe als Mitglieder zählt. Leider gehen diese in der Masse an Müll, Gebashe und Geheule unter.

Da tut mir wiederum die Moderation leid, die ja auch von Dir indirekt angegriffen wird, da die eigentlich den ganzen Tag nichts anderes zu tun hätten als Kommentare zu löschen. Auf freiwilliger Basis mit hohem Zeiteinsatz. Die müssen sich diesen ganzen Müll und die Kleinkriege tagtäglich zu Gemüte führen.

Zudem tuts mir leid um die Mitglieder, die hier tatsächlich versuchen sich zu informieren oder neue Sichtweisen zu gewissen Themen zu erhalten. Die werden aber nach Seite 3 des inhaltslosen Gejammers und Geheules entnervt die Flucht ergreifen und nehmen beim Thema RT aus diesem Forum mit, dass diese Technik dazu da ist bei 1080FPS die Framezahl unter 60FPS zu drücken, nur um korrekte Spiegelungen in Pfützen sehen zu können. Findest Du das lustig, informativ, sinnvoll oder gar richtig? Sei mal ehrlich....

Wenn Du das, was hier teilweise ins Forum abgelassen wird für gut heisst, dann ist das in Ordnung.
Viele sind inzwischen nur noch genervt davon (und ja- ich stehe mit diversen Usern in Kontakt, die mich immer wieder fragen, warum ich mir das hier überhaupt antue)

p.S. Es geht hier um Technik. Dafür lohnt es sich garnicht erst Kriegsbeile auszugraben ;)
Deswegen wird bei mir auch nie jemand auf einer "Ignore- Liste" landen.
SInd nämlich mit sicherheit alles kommode Kerle (Mädels?) hier, wenn man sie privat auf ein Bierchen treffen würde. Die Anonymität lässt hier aber einige die Etikette vergessen.

Blub
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CBL
Es sind immer noch nur Grafikkarten. Und es ist immer noch nur unser Hobby.

Jeder hat halt seine teils irrationelle Vorlieben.

Ich mag Nvidia als Marke gerade auch nicht besonders, finde aber die Enwicklung von Hybrid Raytracing das Aufregendsde was sich seit langem getan hat. Auch wenn es mir persönlich noch zu teuer ist. Ich hab auch Oculus Rift DK1 & 2 gekauft, obwohl early adopter und so. Jeder wie er will.
 
  • Gefällt mir
Reaktionen: .Sentinel.
@Sun-Berg
Ich dachte auch, dass VR die Zukunft ist und hab damals die Vive vorbestellt. Die Brille habe ich vor 2 Wochen für 450 Euro wieder verkauft, weil die Spiele dafür sich immernoch wie Demos anfühlen. Ich habe draus gelernt und werde nie mehr teure Hardware vorbestellen und schon garnicht ohne vorher Tests gelesen zu haben. Lederjackensprüche wie "It Just Works" funktionieren bei mir einfach nicht. Die Entwickler von BF5 sind hier wahrscheinlich auch meiner Meinung. :D
RT halte ich nicht für einen Gamechanger, wie ich es bei VR gedacht habe. Inzwischen glaube ich, dass ich in den nächsten paar Jahren sehr gut drauf verzichten kann.

Zur News: Noch ein Eintrag auf der Kontra Seite der Turing Pro/Kon Liste. Wenn die Tests am 17. und 19. nicht liefern, dann ist die Pro Seite so ziemlich leer.
 
CBL schrieb:
@Sun-Berg
Ich dachte auch, dass VR die Zukunft ist und hab damals die Vive vorbestellt. Die Brille habe ich vor 2 Wochen für 450 Euro wieder verkauft, weil die Spiele dafür sich immernoch wie Demos anfühlen.
Ist verständlich, wenn man sich ansieht wieviel Schund und unausgereiftes Zeug für VR den Steamshop überschwemmt. Da gehen die Perlen unter. Da ist meine Hoffnung, dass z.B. die nächsten Bethesda Rollenspiele mit "VR in mind" auf den Markt kommen bzw. sich mal irgendjemand erbarmt sowas wie die guten alten Point+Click Adventures mal für VR umsetzt. So etwas denke ich ist ideal für eine Umsetzung für VR.

Ich habe draus gelernt und werde nie mehr teure Hardware vorbestellen und schon garnicht ohne vorher Tests gelesen zu haben.
Ist ja auch logisch. Kein Hersteller hält durchgängig die Qualität seiner Produkte. Ein unabhängiger Test ist die Versicherung, dass die sauer verdiente Investition dort ankommt, wo sie sinnvoll ist. Ich habe diese vorbestell- Manie noch nie verstanden. Warum die Katze im Sack kaufen?

Lederjackensprüche wie "It Just Works" funktionieren bei mir einfach nicht. Die Entwickler von BF5 sind hier wahrscheinlich auch meiner Meinung. :D
Ich denke mal, dass "Lederjacke", wie er liebevoll genannt wird (habe ich zuvor gelernt), damit eher meinte, wie weit die Technik einem Entwickler und den Engine- Programmierern das Leben erleichtern kann. Durch das Festlegen von Parametern einer Szene, wie sie heutzutage durch physically based rendering eh schon festgelegt werden, wird durch RT automatisch und ohne zig Shader Tricks und Renderpasses eine perfekt beleuchtete, verspiegelte und verschattete Szene.
Das ermöglicht es den Entwicklern sich wieder auf das Wesentliche nämlich die Qualität der Assets und des Art- Styles zu konzentrieren. (Gott wie ich diese Anglizismen hasse)

RT halte ich nicht für einen Gamechanger, wie ich es bei VR gedacht habe. Inzwischen glaube ich, dass ich in den nächsten paar Jahren sehr gut drauf verzichten kann.
Ein Gamechanger im Spielebereich sind solche Techniken nie. Sie können zwar zusätzlich Glaubwürdigkeit und Atmosphäre ins Spiel zaubern, aber ein schlechtes Spiel bleibt ein schlechtes Spiel.
Ein Gamechanger in der Qualität der dargestellten Szene und vor allem bezüglich des Potenzials der Geschwindigkeitssteigerung kann es hingegen schon sein.

Grüße
Zero
 
Smartcom5 schrieb:
Na, das bedeutet ja dann wohl, daß die gesamte RTX-Generation de facto Null OC-Potenzial bieten wird – wie es ja schon der Launch der GTX 1070 damals gezeigt hat. Damals gab's ja bei den Modellen mit Speicher von Micron auch keine große Luft zur Übertaktung.

Schon seinerzeit bot der Micron-Speicher gegenüber den mit Speicher von Samsung bestückten Modellen praktisch nicht vorhandenes Übertaktungspotential, während solcher von Samsung teils massiv übertaktet werden konnte.

Die RTX-Generation glänzt hier wirklich!
  • RT-Funktionen praktisch obsolet (kein Mehrwert/leistungshungrig)
  • Kaum vorhandene Mehrleistung zur Vorserie GTX 10x0
  • Durch Micron-Chips sehr wahrscheinlich kein OC-Potential
  • Vollkommen überüberteuerte Wucher-Preise
  • Marketing um das alles zu rechtfertigen ✔✔
Das Einzige, womit die RTX-Karten im Moment glänzen, ist grandioses Marketing – um auch noch den größten Quatsch zu vollkommen überzogenen Taxen an den Spieler zu bringen …


In diesem Sinne

Smartcom

Und jetzt....wie erwartet, komplett lachhafter Beitrag Deinerseits, back Dir ein Brötchen:

"
Die TU104-GPU auf der GeForce RTX 2080 lässt ein Plus von 102 MHz zu, bevor die Grafikkarte abstürzt. In Spielen beträgt der anliegende Takt dann etwa 2.000 MHz. Damit zeigt der TU104 kein besseres Taktverhalten als der Pascal-Vorgänger GP104. Deutlich besser lässt sich der acht Gigabyte große GDDR6-Speicher übertakten. Bis hin zu zusätzlichen 1.000 MHz gibt es keine Probleme. Der Takt beträgt dann 8.000 MHz.
Auch bei der RTX 2080 Ti werden die 2.000 MHz erreicht
Die TU102-GPU auf der GeForce RTX 2080 Ti reagiert etwas besser. Ein Plus von 150 MHz sind stabil möglich. In Spielen werden damit die 2.000 MHz oft erreicht, aber nicht überschritten. Damit lässt sich sagen, dass Turing offenbar dieselben Taktraten wie Pascal erreicht. Auf der einen Seite ist das zwar keine Verbesserung. Es muss aber bedacht werden, dass die GPUs auch deutlich größer sind und die maximale Taktrate darunter offenbar nicht leidet. Auf dem Flaggschiff macht der GDDR6-Speicher ein Plus von immer noch sehr guten 916 MHz mit, was in 6.916 MHz resultiert.
"

Und jetzt komm mir bloß nicht mit Deinem "sehr wahrscheinlich". Du hast gesagt, dass sich Micron Speicher schlecht übertakten lässt, was kompletter Bullshit ist, zumindest bei GDDR6, aber gut, das würdest Du eh nie zugeben.
 
@t3chn0

Würdest du seine Postings auch nur im Ansatz verstehen, würdest du so einen Stuss nicht von dir geben. Die Annahme mit Micron Speicher beruhte auf den üblichen Erfahrungswerten. Und war bis heute dato auch genau so gültig. Micron Speicher lässt sich bei Pascal eben kaum übertakten und sorgt früh für Artefakte. Hier muss man dann auch erstmal abwarten wie die Serienstreuung ist. Wäre ja nicht das erste mal das CB nur Golden Samples hatte und bei den Leuten dann mit OC Pustekuchen war.
 
  • Gefällt mir
Reaktionen: Smartcom5
t3chn0 schrieb:
Und jetzt komm mir bloß nicht mit Deinem "sehr wahrscheinlich". Du hast gesagt, dass sich Micron Speicher schlecht übertakten lässt, was kompletter Bullshit ist, zumindest bei GDDR6, aber gut, das würdest Du eh nie zugeben.
Hast Du überhaupt eine Ahnung, auf was sich der entsprechende Samsung-Speicher übertakten ließ?! Offensichtlich nein, ansonsten würdest Du deine Unwissenheit nicht so prominent herausposauenen … Man hat mit Samsung-Speicher selbst damals schon deutlich höhere Takte fahren können als jetzt mit Turing.

Turing schafft ziemlich exakt bloß jene Taktraten, die man von dem Micron-Speicher hätte erwarten können. Abgesehen davon sprach auch Niemand jemals über Core-Takt, sondern es ging immer nur um Speicher-OC.
Ergänzung ()

Smartcom5 schrieb:
t3chn0 schrieb:
Du vergleichst GDDR5 mit GDDR6, Du kannst also überhaupt gar keine Auskunft darüber geben in wie weit sich der Speicher übertakten lässt. Ob ein Speicher OC überhaupt Sinn macht bei Turing kannst Du auch nicht wissen.
Nein, tue ich nicht. Lese bitte und informiere Dich.
Ich habe Parallelen gezogen, mit der Vergangenheit. Wer sagt denn, daß dies diesmal nicht auch der Fall sein wird? Geschichte ändert sich nicht, sie wiederholt sich. Abgesehen davon legen die Spezifikationen, welche Micron hat durchblicken lassen, schon nahe, daß sie dort ebenfalls hinter Samsung zurückstecken.

Micron ist nun einmal notorisch dafür bekannt, daß – selbst wenn sie immer wieder neueste Technologien befürworten und auch selbst diese bringen – sie oftmals einfach ein deutlich weniger glückliches Händchen mit solchen Dingen haben, als es Samsung fähig ist in die Produkte wandern zu lassen. Da fehlt es ihnen einfach an der Expertise, auch wenn die Ambitionen zu Neuem durchaus vorhanden sind.

Samsung schafft da einfach höheren Durchsatz, warum soll keine Rolle spielen – es ändert an den Fakten nichts …
Samsungs GDDR6 haben mit 16 Gigabit pro Chip einen Durchsatz von 18 Gb/s, Micron kommt bloß auf 8 Gigabit bei 14 Gb/s – peilt allerdings für nächstes Jahr ebenfalls 18 Gb/s an.
Ziemlich sicher aber werden auf sämtlichen RTX-Karten erst einmal die deutlich langsameren [Micron-] Bausteine mit 14 Gb/s sein. Selbst SK-Hynix wird sehr bald 18 Gb/s haben.
Soviel zum Thema 'keine Ahnung' und meinem „sehr wahrscheinlich kein OC-Potential“ bei Micron-Speicher.

Smartcom5 schrieb:

Die RTX-Generation glänzt hier wirklich!
  • RT-Funktionen praktisch obsolet (kein Mehrwert/leistungshungrig) ← Mehrverbrauch ist eingetroffen.
  • Kaum vorhandene Mehrleistung zur Vorserie GTX 10x0 ← die 6% zur 2080 …
  • Durch Micron-Chips sehr wahrscheinlich kein OC-Potential ← Mhm …
  • Vollkommen überüberteuerte Wucher-Preise ← Mhm!
  • Marketing um das alles zu rechtfertigen ✔✔ ← Mhm!
Das Einzige, womit die RTX-Karten im Moment glänzen, ist grandioses Marketing – um auch noch den größten Quatsch zu vollkommen überzogenen Taxen an den Spieler zu bringen …
Und soviel zum Thema Brötchen …


In diesem Sinne

Smartcom
 
Zuletzt bearbeitet:
Juckt mich nicht die Bohne um ehrlich zu sein.

Dein Eingangspost war eine Verallgemeinerung der ich direkt vehement widersprochen habe.

Ja, die 1070 mit Micron Speicher ließ sich deutlicher schlechter übertakten als die mit Samsung Speicher und jetzt?

Dieses Wissen hatte jeder, der sich in den letzten 4 Jahren auch nur halbwegs mit GPUs auseinandergesetzt hat.

Warum man deshalb Micron unter Generalverdacht stellt, ist absolut lächerlich.

Fakt ist, der Micron GDDR6 lässt sich sehr gut übertakten und es juckt rein gar nicht was mit Samsung hätte gehen können, da es reine Spekulation von Dir ist und Du immer Recht haben willst, so einfach ^^.

Schönen Tag noch :)
 
t3chn0 schrieb:

Warum man deshalb Micron unter Generalverdacht stellt, ist absolut lächerlich.

Fakt ist, der Micron GDDR6 lässt sich sehr gut übertakten und es juckt rein gar nicht was mit Samsung hätte gehen können, da es reine Spekulation von Dir ist und Du immer Recht haben willst, so einfach ^^.
Vielleicht weil ich's schlüssig aufgrund der Leistungsdaten aufgezeigt – und ich mich zuvor informiert habe?
Samsung's GDDR6 hat bei 16 Gigabit pro Chip einen Durchsatz von 18 Gb/s, Micron kommt bloß auf 8 Gigabit bei 14 Gb/s. Ich schickte ebenso vorraus „ziemlich sicher aber werden auf sämtlichen RTX-Karten erst einmal die deutlich langsameren Micron-] Bausteine mit 14 Gb/s sein.“. Ist das nicht ebenso eingetreten?


In diesem Sinne

Smartcom
 
Smartcom5 schrieb:
und ich mich zuvor informiert habe?
Samsung's GDDR6 hat bei 16 Gigabit pro Chip einen Durchsatz von 18 Gb/s, Micron kommt bloß auf 8 Gigabit bei 14 Gb/s.

Wenn du dich vorher "informiert" hättest, würdest du keinen solchen Unsinn erzählen.
1537370589456.png

https://www.samsung.com/semiconductor/dram/gddr6/

1537370749613.png

https://www.micron.com/products/dram/gddr/gddr6-part-catalog#/

Samsung hat den schnelleren 8gb Speicher, ist aber auch der einzige Hersteller derzeit der 16gb Speicher liefern kann, allerdings ist dieser keine 18Gb/s schnell.

Ja man hätte sich komplett von Samsung abhängig machen können wegen 2Gb/s pro Chip, hat man aber nicht und konnte vermutlich so gute Konditionen aushandeln. Am Ende betrifft es sowieso nur die Karten von Nvidia und die Partner können noch immer zu Samsung greifen.

Ich finde die neuen Chips von Micron, die zwar etwas langsamer sind, aber mit 1,25V laufen und höhere Temperaturen vertragen fast schon interessanter.
 
Zuletzt bearbeitet:
Das ist doch vollkommen irrelevant. Samsung hat bei verschiedenen Halbleiterprozessen die Nase vorn. Natürlich hätte man auch Samsung Speicher, oder HBM2, oder was auch immer verwenden können.

Hat man aber nicht. Mir geht es einzig und alleine um Deine Aussage das sich Micron Speicher schlecht bis gar nicht übertakten lässt und das stimmt einfach nicht.
 
Zurück
Oben