News GDDR6: GeForce RTX mit Micron, Quadro RTX mit Samsung

eselwald schrieb:
Und die Entwickler von Dice hatten ja auch schon richtig Zeit sich mit RT auseinander zu setzen und stehen nicht gerade erst am Anfang

Da hast du Recht. Da Nvidia da seit 10 Jahren dran arbeitet (it just works!) , haben sie clevererweise dice vor spätestens 2 Jahren ins Boot geholt.
 
@Alphanerd
Ein Armutszeugnis für Dice.

https://wccftech.com/gaijin-impressed-nvidia-rtx-performance/

Yudintsev said that the developers have integrated NVIDIA RTX into their real-time Global Illumination solution and it’s running at 4K with over 90 frames per second on average. They’re ‘super impressed’ with the NVIDIA RTX ray tracing performance while using Vulkan, especially since they’ve only had the development hardware for three days of work.

Die schaffens also in 3 Tagen. Nur halt in performant....
 
borizb schrieb:
Nach all den Artikeln über Smartwatches, Handys und andere ARM/Android
Storys finde ich es schön, wieder mal näher an klassicher PC Hardware zu sein.

Negativ finde ich im ansonst guten Artikel


in der Tabelle. Heise schreibt

Also ohne diese "spöttischen" Anführungszeichen. Der Redakteur scheint das
irgendwie nicht als echte Maßeinheit wahrzunehmen und hält das für nen Gag.
Jedenfalls wirkt das auf mich so.
Raytracing in Gigarays/s anzugeben ist nach meinem Dafürhalten aber die
seriöseste bekannte Maßeinheit und für mich zumindest in der Relation der
3 RTX Karten zueinander relevant. Wenn man das bitte noch ändern könnte.
Das ist keine festehende Größe sondern eine Marketing Eigenkreation. Könnte auch Megapfurts/min heißen. Seriöser wird es allein durch die Schreibweise nicht. Es fehlt auch schlicht eine Referenz- oder Bezugsgröße um das Ganze einzuordnen. Warten wir mal den Fall des NDAs und echte Tests ab.
 
ZeroZerp schrieb:
Die schaffens also in 3 Tagen. Nur halt in performant....

Die nutzen ja auch die "wichtigen" RT Effekte nicht, sondern lediglich die Beleuchtung, die dazu auch nichtmal besser aussieht als die üblichen Raster-Methoden.
 
  • Gefällt mir
Reaktionen: FeelsGoodManJPG und Smartcom5
Aldaric87 schrieb:
Die nutzen ja auch die "wichtigen" RT Effekte nicht, sondern lediglich die Beleuchtung, die dazu auch nichtmal besser aussieht als die üblichen Raster-Methoden.
Das rührt daher, dass die "üblichen" Rastermethoden, die bei den seltenen Spielen mit dynamischer GI auch mit Raytracing- ähnlichen Ansätzen arbeiten.

Wieso sollen die denn deutlich schlechter aussehen, außer dass es wahrscheinlich nicht so akkurat und mit einer ähnlichen Anzahl an Bounces berechnet wird?
Man geht bei den heute verwandten Verfahren über Voxel oder analog in der Rasterisierung einem Strahlenbaum (cone) ähnlich der sonst verwendeten Light- Probes nur in einer Wolke (ersteres ist natürlich schon deutlich akkurater).

Ich dachte immer, dass hier der Kritikpunkt ist, dass die Karte keine Leistung zeigt. Jetzt lagert man die bezüglich Rechenzeit "sehr teure" GI auf die Kerne aus, wuppt entspannt 110-120FPS auf 4K und jetzt ist das auf einmal nicht "wichtig", weil es der "falsche" Effekt ist?

Man sieht wieder- Man kanns keinem recht machen.

Viele setzen hier offenbar Raytracing lapidar mit Spiegelungen und Pfützen gleich. Dann ists mir schon klar, warum das Potenzial auch in Sachen Geschwindigkeitssteigerung nicht erkannt wird.

Grüße
Zero
 
  • Gefällt mir
Reaktionen: ZeusTheGod
Nein, du spekulierst das die FPS so hoch sind dank RT und nimmst es immer wieder als "Beweis" das RT absolut sinnvoll ist.

Diese Annahme ist ohne einen Gegentest (ohne RT) nur eine Annahme deinerseits, aber trotzdem stellst du es als Fakt hin, dass nur die Entwickler schuld sind bei der schlechten Performance mit RT in anderen Titeln.
 
  • Gefällt mir
Reaktionen: Smartcom5
Smartcom5 schrieb:
Die RTX-Generation glänzt hier wirklich!
  • RT-Funktionen praktisch obsolet (kein Mehrwert/leistungshungrig)
  • Kaum vorhandene Mehrleistung zur Vorserie GTX 10x0
  • Durch Micron-Chips sehr wahrscheinlich kein OC-Potential
  • Vollkommen überüberteuerte Wucher-Preise
  • Marketing um das alles zu rechtfertigen ✔✔
Das Einzige, womit die RTX-Karten im Moment glänzen, ist grandioses Marketing ...
Nein.
Sie glänzen vor allem durch das Fehlen von Alternativen.

Ich brauche so langsam echt ne neue Karte.
Hätte mir wohl ne 1080 Ti geholt, wenn dieser Mining-Bullshit die Preise nicht in den Himmel getrieben hätte.

Nun ist endlich die nächste Generation raus, und das Preis/Leistungs-Verhältnis ist noch beschissener, und das bei kaum vorhandener Mehrleistung.

AMD-Chips gibt's erst nächstes Jahr.
Und ob diese dann ENDLICH mal den Markt aufrütteln, steht völlig in den Sternen.
Hab eigentlich keinen Bock mehr auf NVidia und bin daher fast bereit, noch länger zu warten und bis dahin halt mit hässlichen 1080p und Mid-Details (GTX 960) weiter zu zocken.
Aber ich habe jetzt schon son Bauchgefühl, daß das mit AMD wieder die totale Enttäuschung werden wird.
 
Aldaric87 schrieb:
Nein, du spekulierst das die FPS so hoch sind dank RT und nimmst es immer wieder als "Beweis" das RT absolut sinnvoll ist.
Und Du spekulierst mit einigen anderen, dass man RT nur so einsetzen kann, dass man bei 1080P mit 40FPS rumgurkt und froh sein kann, wenn es mal an die 60FPS hinschnuppert.

Diese Annahme ist ohne einen Gegentest (ohne RT) nur eine Annahm deinerseits, aber trotzdem stellst du es als Fakt hin, dass nur die Entwickler schuld sind bei der schlechten Performance mit RT.
Diese Annahme basiert auf den Tests der Spiele die eine volldynamische Globale Illumination verwenden (wie z.B. Kingdom Come bzw. VXGI ähnlich) oder einen Teilaspekt (z.B. VXAO).
Dann schau mal, ob Du einen Titel in 4K auch nur im entferntesten an die Performance des Gaijin Titels rankriegst.

Zudem kannst Du ja mal beobachten, was der Framecounter links oben bei der Präsentation macht, wenn vom RT Beleuchtungsmodell auf den Standard geschalten wird.
Da verliert die Engine sogar noch 1 FPS.

Kann man wiederum negativ sehen (Effekt wird weiterhin berechnet und die Ausblendung kostet das FPS) oder positiv (Trotz der deutlich besseren Beleuchtung gewinnt die Engine sogar noch an Performance durch RT).

Immer eine Frage wie man es sehen will. Und die Mehrzahl der Leute will RTX aufgrund des Preises scheitern sehen....
Das hat nichts mit den Features oder der Leistung zu tun.
Die meisten haben nur Angst, dass ein Preisruck nach oben durchgeführt wird und man sozusagen von diversen "Klassen" abgehängt wird. Oder einfach, weil man für den Fortschritt grundsätzlich einfach mal wieder mehr Geld in die Hand nehmen muss.
Das ist man in der IT einfach nicht mehr gewohnt. War aber früher in Zeiten der großen Innovationen Usus. Das hat man aber nun nach den vielen Jahren des technischen Stillstands einfach vergessen.

Heutzutage redet man von Investitionssicherheit, davon das das System 5 Jahre halten muss etc.
Wenn man vor 15 Jahren mit solchen Sprüchen gekommen wäre, hätten sie einen in der Zwangsjacke abgeführt. Da merkt man wie verwöhnt wir bis jetzt durch den einfach zu erzielenden Fortschritt mit den immergleichen Mitteln sind....

nVidia ist nicht blöd. Die hätten bestimmt gerne weiter so gemacht und mit wenig Aufwand (Strukturverkleinerung, ein par mehr Shader hier und ein par mehr ROPs da) neue schnellere Produkte an den Mann gebracht.
Offenbar funktioniert das künftig nicht mehr bzw. man steht an einer Grenze, die das (vielleicht auch aus wirtschaftlichen Beweggründen) verhindert, so dass man andere Wege geht bzw. gehen muss.

Ich bin froh um jeden großen Fortschritt. Die Rasterengines sind am Ende und werden immer ineffektiver bzw. bedienen sich sowieso raytracing ähnlicher Mittel um noch irgendwie voran zu kommen.
Warum dann nicht gleich richtig machen und den Zukunftsweg einschlagen. Alle wollen parallelisierbare Engines. Mit Raytracing kriegt ihr davon das Maximum.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: t3chn0, DaniLt und ZeusTheGod
ZeroZerp schrieb:
Wo wurde das gezeigt?
Wieso soll das das Maximum sein, wenn die per Core Performance schon um 50% steigt?
Ach, tut sie das?! Hast Du da belastbare Fakten, oder …?

Da kann ich‘s nur zurückgeben;
Wie oft denn noch? Wieso stellst Du das Lesen aus geworfenen Hühnerknochen als Fakt dar?
Was gewinnst Du eigentlich dadurch, dass Du das Produkt laufend durch den Tümpel ziehst in den Himmel lobst?


Deine +50% Mehrperformance kommen direkt aus der Marketing-Abteilung von nVidia …
NVIDIA-Turing-vs-Pascal-Shader-Performance-1030x527.jpg

Synthetisch, im Benchmark. Das ist in aller Regel das genaue Gegenteil von +50 Avg. in der Praxis! So wie Du es hier darstellst. Dabei muß man auch noch immer davon ausgehen, daß sie diese Daten mit Referenz-10x0-Karten vergleichen. Immer schön bei der Wahrheit bleiben, mein Lieber …


In diesem Sinne

Smartcom
 
Smartcom5 schrieb:
Synthetisch, im Benchmark. Das ist in aller Regel das genaue Gegenteil von +50 Avg. in der Praxis! So wie Du es hier darstellst. Dabei muß man auch noch immer davon ausgehen, daß sie diese Daten mit Referenz-10x0-Karten vergleichen. Immer schön bei der Wahrheit bleiben, mein Lieber …

Die Bezugsgröße ist fest, wenn Du noch einmal genau hinsiehst.

Die Steigerung ist PER CORE bei gleichem Takt, was aus der Präsentation hervorgeht. Es ist also vollkommen unerheblich welche Karte der Pascal Reihe zum Test auserkoren wurde.

Und dass Du aufgrund dessen, dass von 7 getesteten Benchmarks genau 2 Stück aus synthetischen Benchmarks bestehen (die dennoch auf realen Rasterengines aufbauen und somit nicht "richtig" synthetisch sind) daraus "alles synthetisch" zauberst, zeigt ja, dass Dir kein noch so abwegiges "Argument" zu schade ist, nur um noch ein wenig Mist an Turing zu verteilen.

Ich ziehe aus meinen fortwährenden Richtigstellungen nur die Hoffnung, dass jemand der in einem Technikforum an neuer Technik interessiert ist, trotz der vielen Schreihälse auch eine andere Sichtweise erhält und nicht nur den undifferenzierten, einseitig negativen (obwohl auf Schätzungen beruhenden) Shitstorm anheim fällt.

Das wird nämlich echt zur Krankheit hier, jedwede Innovation im Keim ersticken zu wollen, nur weil man PERSÖNLICH keinen Nutzen darin erkennen kann oder einem der Preis nicht passt (das tut er fast nie, weil man immer alles kostenlos will).

Schneller RAM - Mist
X-Point - Mist
VR - Mist
3D - Mist
PhysX - Mist
RT - Mist
Tesselation - Mist
Hairworks - Mist

Ich kann das einfach nicht verstehen. Dann bleibt doch einfach bei Euren "alten" Sachen, die jetzt von der von Euch beschimpften Firma sogar noch im Preis gesenkt werden.
Ihr müsst doch nicht mitziehen und die alte Hardware wird nicht schlechter, weil man nicht wechselt.

Wenn Ihr die neue Technik als grottig empfindet, dann verpasst Ihr genau 0, nichts, nada!
Und Ihr habt sogar ne Menge Geld gespart und es der Firma richtig gezeigt!
Ihr könnt zu nichts gezwungen werden und mit Eurem Geldbeutel abstimmen.

Du willst kein RT, dann kauf Dir keine RT Karte.
Dir ist die Leistungssteigerung zu gering, dann kauf Dir keine neue Karte.

Wo GENAU liegt also das Problem?
Vielleicht die Angst, dass es dann doch cool werden könnte und man dadurch vielleicht etwas verpasst?
Nach dem Motto wenn ich es nicht brauche/kriege, dann keiner?

Der Ärger darüber, dass man sich in schillerndsten Farben ausgemalt hat, wie man sich für 700€ eine 2080 GTX kauft, die dann einfach in allem 60% schneller ist und das jetzt nicht so läuft?

Das sind Verhaltensmuster von 5 Jährigen, die wütend mit dem Fuß aufstampfen und "ich will aber" schreien. "Und wenn ich es nicht kriege, oder es mir nicht passt, dann mach ich es kaputt".

Das sind krankhafte Auswüchse einer Konsumgesellschaft, die sich allein schon durch ein simples Angebot hintergangen, verarscht und betrogen fühlt und dem Anbieter die Pest an den Hals wünscht.

Lasst die Euch verhasste Generation einfach aus und gut ist es!
Und vor allem - Verschwendet Eure Lebenszeit nicht damit, sich mit den Verhassten Produkten immer und immer wieder im Forum auseinandersetzen zu müssen. Dafür ist sie zu wertvoll.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: t3chn0, DaniLt, FeelsGoodManJPG und 2 andere
Samsung wird die Pleite mit der RTX auch nicht meh retten können.
 
  • Gefällt mir
Reaktionen: Smartcom5
Bezüglich Micron Speicher auf der 1070,1080, 1080TI und RX480 kann ich mich nicht beschweren.
So war bei jeder Karte mindestens 400MHz mehr drin. Ohne Leistungsverlust und ohne Grafikfehler.

Ich würde das ganze nicht so pauschalisieren.
 
Smartcom5 schrieb:
Na, das bedeutet ja dann wohl, daß die gesamte RTX-Generation de facto Null OC-Potenzial bieten wird – wie es ja schon der Launch der GTX 1070 damals gezeigt hat. Damals gab's ja bei den Modellen mit Speicher von Micron auch keine große Luft zur Übertaktung.

Wat? Der Micron Speicher geht sehr gut. Hab meine 1080 von 5000MHz auf 5700Mhz geprügelt. Das ist wenig?

Scythe1988 schrieb:
Speicher OC bringt weder auf Grakas, noch auf Mainboards etwas.....und bitte bitte sucht jetzt nicht den einen Artikel wo in Anwendung xy bei Aktion yz 10% Vorteil beschrieben sind, das halte ich für überaus lächerlich.

Speicher OC bringt bei Pascal mehr als GPU OC nur mal so nebenbei.
 
Scythe1988 schrieb:
Speicher OC bringt weder auf Grakas, noch auf Mainboards etwas.....
Also auf meiner 980 Ti bringt Speicher-OC sogar mehr fps als Chip-OC :D
Und mein Speicher-OC auf dem Ryzen bringt ebenfalls fast 10% mehr fps.
Und der Speicher-OC bei meiner APU bringt nochmals um die 20% im Schnitt.

So wenig bringt Speicher-OC jetzt nicht, zumindest nicht in meinem Fall und in meinen Games (Action, RPG, Open World Games)...
 
ZeroZerp schrieb:
Und dass Du aufgrund dessen, dass von 7 getesteten Systemen genau 2 Stück aus synthetischen Benchmarks bestehen (die dennoch auf realen Rasterengines aufbauen und somit nicht "richtig" synthetisch sind) daraus "alles synthetisch" zaubert, zeigt ja, dass Dir kein noch so abwegiges "Argument" zu schade ist, nur um noch ein wenig Mist an Turing zu verteilen.
Das tue ich überhaupt nicht, da nVidia das bereits (für Dich/mich) getan hat …
Aber das übersiehst Du hier ja einmal mehr absichtlich, wie ich annehmen muß. Folgerichtig beziehen sich die von Dir erwähnten +50% (worauf ich wiederum einging) lediglich erstens auf den Best-case und zweitens ist dieser Sprung von +50% lediglich – selbst laut nVidia (sic!) – bei einem (1!) synthetischen Benchmark der Fall und nicht, wie Du krampfhaft zu suggerieren suchst, bei einem Spiel oder drittens gar generell im Mittel über alle Spiele hinweg.

Deine Art und Weise mir hier unlautere Vergleiche an zu stellen, ist schon wirklich ein starkes Stück. Ernsthaft Zero!
Du bringst ein Argument, untermauerst es mit vermeintlichen Fakten (es gibt diese nicht, da geschönte Benchmarks vom Hersteller! Hersteller eigene Benchmarks sind immer getürkt; Null Hintergrundinformationen bezüglich System et cetera), ich gehe darauf ein und Du unterstellst mir hier, daß ich mir die schlechtesten Ergebnisse heraussuche? Darf ich hier mal ganz herzlich lachen mein Lieber?!

ZeroZerp schrieb:
Ich ziehe aus meinen fortwährenden Richtigstellungen Beobachtungen nur die Hoffnung, dass jemand der in einem Technikforum an neuer Technik interessiert ist, trotz der vielen Schreihälse Blendwerke auch eine andere Sichtweise erhält und nicht nur den undifferenzierten, durchweg negativen positiven (obwohl auf Schätzungen beruhenden) Shitstorm Propaganda anheim fällt.

Das wird nämlich echt zur Krankheit hier, jedwede Innovation Marketing-Trick im Keim ersticken kritisieren (i.S.V beurteilen) zu wollen, nur weil man PERSÖNLICH keinen Nutzen darin erkennen kann.
Da darf ich nur deutlich daran appelieren, dir einmal selbst an die eigene Nase zu fassen …

ZeroZerp schrieb:
Schneller RAM - Mist
X-Point - Mist
VR - Mist
3D - Mist
PhysX - Mist
RT - Mist
Tesselation - Mist
Hairworks - Mist
Schneller RAM - Mist Stimmt.
Nur weil hier 1 Person im Thema die Behauptung aufgestellt hat, daß ein OC des VRam keine Mehrleistung bringt, entspricht das noch lange nicht den Tatsachen. Insbesondere die GTX 1070 profitiert teils massiv von Memory-OC.

Das Andere Thema bezüglich Micron habe ich ja aufgrund der Fakten dargelegt – da ist Micron nun einmal bloß 2. Wahl und bietet bei Weitem nicht den OC-Spielraum wie Speicher von Samsung. Bestreitest Du das?

X-Point - Mist Stimmt.
VR - Mist Stimmt.
3D - Mist Stimmt.
Alle drei Schlüsseltechnologien haben dem Endanwender keinen wirklichen Mehrwert gebracht – außer teurere Produkte. Ist das auch von der Hand zu weisen?

PhysX - Mist Stimmt.
RT - Mist Stimmt.
Tesselation - Mist Stimmt.
Hairworks - Mist Stimmt.
Der Einsatz von PhysX, HairWorx, Tesselation und jetzt Raytracing (Q.E.D.) wurde vonseiten nVidia in erster Linie dazu mißbraucht, um der Konkurrenz in Form von AMD zu schaden und den Wettbewerb zugunsten von nVidia negativ zu beeinflussen – alles auf dem Rücken der Kunden, welche die Leidtragenden waren und für entsprechend verbaute Technik teils signifikante Aufpreise zahlen durften, ohne größeren Nutzen.

PhysX mit Beispielen wit Batman, Mafia II et cetera
RT bei den noch zu erscheinenden Titeln mit entsprechender Nutzung (■)
Tesselation mit Beispielen wie den Quatsch bei Crysis & Co
HairWorx bei The Witcher 3 et cetera

Willst Du jetzt diese manipulativen Praktiken ersthaft als nicht stattgefunden darstellen oder anderweitig schönreden? Oder haben sie tatsächlich hauptsächlich nur der Wettbewerbsverzerrung gedient?

Wenn es stattdessen …
Havok Physics
Glide
OpenCL
TressFX™
… geheißen hätte, hätte ich Dir bei der Kritik Recht geben müssen.

ZeroZerp schrieb:
Wenn Ihr die neue Technik als grottig empfindet, dann verpasst Ihr genau 0, nichts, nada!
Und Ihr habt sogar ne Menge Geld gespart und es der Firma richtig gezeigt!
Ihr könnt zu nichts gezwungen werden und mit Eurem Geldbeutel abstimmen.

Du willst kein RT, dann kauf Dir keine RT Karte.
Dir ist die Leistungssteigerung zu gering, dann kauf Dir keine neue Karte.

Wo GENAU liegt also das Problem?
Vielleicht die Angst, dass es dann doch cool werden könnte und man dadurch vielleicht etwas verpasst?
Nach dem Motto wenn ich es nicht brauche/kriege, dann keiner? …
Vielleicht mag das auch einfach daran liegen, daß die Leute, die die Absicht dahinter sehen (höhere Preise, mit Gewalt RT in den Markt drücken, weil man es kann – um damit die nächste Handhabe zu haben, dem Wettbewerber zu schaden [darauf wird es nämlich aller Wahrscheinlichkeit draus hinaus laufen]) einfach vollkommen berechtigte Kritik loswerden möchten, was an und für sich absolut legitim ist?

Ich sehe eher, daß Du ein persönliches Problem damit hast, daß man etwas an deiner Lieblingsmarke kritisiert und Dinge versucht beim Namen zu nennen. Die Leute sollen hier einfach schonungslos über den Tisch gezogen werden. Da darf man ja wohl einmal warnende Worte loswerden, oder etwa nicht? Wissen verpflichtet und so … Was ist also Dein Problem hier?!
Ergänzung ()

IceKillFX57 schrieb:
Bezüglich Micron Speicher auf der 1070,1080, 1080TI und RX480 kann ich mich nicht beschweren.
So war bei jeder Karte mindestens 400MHz mehr drin. Ohne Leistungsverlust und ohne Grafikfehler.

Ich würde das ganze nicht so pauschalisieren.
Kann man aber, da mit Samsung-Speicher deut·lich mehr drin war.
Abgesehen davon ging es da explizit um die GTX 1070-Serie. Also weder die GTX 1080, noch 1080 Ti noch die RX480.

Replay86 schrieb:
Wat? Der Micron Speicher geht sehr gut. Hab meine 1080 von 5000MHz auf 5700Mhz geprügelt. Das ist wenig?
Speicher OC bringt bei Pascal mehr als GPU OC nur mal so nebenbei.
Das Fiasko mit dem Micron-Speicher betraf nur die GTX 1070, nicht die GTX 1080. verwechsle das bitte nicht.
Was das generelle Leistungspotential von Pascal bei VRam-OC betrifft, so hast Du natürlich Recht – das ist schon immens, da die großen 10x0-Karten @Stock allesamt im Bandbreiten-Limit verhungern.


In diesem Sinne

Smartcom
 
Zuletzt bearbeitet:
Darklordx schrieb:
Nvidia ==> :stock:

Zufrieden, Toprallog?

Aber mal im Ernst: Wen interessiert dieser Artikel? Jetzt haben wir nur wieder einen weiteren Kriegsschauplatz zwischen Nvidia Fanboys und den "Anderen".
Den Sinn von Speicherübertaktung habe ich noch nie verstanden, die paar Prozente "mehr" machen den Kohl auch nicht fett. Aber wer immer den längsten Balken beim Benchen haben muss... *Gähn*.

Im Falle der Ryzen Prozessoren macht das Ram Übertakten "leider" schon sehr sehr viel Sinn, da der Infinity Fabric Bus der wirklich alles miteinander verbindet soger die Prozessorinterna mit dem Ramtakt gekoppelt ist.
Wenn man von 2400 auf 3200 geht dann sind da oft zwischen 20 und 40% Mehrleistung drinnen. Das war auch der Grund warum die ersten Ryzen Benchmarks letztes Jahr im April so enttäuschend waren, da war dieses Verhalten noch nicht bekannt und wieviel Potenzial da drinnen steckt.
Ergänzung ()

Smartcom5 schrieb:
Das Fiasko mit dem Micron-Speicher betraf nur die GTX 1070, nicht die GTX 1080. verwechsle das bitte nicht.
Was das generelle Leistungspotential von Pascal bei VRam-OC betrifft, so hast Du natürlich Recht – das ist schon immens, da die großen 10x0-Karten @Stock allesamt im Bandbreiten-Limit verhungern.


In diesem Sinne

Smartcom


Das war auch der Grund warum NVidia den Farbraum per Default Einstellung eingeschränkt hat und warum dann auch bei HDR die Performance so in die Knie ging, wo sie dann doch den vollen Farbraum zuschalten mussten.
Das Bandbreitenproblem sollte eigentlich mit DDR 6 behoben sein zumal die Karten das neue Ram nicht so pushen werden (noch genug Reserven). Ich bin mir da nicht sicher ob Ram übertakten da noch viel bringen wird evetl. 1-2% weil der Speicher sowieso nicht im Limit ausgenutzt wird.
 
Smartcom5 schrieb:
Das tue ich überhaupt nicht, da nVidia das bereits (für Dich/mich) getan hat …
Aber das übersiehst Du hier ja einmal mehr absichtlich, wie ich annehmen muß. Folgerichtig beziehen sich die von Dir erwähnten +50% (worauf ich wiederum einging) lediglich erstens auf den Best-case

Dann stell doch mal die Handfesten Daten zur Verfügung die Du dazu hast.
Was Du aber natürlich wieder nicht tun wirst, weil Du nur Worthülsen aufgrund von Vermutungen verschiesst.
Außer den verfügbaren Sheets gibt es keine Informationen zur gesteigerten Shader- Leistung.

und zweitens ist dieser Sprung von +50% lediglich – selbst laut nVidia (sic!) – bei einem (1!) synthetischen Benchmark der Fall und nicht, wie Du krampfhaft zu suggerieren suchst, bei einem Spiel oder drittens gar generell im Mittel über alle Spiele hinweg.
Ich beziehe mich auf das Schaubild von nVidia. Das bewegt sich zwischen dem Faktor 2 (also 100%) und dem Faktor 1,5 (50%) RELATIV zu Pascal.

Deine Art und Weise mir hier unlautere Vergleiche an zu stellen, ist schon wirklich ein starkes Stück. Ernsthaft Zero!
Wenn unlautere Vergleiche bedeutet, dass ich mich nach den derzeitig einzig verfügbaren offiziellen Informationen richte, dann hast Du Recht.


Du bringst ein Argument, untermauerst es mit vermeintlichen Fakten (es gibt diese nicht, da geschönte Benchmarks vom Hersteller! Hersteller eigene Benchmarks sind immer getürkt;
Dann zeig mir doch den Link oder die Publikation, die das was Du schreibst unterstreicht!
Oder ist das vielleicht eine reine Vermutung und Vorverurteilung? Wäre es nicht besser solche Anschuldigungen zu verteilen, wenn man selbst Sattelfest ist und die eigene Meinung nicht aus aus der Luft gegriffenen Ratespielchen besteht?
Haben die Leute hier nicht aus der guten Schule der Erziehung mitbekommen, dass man bei unsicherer Faktenlage erstmal zurückhaltend sein sollte mit negativ- Kritik (die man ja durchaus äußern kann)? Die Art und Weise machts!

Null Hintergrundinformationen bezüglich System et cetera), ich gehe darauf ein und Du unterstellst mir hier, daß ich mir die schlechtesten Ergebnisse heraussuche? Darf ich hier mal ganz herzlich lachen mein Lieber?!

Ich kann mich nur nochmal wiederholen. Das Schaubild von nVidia ist eindeutig. Erkläre mir den Zusammenhang bezüglich "System et cetera" und einer RELATIVEN Benchmarkmessung von Shaderleistung per Core mit gleichbleibender Taktzahl.

Da darf ich nur deutlich daran appelieren, dir einmal selbst an die eigene Nase zu fassen …
Weshalb denn - Weil ich die einzig verfügbaren Informationen gegen "zu 100% heisse Luft" stelle?


Schneller RAM - Mist Stimmt.
Nur weil hier 1 Person im Thema die Behauptung aufgestellt hat, daß ein OC des VRam keine Mehrleistung bringt, entspricht das noch lange nicht den Tatsachen. Insbesondere die GTX 1070 profitiert teils massiv von Memory-OC.
Es geht nicht um eine Person hier im Thema, sondern ein Vorurteil, was sich hier Jahre Lang in den Foren gehalten hat. Das ist nicht nur auf GDDR gemünzt.

Das Andere Thema bezüglich Micron habe ich ja aufgrund der Fakten dargelegt – da ist Micron nun einmal bloß 2. Wahl und bietet bei Weitem nicht den OC-Spielraum wie Speicher von Samsung. Bestreitest Du das?
Ja- Weil das eine unzulässige Pauschalaussage ist, da Du hier wieder alle jemals erschienenen Speicher in einen Topf wirfst.

X-Point - Mist Stimmt.
VR - Mist Stimmt.
3D - Mist Stimmt.
Alle drei Schlüsseltechnologien haben dem Endanwender keinen wirklichen Mehrwert gebracht – außer teurere Produkte. Ist das auch von der Hand zu weisen?
Na langsam lässt Du ja die Maske fallen und legst Dein zu 100% egozentrisches Weltbild und den Grund Deiner Motivation offen.
Du bestimmst aus Deiner Warte, was dem Endanwender mehrwert bringt. Und zwar auf absoluter Art und Weise. Alles was außerhalb Deines Dunstkreises liegt, muss für die Allgemeinheit schlecht sein und (siehe mein obiges Beispiel mit dem 5- Jährigen) deshalb kaputt gemacht werden.

PhysX - Mist Stimmt.
RT - Mist Stimmt.
Tesselation - Mist Stimmt.
Hairworks - Mist Stimmt.

Der Einsatz von PhysX, HairWorx, Tesselation und jetzt Raytracing (Q.E.D.) wurde vonseiten nVidia in erster Linie dazu mißbraucht, um der Konkurrenz in Form von AMD zu schaden und den Wettbewerb zugunsten von nVidia negativ zu beeinflussen – alles auf dem Rücken der Kunden, welche die Leidtragenden waren und für entsprechend verbaute Technik teils signifikante Aufpreise zahlen durften, ohne größeren Nutzen.
Das ist doch einfach Unsinn.

nVidia entwickelt wie blöde Hilfsbibliotheken und neue Techniken, die die Spiele unbestreitbar besser aussehen lassen, wohingegen der Wettbewerber nicht in die Pötte kommt oder seine Entwicklung nicht konsistent vorantreibt und machst es dem Innovator dann zum Vorwurf, dass dieser seine Investition schützt und einen Mehrwert erlangt?
In welcher Dimension lebst Du eigentlich?

Willst Du jetzt diese manipulativen Praktiken ersthaft als nicht stattgefunden darstellen oder anderweitig schönreden? Oder haben sie tatsächlich hauptsächlich nur der Wettbewerbsverzerrung gedient?
Dann ist also jede Art der Innovation und des Marketings in Deinen Augen Wettbewerbsverzerrung, weil man versucht dadurch Kundschaft zu binden?

Wenn es stattdessen …
Havok Physics
Glide
OpenCL
TressFX™
… geheißen hätte, hätte ich Dir bei der Kritik Recht geben müssen.

Wieso zur Hölle sollte ein Wirtschaftsunternehmen seine Entwicklungen kostenlos zur Verfügung stellen?
Die sind doch nicht dämlich. Du wirst lachen, aber die wollen und müssen Geld verdienen und Gewinne aus ihrem Treiben realisieren.
Vielleicht sollte AMD mal auch nicht alles "frei" zur Verfügung stellen und eigene Innovationen am Markt pushen. Dann würde es ihnen vielleicht wirtschaftlich auch besser gehen, wenn sie eines von den von Dir als nutzlos abgestempelten Killerfeatures bringen.

Dazu kommt, dass Du mir mit Deinem letzten Satz ja im Kern der Aussage Recht gibst. Innovation wird hier nicht honoriert!

Vielleicht mag das auch einfach daran liegen, daß die Leute, die die Absicht dahinter sehen (höhere Preise, mit Gewalt RT in den Markt drücken, weil man es kann – um damit die nächste Handhabe zu haben, dem Wettbewerber zu schaden [darauf wird es nämlich aller Wahrscheinlichkeit draus hinaus laufen]) einfach vollkommen berechtigte Kritik loswerden möchten, was an und für sich absolut legitim ist?

Wie oben bereits geschrieben ist es die Art und Weise der Kritik. Zu 99% unterste Schublade ohne Begründung, Quellen oder sonst erkennbaren Anstrengungen seine Meinung, die schnell ins Forum gekotzt wird überhaupt darzulegen.

Ich sehe eher, daß Du ein persönliches Problem damit hast, daß man etwas an deiner Lieblingsmarke kritisiert und Dinge versucht beim Namen zu nennen.
Ich habe in der Tat ein persönliches Problem damit, wenn Dinge ohne Fakten durch den Dreck gezogen werden. Und habe ein noch größeres Problem mit welcher Selbstherrlichkeit, Arroganz und Geringschätzung dies passiert (wenn hier z.B. einige superlustige meinen Herrn Huang als "Lederjacke" brandmarken/abwerten zu müssen).
Das ist extrem schlechter Stil und zeugt von den niederen Beweggründen und dem völligen mangel an Respekt und dem Mindestmaß an Erziehung, der hier herrscht.

Die Leute sollen hier einfach schonungslos über den Tisch gezogen werden. Da darf man ja wohl einmal warnende Worte loswerden, oder etwa nicht? Wissen verpflichtet und so … Was ist also Dein Problem hier?!
Das ist doch völlig absurd! Noch einmal (ich zitiere mich selbst):

Das sind krankhafte Auswüchse einer Konsumgesellschaft, die sich allein schon durch ein simples Angebot hintergangen, verarscht und betrogen fühlt und dem Anbieter die Pest an den Hals wünscht.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: t3chn0, DaniLt, FeelsGoodManJPG und eine weitere Person
Smartcom5 schrieb:
Kaum vorhandene Mehrleistung zur Vorserie GTX 10x0
Keine Sorge, das wird NVidia schon noch per Treiber gerade ziehen. ;)

Ich bin wirklich gespannt wie sich die neuen Karten in unabhängigen Benchmarks schlagen werden, aber wer eine 10xx Karte hat braucht nicht wirklich umzusteigen. Es wäre allerdings sehr schön wenn AMDs Antwort nicht zu lange auf sich warten lässt.
 
ZeroZerp schrieb:
Wenn es ein Beratungsgespräch gab, wollte man entweder einen 1440p Monitor oder wollte den vorhandenen Bildschirm Full Hd weiternutzen. Das sind dann aber schon meist hochwertige 22 oder 24 Zöller.

Oftmals bekomm ich zu hören, dass dann mit 4K auf entsprechender Diagonale dann das Bild, die Schriften etc. wieder zu klein wird un man sich nicht mit Skalierungsfehlern rumschlagen will.

Grüße
Zero
Danke Deine Postings spiegeln nur das was ich als Realität einschätze. Witzigerweise gibt's eigentlich bei Windows 10 defakto keine Skalierungsfehler mehr. Und sollte es dennoch Mal nicht klappen kann man noch nachhelfen. Ich schätze 4k hidpi sehr und würde nicht mehr auf 1080p zurückwollen.
 
werpu schrieb:
Im Falle der Ryzen Prozessoren macht das Ram Übertakten "leider" schon sehr sehr viel Sinn, da der Infinity Fabric Bus der wirklich alles miteinander verbindet soger die Prozessorinterna mit dem Ramtakt gekoppelt ist.
Wenn man von 2400 auf 3200 geht dann sind da oft zwischen 20 und 40% Mehrleistung drinnen. Das war auch der Grund warum die ersten Ryzen Benchmarks letztes Jahr im April so enttäuschend waren, da war dieses Verhalten noch nicht bekannt und wieviel Potenzial da drinnen steckt.
Ergänzung ()

Ich bezog meine Aussage mehr auf die VRAM-Übertaktung. Und beim Ryzens Pinnacle Ridge hat sich das mit dem Übertakten auch schon wieder relativiert. Von DDR4-2933 auf DDR4-3200 sind real zu spürende Vorteile eigentlich gleich Null. Und über DDR4-3200 hinaus ist wieder Lotterie, je nach Speicher und CPU und deren Zusammenspiel.
Ich hätte beim Speicher auch sparen können, aber ich wollte Samsung B-Dies, die die versprochene Leistung auch bringen und das System stabil halten. Mein "alter" CL 15 Speicher von G.Skill war mit Ryzen nicht stabil zu kriegen, also... Jetzt läuft das System. Ich habe an falscher Stelle gespart.
 
Zurück
Oben