News Nvidia Turing: Potentielle Benchmark-Ergebnisse entdeckt

@j-d-s
Die Hardware war aber auch nur so "billig", weil es eben keine Revolutionen, sondern Evolutionen waren, meist mit Shrink, einhergehend mehr Transistoren und höherer Taktung.

Bei den derzeitigen Fertigungstechnologien und Taktraten und Transistorzahlen geht das aber einfach nunmal nicht mehr. Die Physik macht es mit jedem fertigungssprung exponentiell schwerer. Deshalb muss man andere Wege gehen.

Überleg doch mal Folgendes:Bei der Rasterisierung sind langsam die paralellisierbaren Tasks "aufgebraucht".

Da bietet Raytracing im gegenzug noch das Potenzial die GPU Leistung zu vertausendfachen, weil Du jeden Core dann einfach einen Strahl berechnen lässt und die Farbinformation des Punktes 1x1 direkt in den Framebuffer schreibst. Die ROPs kann man behalten. TMUs sind mit Raytracing eigentlich auch obsolet.

Nur mal so ein Denkanstoss, dass Raytracing das Potenzial auf Leistung und Qualität im Gegensatz zur jetzig angewandten Technik endlos steigern kann.

Grüße
Zero
Ergänzung ()

Begu schrieb:
Und selbst wenn die 2080Ti 100% schneller wäre als eine 1080Ti aber dabei 100% teurer ist, das Problem des gleichen Preises pro fps bliebe selbst dann bestehen. Aber aktuell sind wir bei wahnwitzigen 100% höheren kosten bei besten Falls 50% höherer Leistung. Seit jeher hat sich mit jeder Generation an CPU oder GPU das Verhältnis von Preis/Leistung verbessert. Mag jemand mal ausrechnen, was ein i9-9900K kosten würde in dem Falle, er hätte das gleiche Preis-/Leistungsverhältnis wie ein 486er 66MHz?

Ja Begu... Ich sage voraus, dass es in Zukunft nicht mehr so "einfach" weitergehen wird wie bisher (siehe nähere Beschreibung vor meiner Ergänzung). Wir nähern uns immer mehr den physikalischen Grenzen für die althergebrachte Leistungssteigerung, deswegen werden wir demnächst vermehrt (teurere) Wege gehen müssen.
War früher gang und gäbe, dass das schnellere Produkt teuer und High- End eigentlich unerschwinglich war.

Schmeckt mir genausoweng wie Dir.

Grüße
Zero
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Ja Begu... Ich sage voraus, dass es in Zukunft nicht mehr so "einfach" weitergehen wird wie bisher (siehe nähere Beschreibung vor meiner Ergänzung). Wir nähern uns immer mehr den physikalischen Grenzen für die althergebrachte Leistungssteigerung

Oh man. Ich werd zu alt fuer diesen Scheiss.
Weisst Du wie oft ich das nun schon gehoert hab, in den letzten 25 Jahren?
Kommt gleich nach "PC Gaming stirbt aus" und "das Jahr des Linux Desktops".

Der einzige Unterschied des GPU Marktes zum CPU Markt ist, dass AMD nicht konkurrenzfaehig ist. Sonst garnix.
Deshalb hat Intel auch jahrelang auf der Stelle getreten, und mit jedem neuen CPU ihre Gewinnmarge erhoeht. Nicht weils schwerer geworden ist, sondern weil es keinen Druck gibt. Kaum knallt AMD die Desktop Intels regelrecht an die Wand, kommt auch Intel mit """Neuerungen""".
Nichts anderes sehen wir aktuell bei Nvidia.
Hoffentlich kommt Intel 2020 mit einem richtigen Knaller raus, so dass sich Nvidia wieder etwas anstrengen muss.
 
@Ulukay
Diesmal ist es anders. Die Physik setzt eine klare Grenze bei um die 7nm. Die neuen Fertigungsverfahren verzögern sich zunehmend. Manche Firmen scheitern vollends daran.

Früher konnten sich die Firmen von mehreren Mikrometern nach unten arbeiten. Heute arbeitet man an den Grenzen der Physik, wo Leiterbahnen nur noch einige Atome breit sind und schwer beherrschbare Nebeneffekte auftreten:
https://en.wikipedia.org/wiki/5_nanometer

Wie gesagt- Es wird inzwischen schwer, weiter zu verkleinern. Die Forschung wird immens Teuer. Die Forschungszeit immer höher. Der Return immer geringer bzw. mit viel Aufwand erkauft.
Die Mehrkosten werden weitergereicht.

Es wird also auf absehbare Zeit mit den Kosten nicht besser werden. Es gab jetzt nur nochmal ein kurzes Aufflackern im Bereich CPU Kerne. Unter Anderem aufgrund der oben genannten Hürden, wird sich dieses Lauffeuer relativ schnell selbst ersticken.

Und ja- Wir haben das sicherlich oft genug gehört. War ja damals auch so, dass rein physikalisch bei 14400 Baud bei Analogleitungen mit Datenübertragung Sense sein sollte (das mit erste erhältliche US- Robotics Modem, was Heyes kompatibel 14400 Baud gebracht hat, hat mich zudem 1400DM gekostet - Soviel dazu, dass heutzutage High- Tech zu teuer sei).
Da schau mal, wo wir heute stehen.

Man muss, um tatsächlich wieder großen Fortschritt zu erfahren andere als die bewährten Wege einschlagen. Deshalb wird der Kunde tiefer als gewohnt in die Tasche greifen müssen, wenn er den Weg von Anfang an mitgehen will.

Wie gesagt- Ich bin nicht sonderlich angetan von den Preisen. Wenn man sich aber mal über den Stand der aktuellen CPU-/GPU Technik und deren Schwierigkeiten bzw. zukünftigen Herausforderungen informiert, kommt man schnell drauf, dass es ab jetzt bedeutend schwieriger wird, groß was zu reissen...

Grüße
Zero
 
Es geht nicht um EINE Komponente (Fertigungsprozess) im Gesamtdesign.
Es geht um Effizienzverbesserungen und neue Impulse in der gesamten Architektur.
Schau was damals eine Kyro2 geliefert hat.
Highend Performance fuer 150$. Da hatte eine Geforce 2 GTS meisten keine Chance, und oft war sie sogar vor der GF2 Ultra (die ueber 300$ gekostet hatte).
Und das nicht mit roher Gewalt, sondern mit komplett neuen Ansaetzen. (40% Effizienzverbesserung indem man Unsichtbares einfach nicht rendert)
Schau was sich alleine bei der Memory Performance getan hat. -> HBM2

Wer sagt z.b. dass ich alles in einem Riesenchip unterbringen muss?
Knall 4 guestige auf ein Traegermaterial und das Ding rockt trotzdem die Huette. Schau dir den neuen Threadripper an.
Ausserdem gibts dann noch etwas nach Silizium Chips. ;)
 
Zuletzt bearbeitet von einem Moderator:
Hat Lederjacke dich für diese Aussagen hier bezahlt?

Lederjacke hatte jetzt 2 Jahre Zeit, die Prozesse zu verfeinern und effektiver zu machen. Ich bin mir ziemlich sicher, dass der Preisanstieg der RTX-Karten quasi ausschließlich Gewinnmaximierung ist und mitnichten gestiegene Kosten, wie von dir kolpotiert.

Denn diese Behauptung müsstest du erstmal durch Quellen belegen.
 
So willkommen WD der Tsunami war, war den Grakaherstellern die Miningwelle genau so recht. Nicht mehr und nicht weniger. Und in beiden Fällen hat(te) man keine Lust, nach dem Ende auf den geschenkten Profit zu verzichten.
Ist genau so beweiskräftig wie Behauptungen von plötzlich steigenden Entwicklungskosten.

Ist ganz einfach.
Wird's gekauft, bleiben die Preise hoch. Spielt dann auch keine Rolle warum und weshalb.
Wird's nicht gekauft, fallen die Preise oder Nvidia geht wegen hohen Herstellungskosten Pleite.
 
ZeroZerp schrieb:
Wie gesagt- Es wird inzwischen schwer, weiter zu verkleinern. Die Forschung wird immens Teuer. Die Forschungszeit immer höher. Der Return immer geringer bzw. mit viel Aufwand erkauft.
Die Mehrkosten werden weitergereicht.
Bei HDD hieß es auch vor einiger Zeit, man könne nicht noch mehr Speicherplatz drauf pressen weil es einfach nicht geht. Dann hat man einen neuen Effekt entdeckt, setzt Helium ein und plötzlich geht wieder deutlich mehr. Mehrkosten gibt man weiter, das ist richtig. Aber Preis-/Leistung wurde trotzdem immer besser. Und genau darum geht es. Bei den GPU marschiert Preis-/Leistung derzeit massiv in die falsche Richtung.
 
  • Gefällt mir
Reaktionen: exuser0815 und .Sentinel.
@Begu
So ist es. Es gibt ja auch andere Materialien und Belichtungstechniken. Nur müssen die erstmal erforscht und erprobt werden. Dadurch explodieren die R&D Kosten. Bis vor kurzer Zeit hat man die Mehrleistung mit immer den gleichen Materialien und leichten Umstellungen in der Materialwahl oder Fertigungstechnik quasi "geschenkt" bekommen. Wir hatten da jetzt bis zu 10NM einen richtig schönen Rhytmus.

Dass der Tag kommen würde, dass dem nicht mehr so ist und ein Technologiewechsel stattfinden muss, der immer erst mal weh tut (auch im Geldbeutel) ist ja völlig normal. Bei 7NM (die ja noch nicht mal "echte" 7NM sind) wirds mit konventionellen Techniken erstmal eng.

Da sind wir halt jetzt. Wenn die Hersteller immer fester gegen eine Mauer rennen, wie jetzt in Sachen Fertigung und Material, wird es irgendwann unwirtschaftlich, weil die User dann irgendwann aufgrund der gestiegenen Kosten nicht mehr kaufen.
Rechenleistung ist nämlich für normale und gehobene Aufgaben im Überfluss da.

Finde Dein Beispiel mit den HDDs sehr schön, weil es eine wirklich passende Analogie darstellt, aber wie Du schon richtig festgestellt hast, bezahlt man auch da erstmal den Technologiewechsel, bis in Masse abgesetzt werden kann und die Forschungskosten einigermaßen eingespielt sind.

Um auf Raytracing zurückzukommen. Ich bin davon überzeugt, dass das ein gangbarer Weg ist, ziemlich schnell wieder "richtige" Leistungssteigerung im Darstellen von Grafiken bekommen, da es was paralellisierbareres als echtes Rendern eigentlich garnicht gibt.

Da wo die Rasterisierung mit gestiegener Kernzahl immer weniger Benefit abwirft, weil zu viele Schritte in zeitlicher Folge voneinander abhängen (da liegen auf einem Pixel ja inzwischen zig Schichten an Maps, Layern usw.),, dreht Raytracing auf, weil jeder Core unabhängig sein Strahlenbündel verfolgen kann und dann in das Register schreibt.

Da kann man dann für 4K locker auch die 10- Fache Anzahl an spezialisierten Cores auf die Karte Pressen, die nur mit der Steuerung und dem RAM gekoppelt sein müssen.
Im Gegensatz zur Rasterisierung ist da dann auch relativ wenig Speicherbandbreite dahinter, weil eben ein minimaler Bruchteil der sonstigen Informationen (Layer, Maps, Probes, AF,AA usw.) hin- und hergeschoben werden.

Wie gesagt. Ich habe keine Ahnung was 10 Gigarays anrichten. Auch nicht wie universal die Zustzcores dazu eingesetzt werden können, um auch eine Standardengine zu beschleunigen, wenn man kein Raytracing im klassischen Sinne betreibt.

Ich war einfach noch nie ein Freund von Vorverurteilung. Mir werden immer zu schnell die Mistgabeln ausgepackt. Zwar ist nVidia in dem Falle selbst schuld, aber auch hier muss der Benutzer einfach berücksichtigen, dass es zu wenig Software gibt, um die Leistungsfähigkeit beurteilen zu können und es zudem noch keine tiefgreifenden Tests gibt.

Wie gesagt- Aus Usersicht kann ich die Aufregung um die Preise verstehen. Bei mir schlägt aber ein zweites Herz für Technologie und dessen Pulsschlag wird durch die neue Technik doch erheblich beschleunigt.

Grüße
Zero
 
Zuletzt bearbeitet:
Leak zum Benchmark der 2080 Ti

Es ist ein Leak zum Benchmark der 2080 TI aufgetaucht. Angeblich 35% schneller als eine 1080 TI. Das lasse ich jetzt mal so im Raum stehen.
 
Es wird eine 1080 Ti FE getestet, die deutlich niedriger taktet als es eine 2080 Ti FE macht. OC't man die 1080 Ti, so wie sich die 2080 Ti FE selbst OC't, dann schrumpft der Abstand auf läppische 15-20 %. Das ist einfach zu wenig für solche Preise.
 
Den Benchmarks würde ich kein glauben schenken, da noch keine Kompatiblen Treiber geleakt wurden.
 
  • Gefällt mir
Reaktionen: Cool Master und .Sentinel.
@Häschen
nVidia meinte ja zudem auf deren Präsentationssheets, dass durch die starke Optimierung von async compute im Touring im Zusammenspiel mit dem neuen Treibern zusätzlich 10%-19% unter DX 12 "rausspringen".

Insofern würden alle bis jetzt "geleakten" Benchmarkzahlen aufgrund dessen, dass es noch keinen passenden Treiber gibt deutlich nach untern verfälscht (esseidenn die 10%-19% Steigerung sind marketing- Gewäsch, was man ja vorher auch nie weiss).

Grüße
Zero
 
Aldaric87 schrieb:
Es wird eine 1080 Ti FE getestet, die deutlich niedriger taktet als es eine 2080 Ti FE macht. OC't man die 1080 Ti, so wie sich die 2080 Ti FE selbst OC't, dann schrumpft der Abstand auf läppische 15-20 %. Das ist einfach zu wenig für solche Preise.

Woher hast du die Info das es sich um eine 1080Ti FE handelt, ich habe nichts davon gelesen.
 
@Blueline56

Weil alle Benchmarks Leaks auf der ein und selben Folie basieren, wo fett drauf steht das es sich um eine 1080 Ti FE handelt. Und die Glaubwürdigkeit dieser Leaks geht auch eher gegen 0.
 
Zurück
Oben