News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

v_ossi schrieb:
Früher* nannte man das schlichtweg Generationswechsel und hat es als technischen Fortschritt begrüßt.

Mehr rohe Leistung und Speicher für's gleiche Geld bei gesteigerter Effizienz.

Nvidias Marketing scheint aber auf zu gehen, wenn man sieht, wie hier einige Forenuser gar nicht schnell genug ihr Geld in Nvidias Rachen werfen möchten.

*Mit der 1000er Serie ist früher noch gar nicht so lange her.
Was ist dein Problem? Ich hab das Geld, und werd mir eine dicke Ampere gönnen.
Jeder wie er will.
 
v_ossi schrieb:
Früher* nannte man das schlichtweg Generationswechsel und hat es als technischen Fortschritt begrüßt.

Mehr rohe Leistung und Speicher für's gleiche Geld bei gesteigerter Effizienz.

Nvidias Marketing scheint aber auf zu gehen, wenn man sieht, wie hier einige Forenuser gar nicht schnell genug ihr Geld in Nvidias Rachen werfen möchten.

*Mit der 1000er Serie ist früher noch gar nicht so lange her.
Für das gleiche Geld also...
https://www.gamestar.de/artikel/nvi...#preise-und-leistung-im-generationenvergleich
 
Hardware_Hoshi schrieb:
Kennst du nicht die abnormalen Verbräuche von Vega? Tja, wenn du noch etwas älter bist, kannst du dich vielleicht noch an die Zeit der Geforce 8800er und Crysis erinnern. Damals hatten wir Härtlinge die Dinger im SLI. Wehe jemand hatte Geld, da war dann Triple-SLI mit er 8800 Ultra und 15ooW Netzteilen angesagt. Barbarische Techniksteinzeit, jedoch trotzdem irgendwie geil!
Meine erste Grafikkarte war die Riva TNT2.)) Und eine 8800 GTS hatte ich auch. Da ich zur Zeit nur Mahjongg spiele, reicht mir meine GK bisher aus:)
 
Taxxor schrieb:
Warum nicht einfach auf die Benchmarks schauen?
Im CB Test zur 1080Ti ist sie ca 50-60% schneller als die 1070(in 4K), weit entfernt von doppelt so schnell, das ist genau das wo die 2080Ti liegt
Ja und 55% sind es bei Gamestar. 36 FPS vs 57 FPS. Aktivierst du Vsync bist du bei 30 FPS, aber irgendeine Option runtergeschraubt landest du mit der 1080 Ti bei 60 FPS. Der Abstand ist zu groß, weshalb ich Pi mal Daumen doppelte Leistung sage.
Ergänzung ()

Phobsen schrieb:
Laut CB Benchmarks liegt die 1080ti ca 55% im Schnitt vor der 1070.
Wo nimmst du die restlichen 45% her ?

Ist es heutzutage wirklich so schwer zuzugeben das man sich mal geirrt hat ?
Löst das körperliche Schmerzen aus ?

Diskussionskultur heutzutage......
Die 45% sind halt nur 10 FPS die die 1080 Ti von der doppelten Leistung entfernt ist. Power Limit erhöht und bisschen OC dann hast du es. Mit der 1070 bist du ohne größere Einschnitte trotz allem nicht bei 60 FPS und das ist das Problem. Hat auch nichts mit Schmerzen zu tun. Hatte 1070 im SLI und es skalierte 100% in Rise of the Tomb Raider, rund 70 FPS in 4k, aber trotz allem ist die 1080 Ti mit rund 60 FPS die bessere Wahl ab Erscheinen.
 
Zuletzt bearbeitet:
Buggi85 schrieb:
Ja und 55% sind es bei Gamestar. 36 FPS vs 57 FPS. Aktivierst du Vsync bist du bei 30 FPS, aber irgendeine Option runtergeschraubt landest du mit der 1080 Ti bei 60 FPS. Der Abstand ist zu groß, weshalb ich Pi mal Daumen doppelte Leistung sage.
Jetzt wird es amüsant, du vergleichst jetzt GPUs im Vsync ?
Und deshalb sagst du die 1080ti ist doppelt so schnell ?
Du hast vorhin etwas von CPU Limit erzählt, also was soll es denn nun sein ?
Wow, also DAS nenne ich mal alternative Fakten schaffen, Gratulation :D

Egal wie du es drehst oder wendest, eine 1080ti wird nicht 100% schneller sein als eine 1070....
 
  • Gefällt mir
Reaktionen: McFritte, Acedia23 und Apocalypse
Buggi85 schrieb:
Ja und 55% sind es bei Gamestar. 36 FPS vs 57 FPS. Aktivierst du Vsync bist du bei 30 FPS, aber irgendeine Option runtergeschraubt landest du mit der 1080 Ti bei 60 FPS. Der Abstand ist zu groß, weshalb ich Pi mal Daumen doppelte Leistung sage.
Welche Spiele gibt es denn noch, die bei VSync die FPS auf 30 fallen lassen, wenn sie unter 60 sind? Die nutzen alle Triple Buffering womit die FPS bei 36 und 57 bleiben. Dann irgendeine Option runtergeschraubt womit du mit der 1080Ti bei 60fps landest, kommst du mit der 1070 dafür auch auf 38fps, somit immer noch +57% für die 1080Ti und das ist nicht pi mal Daumen das doppelte
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: evilhunter, Phobsen und DrCox1911
Endlich, die 1 kW PCs rücken näher .. da kann man gleich die Hausheizung verkleinern. Und spielen tut man ja auch vorrangig wenn's draußen stürmt und schneit ?
 
Das geht auch schon mit 0,75KW. Wenn ich nachts mal was rechnen hab lassen mit den 2x2080 bei Tür zu im hobbyzimmer, war das richtig schön muckelig warm da drin
 
Phobsen schrieb:
Jetzt wird es amüsant, du vergleichst jetzt GPUs im Vsync ?
Und deshalb sagst du die 1080ti ist doppelt so schnell ?
Du hast vorhin etwas von CPU Limit erzählt, also was soll es denn nun sein ?
Wow, also DAS nenne ich mal alternative Fakten schaffen, Gratulation :D

Egal wie du es drehst oder wendest, eine 1080ti wird nicht 100% schneller sein als eine 1070....
Ist doch einfach. Mehr als 60 FPS nutzen halt nichts wenn der Monitor sie nicht ausgeben kann und stattdessen das Bild auch noch teared. Da bleibt nur Vsync und mehr als 30 FPS bringen halt auch nichts wenn man die 60 FPS nicht erreicht, dann bleibt nur noch der Teiler auf halbe Bildrate für ein sauberes Bild. Kannst natürlich mit Freesync oder GSync argumentieren, aber auch dann muss man wieder genauer hinschauen bei den Monitoren oder TVs.
Doppelte Leistung von 60 auf 120 FPS schafft man halt nicht mit jeder CPU in jedem Spiel, wenn es aber die GPU könnte. So oder so können wir auch großzügig der 1070 40 FPS zugestehen und der 1080 Ti 60 FPS, gut dann ist es eben nicht das Doppelte, aber irgendwie sieht es doch fast aus wie die Hälfte bei der 1070 oder nicht? 😁
 
Buggi85 schrieb:
Da bleibt nur Vsync und mehr als 30 FPS bringen halt auch nichts wenn man die 60 FPS nicht erreicht, dann bleibt nur noch der Teiler auf halbe Bildrate für ein sauberes Bild.
Mir scheint deine Kenntnisse zu VSync sind irgendwo 2005 stehen geblieben...
Buggi85 schrieb:
So oder so können wir auch großzügig der 1070 40 FPS zugestehen und der 1080 Ti 60 FPS, gut dann ist es eben nicht das Doppelte, aber irgendwie sieht es doch fast aus wie die Hälfte bei der 1070 oder nicht? 😁
Wie es für dich aussieht ist irrelevant, in dem Fall ist die 1080Ti um exakt die Hälfte schneller.
 
  • Gefällt mir
Reaktionen: McFritte, evilhunter, Phobsen und eine weitere Person
tochan01 schrieb:
Das geht auch schon mit 0,75KW. Wenn ich nachts mal was rechnen hab lassen mit den 2x2080 bei Tür zu im hobbyzimmer, war das richtig schön muckelig warm da drin
Mal gut das noch ein bißchen Luft ist zu den vielleicht 2.3 kW Dauerleistung je normalem Stromkreis (da muß man halt den Kronleuchter ausschalten) .. sonst müßte man sich Drehstrom in den Hobbyraum legen lassen ..

Bei kinderreichen Familien könnt's bald schon knapp werden mit nur einer Phase für alle Kinderzimmer ..
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cyberbernd
Taxxor schrieb:
Mir scheint deine Kenntnisse zu VSync sind irgendwo 2005 stehen geblieben...
Wie kommst du darauf? Meinste adaptive Sync reißt es raus? Nur weil man 60 FPS nicht erreicht und Vsync Off geschaltet wird bleibste von Tearing verschont? Schau mal genauer hin.
 
Buggi85 schrieb:
Wie kommst du darauf? Meinste adaptive Sync reißt es raus? Nur weil man 60 nicht erreicht und Vsync Off geschaltet wird bleibste von Tearing verschont? Schau mal genauer hin.
Ich spreche nicht von adaptive Sync, ich spreche von Triple Buffering, die Methode die sogut wie jedes Spiel der letzten 10-15 Jahre nutzt, wenn du dort VSync aktivierst.

Dass du mit aktiviertem Vsync nur 30 oder 60fps haben kannst, war früher mal so, als es noch kein Triple Buffering gab.
Wenn du 37 FPS und Tearing hast und VSync aktivierst, hast du immer noch 37FPS aber ohne Tearing, dafür mit höherem Input Lag.
Anfangs haben dir Spiele hier noch die Wahl gegeben, ob du Double oder Triple Buffering nutzen willst (Double Buffering würde bedeuten dass du auf 30fps fällst), aber aktuelle Spiele nehmen einfach immer Triple Buffering.
 
  • Gefällt mir
Reaktionen: evilhunter, Phobsen und Apocalypse
senf.dazu schrieb:
.. sonst müßte man sich Drehstrom in den Hobbyraum legen lassen ..

in der Garage hängt ne dose... da ist im winter eh zu kalt. Also einfach den Rechner hin und im Haus mit einem Client PC drauf zu greifen. Gleiche mehrere fliegen mit einer klappe geschlagen!

1. In der Garage ist auch im winter warm
2. Der PC wird in der Garage besser gekühlt
3. deutlich leiser durch den Client PC

Man muss nur ma gucken wie das mit dem Bild und in input lag is...
 
Taxxor schrieb:
Ich spreche nicht von adaptive Sync, ich spreche von Triple Buffering, die Methode die sogut wie jedes Spiel der letzten 10-15 Jahre nutzt, wenn du dort VSync aktivierst.

Dass du mit aktiviertem Vsync nur 30 oder 60fps haben kannst, war früher mal so, als es noch kein Triple Buffering gab.
Triple Buffering löst die Probleme trotzdem nicht. Ich hab in jedem Spiel Tearing was nicht die Ziel Framerate erreicht und ohne Freesync zu nutzen. Egal ob es Gears 5 oder Tomb Raider ist.
 
Buggi85 schrieb:
Triple Buffering löst die Probleme trotzdem nicht. Ich hab in jedem Spiel Tearing was nicht die Ziel Framerate erreicht und ohne Freesync zu nutzen. Egal ob es Gears 5 oder Tomb Raider ist.
Dann stimmt da bei dir was nicht, denn Triple Buffering kann aufgrund seiner Funktionsweise überhaupt kein Tearing haben, da niemals zwei verschiedene Frames bei einem Refresh benutzt werden.
https://de.linkfang.org/wiki/Dreifachpufferung#Dreifachpufferung_und_VSync

Ich hatte noch nie Tearing mit VSync und auch noch nie den Rückfall auf 30fps seit es Triple Buffering gibt.
 
Zuletzt bearbeitet:
Hinsichtlich der moeglichen Fertigungspolitik, und damit natuerlich auch zusammen haengend die kommenden nVidia RTX Ampere Karten wohl Fermi-/Thermi-aehnliche "Heizkraftwerke" sind (um die hohen Gewinnmargen bei nVidia halten zu koennen - was dort wichtiger ist, als bestmoegliche Produkte abzuliefern - anstatt auf eine teurere Fertigung zu setzen), ist das folgende Moore's Law is Dead Video evt. interessant, insbesondere der Interview-Ausschnitt vom Podcast mit Daniel Nenni:


Spekuliert wird dort aber nach wie vor, aber gut, es ist eben auch ein Geruechtekueche-Streamer und lange ist's ja nicht mehr hin bis zur Vorstellung ;).

Deutlich mehr gespannt bin ich aber auf die RDNA2 Big Navi Vorstellung (vielleicht gebuendelt mit der Zen3 Vermeer Vorstellung?) von AMD/RTG als auf den RTX Ampere Martkstart, vielleicht auch weil seit Wochen eine neue (nVidia RTX Ampere) "Sau" durch das Dorf (saemtliche Hardwareseiten) getrieben wurde und maechtig die Werbetrommel geruehrt wurde, allerdings der Speicher- und Effizienzansatz oberhalb einer RTX 3070/3060 (mit 16/12 GB) fuer mich nicht wirklich rund wirkt.
 
Taxxor schrieb:
Dann stimmt da bei dir was nicht, denn Triple Buffering kann aufgrund seiner Funktionsweise überhaupt kein Tearing haben und ich hatte noch nie Tearing mit VSync und auch noch nie den Rückfall auf 30fps seit es Triple Buffering gibt.
Tearing hast du immer wenn die Bildrate runter oder rauf geht. Der Monitor bringt den Frontbuffer mit dem Signal zur Anzeige, wenn du aber abweichst mit der Bildrate wird der Backbuffer gleich nach dem Rendern geflippt und dann passiert es eben das im Frontbuffer ein Teil vom alten und neuen Bild landen. Im besten Fall hast du durch mehr Backbuffer kein Tearing aber doppelte Bilder und wieder Latenz. Der Fallback von 60 auf 30 FPS ist ja nur um Synchronität zu garantieren, wenn das Bild beim Rendern die 16ms überschreitet wird es nach 33ms ausgegeben.
 
Buggi85 schrieb:
Im besten Fall hast du durch mehr Backbuffer kein Tearing aber doppelte Bilder und wieder Latenz.
Nicht im besten Fall, sondern das ist der Normalfall durch Vsync, egal ob Double oder Triple Buffering, es wird immer nur ein Bild pro Refresh genutzt und andere verworfen, somit steigt die Latenz, aber du kannst kein Tearing bekommen.


Du hast also die Wahl zwischen

nierdrigster Latenz + Tearing = Vsync Off
etwas höherer Latenz ohne Tearing = Adaptive Sync + Vsync Off
noch etwas höherer Latenz ohne Tearing und Fallback auf 30fps, wenn unter 60fps = Vsync On (Double Buffering)
noch etwas höherer Latenz ohne Tearing und ohne Fallback = Vsync On (Triple Buffering).

Wobei du wie gesagt zwischen den letzten beiden schon seit Jahren nicht mehr wirklich eine Wahl hast, weil die Spiele einfach immer Triple Buffering nutzen ohne dich das wählen zu lassen.
 
  • Gefällt mir
Reaktionen: Acedia23
jokakilla schrieb:
Das Gleiche Spiel bei Smartphones. Ich gebe, auch wenn ich könnte, aus Prinzip nicht mehr als 400€ für ein Smartphone aus. Vor nicht allzu langer Zeit gab es für 500€ noch das Top Modell. Heute bewegt man sich zwischen 1000€ und 1500€.

Bei Smartphones kannst du aber für die Hälfte des Marktführerpreises die gleiche Leistung bekommen, ist auf dem GPU-Markt eine ganz andere Situation.
Den Smartphone-Markt haben die Lemminge die jedes Jahr ohne Innovation ein neues Produkt des immergleichen Herstellers kaufen zu verantworten.
Ergänzung ()

Murasame schrieb:
Wenn die Specs wirklich stimmen ist die nächste Konsolengeneration also doch wieder vom Start weg veraltet.
Ich glaub nicht das AMD das Ende des Jahres kontern kann.

War doch komplett klar, Halo: Infinite 60 fps, aber wirklich keine Grafik, die einen umhaut, Ratchet & Clank Rift Apart, recht gute Grafik, SSD-Leistung angeteasert, aber nur 30 fps.
Die SSD wurde im Vorfeld so aggressiv und penetrant in den Vordergrund gestellt, dass es einfach nur noch merkwürdig war, ist aber logisch wenn die Hardware trotz "RTX 2080 Ti"-Leistung keine 4K/60fps schafft.
 
Zuletzt bearbeitet:
Zurück
Oben