Test GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

kellerma schrieb:
Ich bin schon ganz gespannt auf die Ergebnisse der RTX 2080- / RTX 2080 Ti-Partnerkarten...

Auf Hardwareluxx wurde schon die Zotax AMP! getestet und die hat im FE Vergleich nicht so toll abgeschnitten.
 
so_oder_so schrieb:
Auf Hardwareluxx wurde schon die Zotax AMP! getestet und die hat im FE Vergleich nicht so toll abgeschnitten.

Wundert mich nicht, wenn man mal die Videos zum Kühlsystem der FE gesehen hat, dann weiss man dass die Partnerkarten es da wirklich schwer haben werden viel besser zu sein.
Bisher wars ja so dass NVidia bei den FEs im Kühlbereich eher Müll abgeliefert hat, das hat sich mit den FEs schlagartig geändert. Radiallüfter, Vapor Chambers die sich über die gesamte Karte ziehen, auto Overclocking Tools etc... Die FE Karten sind noch dazu relativ leise und regelna auch bei Regel Vollast nur auf 60% der maximalen Lüfterdrehzahl hoch.

Da ist nicht mehr viel Luft nach oben.
 
Sehe ich das richtig, dass die Karten nicht mehr ganz abschalten im idle? Das wäre ja schade. Fand das immer Charmant.
 
sleuftdude schrieb:
Sehe ich das richtig, dass die Karten nicht mehr ganz abschalten im idle? Das wäre ja schade. Fand das immer Charmant.

Die FE definitiv nicht, allerdings hört man nur ein ganz leichtes Säuseln, kann sein dass die Partner Karten noch ganz abschalten.
 
Das Problem haben die Founders Editions direkt von Nvidia. Zumindest noch, es ist wohl noch ein Bug, der das abschalten verhindert. Nach Aussage von Nvidia wird daran aber gearbeitet. Ich denke in den nächsten Tagen oder Wochen sollte das dann funktionieren. Die Partnerkarten haben das Problem soweit ich weiß nicht und schalten im Idle die Lüfter ab.
 
Toprallog schrieb:
Das Problem haben die Founders Editions direkt von Nvidia. Zumindest noch, es ist wohl noch ein Bug, der das abschalten verhindert. Nach Aussage von Nvidia wird daran aber gearbeitet. Ich denke in den nächsten Tagen oder Wochen sollte das dann funktionieren. Die Partnerkarten haben das Problem soweit ich weiß nicht und schalten im Idle die Lüfter ab.

Ok dann ist die info neuer, die letzte Info die ich von NVidia vor ein paar Tagen in deren Forum erhalten hatte war... "Works as designed" als ich gefragt hab ob die Lüfter bei der FE weiter runter gehen bzw. ganz abschalten.
Wär super wenn die das noch hinbekommen, an der Temperatur kanns ja nicht wirklich liegen, die die Karten im Idle haben. Nicht dass es mich stören würde die FEs haben definitiv ein besseres Lautstärkeprofil als meine alte 3 Lüfter MSI, die zwar im idle absolut leise war aber bei Vollast doch definitiv hörbar. Bei der FE ist im Idle ein leichtes Säuseln und bei Vollast ein unmerklich lauteres Säuseln (kein Wunder RPM Differenz der Lüfter bei beiden Modi ist 1500 bei idle und 1900 bei Vollast, bei 3000 möglichen RPM). Kann aber sein dass mein BeQuiet Gehäuse da auch ein bischen was schluckt.
 
Wo haben die neuen Fe bitte Radiallüfter? Das sind definitiv Axiallüfter.
 
  • Gefällt mir
Reaktionen: Verak
SKu schrieb:
Wo haben die neuen Fe bitte Radiallüfter? Das sind definitiv Axiallüfter.
Jepp mein Fehler... ich verwechsel das immer, meine aber das Richtige, ich werde langsam alt. Egal was ich sagen wollte ist, dass die neuen FEs zumindest die 2080er angenehm leise sind. Kein Vergleich mehr zu den alten Dingern wo man wirklich nur mehr die Lüfter runterreissen konnte und durch was ordentliches ersetzen musste.
Vergleichsweise klein sind die Karten auch, brauchen aber 2 Slots.
 
Bisher hat man die Kühleistung doch noch gar nicht sehen können. Erst wenn neben den CUDA-Cores auch die RT und Tensor Cores parallel belastet werden wird sich zeigen was die Kühllösung der FE leistet.
 
Dark Matter schrieb:
Diese ganzen vergleiche mit RTX 2080 vs. GTX 1080Ti sind Blödsinn. Nur weil die RTX 2080 mehr kostet wie die GTX 1080Ti.
Man vergleicht GTX Ti vs. RTX Ti, GTX **80 vs. RTX **80 usw.
Wahnsinn wie viele Leute hier argumentieren, man könne die 1080 Ti nicht mit der 2080 vergleichen, weil das ja nicht die selbe, von nVidia diktierte, Leistungsstufe sei. Ihr packt bestimmt euer Gehirn jedes mal nach dem Aufstehen in eine Tupperdose und stellt sie ins Nachtschränkchen, für später. :rolleyes:

Ach und übrigens: es heißt "als die GTX 1080 Ti", aber s.o. :rolleyes:
 
  • Gefällt mir
Reaktionen: betzer, Freejack35 und Caramelito
Capthowdy schrieb:
Wahnsinn wie viele Leute hier argumentieren, man könne die 1080 Ti nicht mit der 2080 vergleichen, weil das ja nicht die selbe, von nVidia diktierte, Leistungsstufe sei. Ihr packt bestimmt euer Gehirn jedes mal nach dem Aufstehen in eine Tupperdose und stellt sie ins Nachtschränkchen, für später. :rolleyes:

Ach und übrigens: es heißt "als die GTX 1080 Ti", aber s.o. :rolleyes:
1) Bin deiner Meinung, man vergleicht nach Preis bzw. P/L. Also nehme ich als Kunde das Item, welches besser/gleich performt und weniger kostet.

2) Auch deiner Meinung, "ich bin besser WIE du" klingt sehr ... verstehe das einfach nicht, warum man ALS durch WIE ersetzt. Man spart ja nicht einmal Buchstaben und klingt behämmert :D
 
  • Gefällt mir
Reaktionen: Herr Melone, Begu und Capthowdy
JaKno schrieb:
Solange die Leute diese Preise bezahlen wird Nvidia solche Preise verlangen.
ist doch dasselbe :cool_alt:
Die Roten haben es damals, war glaub zuletzt die 7970 wo sie schneller am Markt waren, nicht anders gemacht...
 
Der Wasserkühlblock ist unterwegs.
Aber noch keine Info zum Status der FE :-D

Dann kann ich den Block wenigstens Probehalten und mir das RTX ON dazu vorstellen.
 
SKu schrieb:
Bisher hat man die Kühleistung doch noch gar nicht sehen können. Erst wenn neben den CUDA-Cores auch die RT und Tensor Cores parallel belastet werden wird sich zeigen was die Kühllösung der FE leistet.
Jein, die Kühlleistung der bisherigen Optionen, also reine GPU Core Belastung kann man sehr gut vergleichen und für die nächste 2-3 Jahre wird das wohl das Entscheidende bleiben. Wobei ich nicht glaube dass RTX und DLSS viel Unterschied machen werden, da ja der 3d Core entsprechend weniger belastet wird (Raytracing fährt man dann mit weniger Auflösung sonst wirds sowieso zur Slideshow, DLSS ist weniger Auflösung hochgerechnet), aber man wird sehen.

Die Kühlleistung der weiteren Dinge werden wir erst sehen, da ist aber ein Vergleich zur Vorgängergeneration ziemlich hinfällig, was soll man vergleichen, was es dort einfach nicht gibt. Da kann man dann maximal die FE mit den Custom Karten vergleichen.
 
Hejo schrieb:
Es geht nur eins von beiden wer einen GSync Monitor hat MUSS Vsync ausschalten in den Games.
Gsync ist die bessere Variante, macht gar keinen Sinn es auszuschalten in dem man VSync aktiviert!

Das kannst du ihm Treiber und auf der Homepage von Nvidia nachlesen.

Hast du schon mal adaptives Vsync in Games gefunden? Ich weiß wie man Gsync nutzt da ich es selber habe. In Games ist Vsync aus und im Treiber ist Gsync + Vsync aktiviert.

BRAINs schrieb:
Nein, das hat Nvidia so geändert. Gsync funktioniert nur noch mit zugeschaltetem Vsync. Gibt eine Menge Threads dazu in diversen Foren.

Dass Gsync funktioniert merke ich daran, dass sich bei anderen Spielen, die mehr Leistung erfordern, die FPS Zahl verändert. Bei Vsync ohne Gsync würde es immer nur 60 oder 30 anzeigen und nicht alle möglichen Zahlen dazwischen.

Kann ich so auch bestätigen, nur das ich mehr als 60 Hertz habe.

POST #10 Fortune Hunter lesen
 
Zuletzt bearbeitet:
Capthowdy schrieb:
Wahnsinn wie viele Leute hier argumentieren, man könne die 1080 Ti nicht mit der 2080 vergleichen, weil das ja nicht die selbe, von nVidia diktierte, Leistungsstufe sei. Ihr packt bestimmt euer Gehirn jedes mal nach dem Aufstehen in eine Tupperdose und stellt sie ins Nachtschränkchen, für später. :rolleyes:

Ach und übrigens: es heißt "als die GTX 1080 Ti", aber s.o. :rolleyes:

Bin ich voll dabei, wir leben im hier und jetzt, das sind für mich die Vergleiche und Vergleichspreise. Die 1080ti würde ich da mit ca. 700 Euro ansetzen zur Zeit, die Angebote die es immer mal wieder gibt würde ich da jetzt einfach nicht ranziehen, auch wenn wir schon bei 599 Euro waren. Da haben wir jetzt mit der 2080 eine Karte die 850 Euro kostet, also tritt die natürlich gegen die 1080ti an und müsste da auch noch deutlichst was drauf packen, denn da ich immer noch jetzt lebe ist Raytracing völlig egal.

Das alles passiert ja nur in homöopathischen Dosen und somit bleibt die 2080 eigentlich zur Zeit für den normalen Spieler absolut uninteressant.

Die 2080ti wäre dahingehend interessanter, da sie in 4K die Performance tatsächlich merkbar anhebt und somit auch einen Vorteil bringt. Mag bei dem Preis vielleicht Paradox klingen, aber am Ende ist es aus meiner Sicht so, wie gesagt solange Raytracing nicht überzeugend an den Start geht.

Das wird auch der Grund sein, wieso man die ti schon an den Start bringt, denn wenn man nur mit 2080 und 2070 gestartet wäre, hätte man ja zwei echte Rohrkrepierer. Ganz ehrlich ICH würde mich über eine bestellte 2080 für 849 Euro schwarz ärgern weil mich meine Freunde mit der 1080ti auf dem McDonalds Parkplatz für 599 Euro noch fast auslachen können wenn man es ganz hart kalkuliert. Die 2080ti Käufer kann ich aber voll verstehen, die wollen the Top of the World und das bekommen sie auch, die wissen worauf sie sich einlassen.

Das wird aber auch bedeuten das die 1080ti im Preis wohl erstmal stabil bleiben werden, außer ein Händler braucht noch etwas Kohle, denn wieso billiger machen, eine Alternative zum Preis gibt es im Moment einfach gar nicht, wenn der Kunde ein wenig nachdenkt. Die 2080 wird auch wohl eine Raytracing Performance abliefern die nicht gerade ein Quell an Freude auslösen wird, von den 2070 ganz zu schweigen.

Jetzt müsste AMD mal ne Karte hinzaubern die kein eigenes Kraftwerk erfordert und auch im 4K Bereich richtig rumwildert, die Chance wäre jetzt da aus meiner Sicht.
 
Aldaric87 schrieb:
ist es doch bedenklich wenn ein G-Sync Monitor einen Lüfter braucht. Soweit man bisher weiß, brauchen die FreeSync 2 Monitore auch keinen Lüfter

Gibt's davon auch 4k 120hz? Wenn nicht ist es auch klar dass sie keinen Fan brauchen. Scheint wohl eher der FPGA Panel Spezial Treiber für das 4k 120hz zu sein der noch zu wenig in Hardware gegossen ist um richtig effizient zu sein.
 
IXI_HADES_IXI schrieb:
Hast du schon mal adaptives Vsync in Games gefunden? Ich weiß wie man Gsync nutzt da ich es selber habe. In Games ist Vsync aus und im Treiber ist Gsync + Vsync aktiviert.

Macht technisch einfach keinen Sinn, VSync immer aus Spiel wie Treiber und FPS abgrenzen (im Game, mit Tool o.ä.) auf 3 unter der Bildwiederholungsrate des Monitors, so bleibe ich immer im aktiven Gsyncbereich. Bei deiner Variante kann sich ggf. das Inputlag erhöhen.
Hast vlt. den Gamestar Artikel gelesen?;)
 
@Hejo
Schau dir den Blurbuster Artikel zu G-Sync an. Dort steht beschrieben warum Vsync im Treiber an und in allen Anwendungen aus. Wenn ich heute Abend zu Hause bin, kann ich den auch eventuell suchen.
 
Capthowdy schrieb:
Wahnsinn wie viele Leute hier argumentieren, man könne die 1080 Ti nicht mit der 2080 vergleichen, weil das ja nicht die selbe, von nVidia diktierte, Leistungsstufe sei. Ihr packt bestimmt euer Gehirn jedes mal nach dem Aufstehen in eine Tupperdose und stellt sie ins Nachtschränkchen, für später. :rolleyes:

Ach und übrigens: es heißt "als die GTX 1080 Ti", aber s.o. :rolleyes:

Caramelito schrieb:
1) Bin deiner Meinung, man vergleicht nach Preis bzw. P/L. Also nehme ich als Kunde das Item, welches besser/gleich performt und weniger kostet.

2) Auch deiner Meinung, "ich bin besser WIE du" klingt sehr ... verstehe das einfach nicht, warum man ALS durch WIE ersetzt. Man spart ja nicht einmal Buchstaben und klingt behämmert :D

Also,

Erstens: Ich finde es eine Frechheit hier Leute/User als Dumm (Gehirn in Tupperdose) zu bezeichnen!

Zweitens: Nur weil es Leute/User gibt die Hardware anders vergleicht als Ihr, hat man die nicht als Dumm zu bezeichnen (Gehirn in Tupperdose)

Drittens: Ich vergleiche meine aktuell verbaute HW mit neuer HW. Hier hat die RTX 2080 bis zu 100% mehr Leistung als meine alte Graka. Daher ist mir das schei..egal ob die RTX 2080 nun nur 6% vor einer GTX 1080Ti ist.
Nicht mein Problem wenn Ihr schon alle eine GTX 1080(Ti) habt und es für euch nicht lohnt Upzugraden.

Viertens: Ja, ich bin Early Adaptor und gebe RT, DLSS und den Tensor-Cores eine Chance. Akzeptiert endlich/einfach das es User gibt die diese Preise bezahlen!

Fünftens: Wie klein muß euer Ego sein, wenn Ihr anderen Foristen hier Fehler in der Rechtschreibung/Grammatik vorwirft und man sich auch noch bei anderen dafür bedankt!? Fühlt Ihr euch dadurch Erhaben und als was besseres?
Ich wette, dass auch Ihr nicht immer alles in absolut korrekter Rechtschreibung/Grammatik hier schreibt/postet.

Echt Kindergarten hier....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ExBergmann, Oneplusfan, R.K.J und 4 andere
Zurück
Oben