News GeForce GTX 1070 Ti: Custom Designs von Asus über EVGA und MSI bis Zotac

Caramelito schrieb:
Bedenken bzgl. Gamer, aber ein sehr nettes Update für Miner.

Jetzt sind AMD Karten definitiv noch beliebter fürs Mining und haben einen deutlichen Vorteil ggü. Nvidia-Grakas.

AMD hat halt gemerkt wo mach gut Kohle abgreifen kann.
Von wegen Fairtrade und so...
 
Caramelito schrieb:
@FreeSync/dusk:
Spiel mal eine Runde mit 144hz und FS off und dann eine Runde mit 144hz und FS on. Du merkst keinen Unterschied.

ich merke schon auf dem desktop, wenn freesync aus ist. :freak:

ich kann ehrlich gesagt nicht nachvollziehen, wie man empfindungsmäßig so abgestumpft sein soll, dass man da angeblich keinen unterschied sieht, aber dann von sich auf alle anderen schließt?

schmeckt für dich auch leberwurst nach nutella?

zum rest: lol.

ein paar beiträge vorher war vega das schlechteste, was es gibt. und jetzt sinds nur die fehlenden customs? wenn du so ein enthusiast bist, wieso klemmst du vega nicht in deinen custom loop - damit sind alle probleme gelöst? oder ist der "technikenthusiasmus" mit dem kauf einer nvidia GeForce GTX schon genügend befriedigt?

es gibt auch user hier im forum, die sich trotz 1080 ti eine vega (zusätzlich) gekauft haben, weil die karte wohl doch einen gewissen reiz hat. ich wünschte von den leuten würde es mehr geben - die sind nämlich tatsächlich neutral. von denen liest man auch nicht so ein grenzwertiges nvidia getrolle in jedem thread.

bin mal gespannt, was es von den üblichen verdächtigen im 1070ti testthread zu lesen gibt, nachdem im CB benchmark aus dem letzten jahrhundert mit 80% gameworkstiteln die 1070ti gegen stock vega 56 mit allerlei throttelei vermutlich gewinnen wird. auch schön zu lesen werden die "hab ich ja mit meinem 1070 ti preorder als ersatz für meine 1070 alles richtig gemacht, monopolist 4 laif." kommentare sein.
 
Caramelito schrieb:
Ich habs für mich selbst getestet, du auch für dich selbst?

Kennste Rocket League?
Spiel ist mit 144 FPS zu 60 FPS (bzw. 144 Hz zu 60 Hz) schon ordentlich angenehmer zu spielen.
Wenn man dann noch FreeSync dazu schaltet, auch wenn man bei 120+ FPS liegt, nochmal ein ganzes Stück.

Wo das angemerkt wird? In jedem einzelnen Freesync/G-Sync Vergleich?
Und nein, ich werde jetzt nich für dich auf Google gehen und den erstbesten Beitrag verlinken.
 
Eben 144vs60fps stimme ich zu, spiele selbst mit 140+ FPS auf 144hz.

144hz mit FS waren eben kein Mehrwert mehr für mich, ich merke da keinen Unterschied als mit 144hz und 140fps zB.
Im Gegenteil, Overwatch spiele ich sogar mit 170-180fps, wäre sogar außer Range.

Die typischen Videos zeigen eben die deutlichen Vorteile ggü. Non-Sync (F oder G) und das meist bei 60hz/60fps.
144hz/f-sync vs 144hz/ohne FS gibt's nicht wirklich in diesen "Tests" ;)


@Dusk:
Der einzige der ein Troll bzw. Fanboy ist, bist du mein Freund.
Zeigt sich anhand dessen, dass du die Vega verteidigst, als wäre sie deine Tochter, ziemlich genial zu lesen was du von dir gibst.
Erst ist AMD so nice und will die Graka an die Gamer bringen, zum tollen "Mining-Treiber" sagst du natürlich nichts.

@Sync: Ich merke auch wenn meine 144hz nicht aktiviert sind im Desktopbetrieb.
F-Sync hat da genau gar nichts gebracht auf meinem Desktop ;-)

Wo habe ich geschrieben, dass Vega das schlechteste war?
Meine Gegenargumente waren:

Laut, stromhungrig, teuer, gleiche Leistung wie 1080, 1 Jahr später.

Ein Costummodell (siehe Asus Strix) macht schon mal das "laut" weg, steigert nochmal die Leistung, ist weiter stromhungrig und leider teuer bzw. nicht zu haben.
Dazu schrieb ich: Asus Strix V64 um 500-550 und es ist eine Option.
Also wo schreibe ich, dass Vega das schlechteste ist?

Stand jetzt ist es immer noch so verglichen mit einer 1080.

Vega ist teurer, bietet die gleiche Leistung, ist viel lauter, ist stromhungriger.
gleiche Leistung und lauter liegt vor allem am Turbinen-Design.

Teurer müsste noch was gemacht werden von den Costums und stromverbrauch wäre mir persönlich bei einer ~38dB leisen Karte und guter Leistung ziemlich wurscht ;)

Die 1070ti ist immer noch sinnlos - Aber du bereitest dich ja jetzt schon darauf vor, oder wie? :D
Lächerlich.

Und wer sagt, dass ich ein Enthusiast bin?
Ich spiele gerne mit 140+ FPS und will nicht rumfrickeln.
OC, UV etc. mache ich gerne, aber sicher nicht Kühler etc. umbauen bei einer ohnehin schon teuren Grafikakrte.
 
Zuletzt bearbeitet:
@Jan: Also ehrlich, so vieles habt ihr geändert, aber euer Stuss mit dem kürzeren PCB der Gigabyte G1 steht immernoch drin. Nochmal so, dass ihr es nicht überseht:


Die Gigabyte GTX 1070 G1 Gaming ist bis auf den Chip absolut identisch mit der non-Ti-Version in der Revision 2.0! Die Revision 1.0 hatte noch ein längeres PCB, die Revision 2.0 hat auch bereits das kurze PCB wie die hier abgebildete Version!
 
Caramelito schrieb:
Die typischen Videos zeigen eben die deutlichen Vorteile ggü. Non-Sync (F oder G) und das meist bei 60hz/60fps.
144hz/f-sync vs 144hz/ohne FS gibt's nicht wirklich in diesen "Tests" ;)

https://www.youtube.com/watch?v=y133cZyzyxI&feature=youtu.be

kein test aber ein vergleich.

Caramelito schrieb:
Zeigt sich anhand dessen, dass du die Vega verteidigst, als wäre sie deine Tochter, ziemlich genial zu lesen was du von dir gibst.

ja vega gehört auch verteidigt, weil in der heutigen zeit aus allem direkt ein shitstorm fabriziert wird. die leute haben sich vorgestellt, dass amd mit 150w die titan abräumt, das geht aber nicht - habe ich schon mehrfach erwähnt. und jetzt ist die enttäuschung groß, raja muss gefeuert werden und der ganze blödsinn. vega ist das, was sich amd derzeit leisten kann und das beste, was amd mit dem budget auf die beine stellen konnte um an mehreren fronten die konkurrenz beschäftigen zu können. die referenzkarte ist wie jede referenz nunmal ein radiallüfter.
nun haben wir ne karte (56), die zwischen 400 und 450€ kaufbar ist und sich mit dem richtigen tuning sehr respektabel verbessern lässt und so karten angreift, die wesentlich teurer sind. dazu kommen haufenweise brandaktuelle techniken wie rapid packed math, primitive shaders, hbcc usw usf. die noch nichteinmal in benchmarks einfließen. von einem rein technischen gesichtspunkt ist vega 100 mal interessanter als pascal - das ding bietet nix außergewöhntliches.

die karte ist nicht plug&play, aber das technische grundgerüst bietet sehr viel potential und ist keineswegs schlecht, vorallem interessant wird der vega refresh, bei vega gibts einige stellsschrauben zum optimieren.

Caramelito schrieb:
Erst ist AMD so nice und will die Graka an die Gamer bringen, zum tollen "Mining-Treiber" sagst du natürlich nichts.

die miner kaufen amd karten ohne zu maulen, im gegensatz zu den gamern, die nur maulen, und dann nvidia kaufen. zudem ist der treiber nicht exklusiv fürs mining, sondern für alle anwendungen, die mehrere amd karten benötigen. das war ein quality of life update. warum man hier wieder herummotzen muss, weiß ich nicht. würde man den treiber nicht releasen, würden die 0,7% marktanteile von polaris gpus auch nicht magisch ansteigen.

Caramelito schrieb:
Und wer sagt, dass ich ein Enthusiast bin?
Ich spiele gerne mit 140+ FPS und will nicht rumfrickeln.
OC, UV etc. mache ich gerne, aber sicher nicht Kühler etc. umbauen bei einer ohnehin schon teuren Grafikakrte.

wenn du kein enthusiast bist, bist du auch automatisch garnicht die zielgruppe von vega. die karte setzt halt ein gewisses maß an spaß an der technik und tuning voraus, wie sich herausgestellt hat, zudem muss die abwärme bewältigt werden. ich weiß nicht, wieso du im speziellen immer auf vega herumreiten musst, wenn die karte offensichtlich an deinen bedürfnissen vorbeigeht. andere haben einfach kein problem damit n paar minuten in wattman zu verbringen oder nen wasserblock auf die karte zu schrauben - die hauptprobleme von vega sind absolut lösbar, und wenn die karte ihre bremsklötze entfernt bekommt, ist sie eine der besseren flaggschiffe von amd.
und selbst ohne jeden manuellen eingriff ist die vega56 durchweg eine performantere karte als die gtx 1070.

ich hätte hier bspw. einen custom loop stehen, der eine vega 56 nach dem 64 bios flash und ein paar minuten wattman vor eine gtx1080 setzt :freak: was jucken mich 1070 & 1080 - aber das trete ich nicht in jedem thread breit. im gegensatz zu den ganzen "nvidia plug&play" jüngern, die in jedem thread das übliche vega gebashe von wegen "keine customs, strom, langsam, laut" etc runterbeten, das will niemand mehr lesen - die statements gibts schon 10000fach im vega test thread.
zu zeiten der gtx480 war stromverbrauch kein problem, und jetzt auf einmal wird effizienz ganz groß geschrieben. ich hoffe zu der ultrasparsamen geforce karte wurden auch gleich entsprechende küchengroßgeräte bestellt.
 
Ich bin da auf Caramelitos Seite. Habe FreeSync auch getestet. Gibt keinen markbaren Unterschied, sofern 144Hz anliegen. Es gibt Menschen, die sind empfindlich was Tearing betrifft. Es gibt aber auch Menschen, die sind es nicht. Man kann pauschal nicht sagen, dass GSYNC/FreeSync das Maß der Dinge sind. Diese Vergleichsvideos, auch da fällt mir persönlich kein Tearing auf, sind so oder so für die Mülltonne. So spielt man die Spiele nicht. Kein Mensch stellt sich an einen Punkt und dreht sich sinnlos umher. Bei Spielen mit viel Action liegt die Konzentration wo anders.

Wer meint er bräuchte eine Sync-Technik, der soll ruhig zugreifen.

Vega ist aber definitiv kein Enthusiasten-Produkt. Trotz Big-Chip messen sich die Karten mit den Performance-Chips der Konkurrenz. Enthusiasten kaufen nur Big-Chips mit Leistung.
 
Ich kann bestätigen, dass ich bei 144 Hz merke ob FreeSync an oder aus ist. Irgendein Treiber-Update hatte FreeSync ohne mein Wissen bei mir ausgeschaltet. Ich hab's beim Zocken gemerkt, dass irgendwas nicht stimmt - es füllte sich ruckeliger an als sonst.

ich merke da keinen Unterschied als mit 144hz und 140fps zB.
Bei 140 fps ist der Unterschied wirklich sehr gering. Aber wenn die FPS so um die 100 FPS oder sogar noch dadrunter liegen, dann ist es deutlich besser mit FreeSync.

Aber ja: Bei Overwatch mittem im Gefecht mit > 120 FPS ist der Unterschied nicht spürbar.
 
Klar merkt man Tearing sehr wohl und auch die vom Vsync geschulten Ruckler.

Wer sowas nicht merkt kann genauso gut an einem alten Röhren Monitor zocken. Klar kann man Freesync noch verbessern und stellt euch vor AMD hat dass getan. Im Gegensatz zu NV die immer nur Alten Wein verkaufen und sich immer neue Kunden Gängelungen ausdenken ala Intel. Macht AMD was und klar wenn die XBOX One X sich gut verkauft werden wir bald Freesync TVs sehen, ganz einfach weil die TV Hersteller auch was verdienen möchten.
 
@dusk:
Also 550++ Graka + 200€ Costum Loop und man hat eine etwas stärkere Graka als eine GTX 1080.
Dazu noch Bios Modding + OC/UV.

Das ist für dich also ein Enthusiasten Produkt?

@SKu:
Genau so ist es.
Wenn ich OW, Forza oder nun Destiny 2 spiele, spiele ich schnell und actionreich, da fällt gar nichts auf.
Was ich aber brauche sind 144hz (oder 120, 165, 200,..). Das fühlt sich für mich viel weicher und smoother an.


joomoo schrieb:
Aber ja: Bei Overwatch mittem im Gefecht mit > 120 FPS ist der Unterschied nicht spürbar.

Genau.

Ich habe es nur bemerkt mit der RX 480 damals in Games wo ich nur 50-60fps hatte.
Da war F-Sync sehr nice.
Aber mit so low-fps spiele ich nicht mehr.

Eben Destiny 2 mit ~110fps ohne V-Sync und es läuft butterweich und sieht sehr nice aus.
 
Caramelito schrieb:
@dusk:
Also 550++ Graka + 200€ Costum Loop und man hat eine etwas stärkere Graka als eine GTX 1080.
Dazu noch Bios Modding + OC/UV.

Das ist für dich also ein Enthusiasten Produkt?

ja, es gibt leute, die haben schon n custom loop und jede graka, die da reinkommt, braucht auch n waterblock, deshalb sind die kosten hier immer die selben. ne vega 56 kann man immer mal wieder um etwas über 400€ ergattern, sonst kostet die karte halt derzeit regulär ~460€ mit einem klaren abwärtstrend. in ein paar wochen kommt die auch bei einem normalen preis an.

@ tearing 144hz - wem das in dem video nicht auffällt hat echt was an den augen. menschen werden nicht mit einer natürlichen resistenz gegenüber monitor tearing geboren. manche werden allerdings mit einem undurchdringlichen dickschädel geboren.
 
duskstalker schrieb:
@ tearing 144hz - wem das in dem video nicht auffällt hat echt was an den augen. menschen werden nicht mit einer natürlichen resistenz gegenüber monitor tearing geboren. manche werden allerdings mit einem undurchdringlichen dickschädel geboren.

Völliger Blödsinn. Die Grenzen sind nicht punktuell, sondern verlaufen eher. Jeder Mensch ist unterschiedlich. Die einen sagen auch, dass sie einen Alkoholgehalt von 1 Promille nicht merken, die anderen wiederum merken schon Unterschiede bei 0,3. Ich kann ein Bier trinken und merke es im Kopf kreiseln. Andere, die ich kenne, trinken regelmäßig und denen macht das eine Bier nichts. In dem Video sieht man rein gar nichts, zumal die Qualität für die Tonne ist. Da sehe ich kein Tearing, eher verwaschene Texturen. Was soll ich bei 720p Matsche auch sehen bei 1440p. Richtig, Matsche. Zumal die Bitrate gering ausfällt. Egal was ich spiele, Fortnite, The Evil Within, ab Freitag das neue AC, nirgendwo, nicht ansatzweise fällt mir Tearing auf. Wird in AC nicht anders sein. Bei einem Powerlevel von 99 habe ich in Fortnite gar nicht die Zeit mich auf Nebensachen zu konzentrieren. Mag sein, dass da irgendwo Tearing auftritt. Aber nicht in meinem Sichtfeld. Bei schnellen Spielen gibt es nur eine Formel: So viele FPS wie möglich. So Wechsel sind so schnell, da konzentriert man sich nicht auf Tearing.
 
Zuletzt bearbeitet:
SKu schrieb:
In dem Video sieht man rein gar nichts, zumal die Qualität für die Tonne ist. Da sehe ich kein Tearing, eher verwaschene Texturen.

du siehst das tearing nicht, aber das video ist für deine adleraugen zu unscharf? :lol::lol::lol::lol::lol::lol:

habs dir rot eingekreist.

TEARING.PNG

schau hab dir extra das bild sogar in klein angehängt, weil man das tearing noch in 32x18 pixeln sehen würde, und du wirst von der unsäglichen unschärfe nicht so vom wesentlichen abgelenkt.

ein einem anderen thread hat man bei dem video schon "manipulation" oder "cherrypicking" vermutet, weil das tearing für 144hz / 180 fps so extrem sei.

du wärst auch ne super werbefigur, um den klimawandel wegzudiskutieren. "Was klimawandel? also ich spür nix" - "aber das thermometer zeigt 10°C mehr an als der durchschnitt der letzten 50 jahre" - "thermometer? also ich erkenn da nix, viel zu klein und beschriftung ist unleserlich und wärmer isses auch nicht - hab erst gestern bei mir daheim aufs thermometer geschaut, und da wars nachts kalt. lass mich."

291333_b.jpg
 
Zuletzt bearbeitet:
Cool NV überlegt wirklich im Volta über all ein Bios Lock zu machen. Tja dann war die GTX1070 ti nur sowas wie ein Test. Sehr sehr interessant diese neuen Gerüchte.
 
@dusk

Spielst du so deine Games? Hinstellen und Maus schwenken und Tearing suchen?

Wenn du ingame bist und spielst merkst du nichts davon, das meinte SKu.
Ist genau so wie mit den Grafiksettings.

Wenn ich ein Video oder Screenshits (den Vertipper muss ich steheb lassen ^^) gezielt ansehe um die die Stufen Sehr Hoch und Ultra zu vergleichen sehe ich Unterschiede.
Wenn ich gerade von 5 Seiten beschossen werde in einem Game merke ich davon nichts.

Zum Tearing, ich weiß nicht was der Typ eingestellt hat im Video.. Schalt 144hz ein, FS aus, pass deine Settings an, so dass du 120+ FPS hast, in OW solltens eigentlich mehr sein, dann stell dich da hin wie so ein Turm und schau nach links und rechts. Kein Tearing ;)

@Enthusiast
Also viel Geld ausgeben, rumwerkeln und dabei weniger Leistung haben ist immer noch kein Enthusiast-Level. Für das Geld einer v64+waterblock etc. bekommst dann eine 1080ti und hast mehr davon :p
 
SKu schrieb:
Habe FreeSync auch getestet. Gibt keinen markbaren Unterschied, sofern 144Hz anliegen. Es gibt Menschen, die sind empfindlich was Tearing betrifft.
Stimmt, bei überwiegend >100fps ist der Unterschied kaum bemerkbar. Ich baue meistens Low-Budget-Systeme, dort ist der Unterschied bei <60fps gewaltig. Dazu braucht es auch keinen Monitor mit ner breiten Sync-Range. Wenn da 40-70Hz möglich sind, reicht das dicke aus um einen riesigen Unterschied ggü Nosync festzustellen.
Da sehe ich allgemein den größten Nutzen von Freesync. da bleibt G-Sync komplett aussen vor, den ein Low-Budget System mit G-Sync gibt es einfach nicht (->Monitorpreis).
 
Caramelito schrieb:
@dusk
Spielst du so deine Games? Hinstellen und Maus schwenken und Tearing suchen?

Moin,

ich lese hier eine Weile interessiert mit. Was deine Ausführungen zu Grafikkarten insbesondere Vega angeht, bin ich voll auf deiner Linie. Beim Tearing sehe ich das so, dass es beim Testen nicht darauf ankommt, eine Alltagssituation nachzustellen. Ich mache auf dem Weg zur Arbeit mit meinem Auto auch keinen Elchtest.

Ich glaube dir, dass du bei 144 Hz keinen Unterschied zwischen FS und non FS wahrnimmst. Ich frage jedoch mal ganz ketzerisch: wenn du keinen Vorteil durch FS siehst, worin besteht denn der Nachteil?
 
Auf 3dcenter.org steht warum NVidia keine OC Karten haben will, weil die versägen die GTX1080 und werden (fast) so schnell wie OC GTX1080 Karten. Damit würde sich Nvidia den Markt für die GTX 1080 kaputt machen.
 
Zurück
Oben