Test Gigabyte GTX 1080 G1 Gaming im Test: Kompakt viel Leistung mit Silent-Potential

Ich mag die G1. Ein noch relativ schlichtes Design ohne viel RGB-Klimbim und nicht so abartig groß wie die Strix, dabei aber trotzdem nicht lauter oder wärmer als die Strix. Die Backplate könnte etwas mehr hergeben, und der RGB-Schriftzug sieht auch nach nichts aus. Aber die Leistung und das Gesamtpaket stimmen.

Allerdings bin ich von der GTX1080 nicht besonders überzeugt. Zwar beeindruckt die Leistung auf dem ersten Blick, aber die Leistung scheint in erster Linie aus dem bloßen Takt zu kommen. Eine GTX980Ti mit vergleichbarem Takt, ist auch nicht langsamer, oder gar schneller. Spricht in meinen Augen nicht für die architektionischen Verbesserungen jenseits des Shrinks.

Am Ende wird natürlich die Karte gekauft, die am besten passt. Das könnte die G1 werden, aber dann muss sie bis zum Spätsommer oder Herbst deutlich unter 600 Euro fallen. Und im Moment wäre nicht überrascht, wenn AMD letzten Endes das bessere Angebot in diesem Preisbereich haben sollte (aber dann wohl erst mit Vega, was nocht bis Anfang 2017 dauert).
 
sverebom schrieb:
Und im Moment wäre nicht überrascht, wenn AMD letzten Endes das bessere Angebot in diesem Preisbereich haben sollte (aber dann wohl erst mit Vega, was nocht bis Anfang 2017 dauert)..

Bis dahin ist die TI bereits drausen und dann werden die Karten neu gemischt.

AMD released immer ein halbes Jahr zu spät... Oder Nvidia zu früh?
 
Zuletzt bearbeitet:
JazzLash schrieb:
Bis dahin ist die TI bereits drausen und dann werden die Karten neu gemischt.

AMD released immer ein halbes Jahr zu spät... Oder Nvidia zu früh?

Ich glaube die werden erst kurz vor Jahresende die Neue Titan vorstellen und dann ende erstes Anfang zweites Quartal 2017 die 1080-ti bringen

Natürlich reine Spekulation Glaskugel inc. und so

mfg.Harle
 
Gerade der 4K Test ist doch interessant...
Wieso wird auf alten Auflösungen herumgeritten?
Ich benutze 4K seit 2 Jahren, und das als normaler Spieler....
 
Ist das mit der Garantie nicht eher sekundär?? Wer sich in dem Segment ne Karte kauft, schmeißt die doch eh spätestens wieder raus wenn die TI kommt, oder??
Für eine langfristige Lösung ist die 1080 doch eh nicht erste Wahl - zumindest meine Meinung.
 
40% vor meiner 390x in 4k bei 150 watt weniger verbrauch. Echt krank! :D
 
Zuletzt bearbeitet:
Ich finde die Gigabyte hört sich vom Laufgeräusch her wieder am schlechtesten an...
Zwar lange nicht mehr so schlimm wie die 980TI, aber trotzdem..
Bin auf die MSI gespannt. :p
 
JazzLash schrieb:
Bis dahin ist die TI bereits drausen und dann werden die Karten neu gemischt.

Die Ti were ich aber mit Sicherheit nicht kaufen. Ich habe ein Budget von 500 Euro für meine neue Grafikkarte eingeplant, maximal 600 Euro für eine wirkliches Knallermodel. In diesen Preiseregionen werden wir niemals eine GTX1080Ti sehen, wohl aber vielleicht eine Fury, die vielleicht sogar hier und da die GTX1080Ti angreifen kann. Oder eben eine GTX1080, wenn AMD dieser Karte vielleicht doch nichts entgegen setzen kann. Und mit einem Budget von 500 Euro liege ich im Übrigen schon weit außerhalb dessen, was der durchschnittliche Käufer ausgibt. Für die die absolute Leistungskrone interessiert sich spätestens an der Kasse niemand mehr. In diesem Sinne wird Nvidia zu spät dran sein mit einer Karte für den Kernmarkt.
 
Zuletzt bearbeitet:
Moriendor schrieb:
Richtig. Dank der eingebauten Voltage Handbremse ist es im Grunde völlig Jacke wie Hose, welche Karte man sich kauft. Alle GTX 1080 machen bei spätestens knapp unter 2,1GHz den Schirm zu. Die Hersteller, die mit extra 8-pin (extra 6-pin kann wohl nix schaden), Mega-OC und Drölfmillionen Heatpipes werben, kann man nur auslachen.

http://forums.videocardz.com/topic/1482-kingpin-overclocks-gtx-1080-to-2835-mhz/#comment-5011
ganz so stimmt dein "alle" dann doch nicht ;).
 
@sverebom AMD wird für ihre Topmodelle, Vega, garantiert nicht unter 600€ verlangen, die haben auch nichts zu verschenken und wenn Nvidia anzieht, ziehen die auch an. So meine Prognose für das nächste Jahr :D
 
acc schrieb:

Ja, aber das ist auch k|ingp|n... Als ob da irgendwas genutzt wurde, was auch nur annähernd Referenz ist. In diesen Bereichen kommt dann z.B. sowas hier als Stromversorgung zum Einsatz:
IMG_7092.jpg [Quelle: http://overclocking.guide/nvidia-gtx-titan-x-external-power-guide/ ]
Sollte klar sein, dass man damit + LN2 dann nochmal höher kommt..
 
4k ist für die Tonne ohne >120hz, mich interessieren viel mehr 1440p tests, da gibt es gescheite IPS 144hz monitore.
 
solche Karten hoffentlich bald noch kleiner und Stromsparender als diese großen Monster Karten die über 200W fressen...
 
Max007 schrieb:
4k ist für die Tonne ohne >120hz, mich interessieren viel mehr 1440p tests, da gibt es gescheite IPS 144hz monitore.

Der Typ mit dem FHD TN Panel @ 60hz :D

Was hält euch eigentlich ab die Ergebnisse der 4k Benches auf FHD oder 1440p zu übertragen?
 
Zuletzt bearbeitet:
4k sind auch ohne 120hz top, ziehe ich gerne jedem low res 120er Display vor, einfach weil ich mehr als Gaming an der Workstation mache. ;) außerdem Spiel ich lieber bei 60fps und max Details als bei 120 und low.

@topic
Ausgehend von den CB ratings kann man auf eine Stock GTX 1080 immer etwa ~ 15% für die OC Modelle aufschlagen.
 
JazzLash schrieb:
@sverebom AMD wird für ihre Topmodelle, Vega, garantiert nicht unter 600€ verlangen, die haben auch nichts zu verschenken und wenn Nvidia anzieht, ziehen die auch an. So meine Prognose für das nächste Jahr :D

Doch, AMD hat was zu verschenken. Oder vielmehr muss etwas verschenken, nämlich die gleiche oder bessere Performance zu einem geringeren Preis, um wieder Marktanteile zu gewinnen. Und nach der Vorstellung der RX 480 deutet die Tendenz eher darauf hin, dass die Radeon-Familie zumindest nicht teurer werden wird als die letzten Generation, was bedeutet, dass wir um 550 Euro eine RX Fury sehen werden.

Und glaubst du etwa wirklich, dass die GTX1080 so teuer ist, weil NVidia die Karte nicht günstiger produzieren kann; dass NVIdia knapp über dem Selbstkostenpreis und den Entwicklungskosten produziert? Die reizen ihre Marktposition und die momentane Exklusivität ihrer Produkte aus und und versuchen, dass Preisgefüge abermals ein wenig weiter nach oben zu verschieben. Sobald sie Druck von AMD bekommen, werden die Preise nachgeben.
 
Bitte in 1440p und 1080p ebenfalls testen. Ich komme bin neugierig auf Benchmarks und dann nur 4k :(

über 90% interessiert 4k doch nicht! :rolleyes:
 
dem Test auf Seite 1 schrieb:
Die maximale Drehzahl beträgt 4.200 U/min, die Hälfte davon wird unter Last erreicht.
Das hat Gigabyte auch bei den Windforce-Lüftern bei meiner Karte so ähnlich gemacht. Meine könnte bis etwa 4300 rpm hoch, wird aber via BIOS bei knapp über 3000 begrenzt und rennt dabei ins Temperaturlimit. Setze ich das mit PrecisionX höher auf beispielsweise 3700, erhalte ich mehr Leistung, obwohl ich immernoch an den 83 Grad kratze. Allerdings hört sich es dann wirklich wie ein Fön an...

= Die Lüfter müßten allgemein garnicht so hohe Maximaldrehzahlen haben, kA warum solche verbaut werden.
dem Test auf Seite 2 schrieb:
Gigabyte bietet für die GeForce GTX 1080 G1 Gaming eine Garantie von drei Jahren gegenüber dem Handel. Die Laufzeit beginnt allerdings nicht mit dem Kauf sondern dem Herstelldatum.
Und woher weiß der Käufer dann genau, wann die Karte fertig zusammengebaut wurde? Wenn die Karte von Asien im Container 3 Wochen bis Rotterdam/Hamburg unterwegs ist, geht das ja schon von der Garantiezeit ab...

Also ist die Inno3D bislang die schnellste von euch getestete 1080... bin mal gespannt, wann es ein Partnerdesign gibt, das einfach auf der FE basiert mit derem sparsamen Verbrauch -aber wesentlich leiserem Kühlsystem.
XdaywalkerX schrieb:
Meine 770 und 780Ti von Gigabyte hat in der jeweils ersten Lieferung einen Lüfter-/ Lagerschaden (rattern).
Meine nicht, allerdings betreibe ich meine Karte auch richtig herum, d.h. bei mir "hängen" die Lüfter nicht.
JazzLash schrieb:
144hz is fol sinlos, wail s kain 4k gibt sondan nua 1440p
Eigentlich kannst du ja normal schreiben, aber zu dem da fällt mir nur ein= Stift gerader halten, Kevin! :lol:
IngoKnito schrieb:
Warum werden die 1080er ausschließlich in UHD gebencht?
Weil man in UHD die Karte mehr ausreizt.
ruegen1 schrieb:
Wieso wird auf alten Auflösungen herumgeritten? Ich benutze 4K seit 2 Jahren, und das als normaler Spieler....
Ja, Du -aber Du bist ja nicht die magischen 51% ;) und mal davon abgesehn gab es vor der 1080 streng genommen keine echte "4K-Karte", man brauchte für stabile Minimum-fps immer 2. Jedenfalls solang man das neueste in der hohen Auflösung spielen wollte.

Die absolute Mehrheit reitet noch in FullHD rum und ich denke, der Anteil bei 1440p vergrößert sich erst seit 2015 so richtig. und UHD bzw 4K oder auch EyeFinity/Triple-Surround etc Spieler sind sind halt eine *hust* Randgruppe.
 
Zurück
Oben