Test Test: Nvidia GeForce GTX 680

Warum lese ich den Test erst 3 Tage später? ^^

Liest sich ganz gut, wie Nvidia weiterentwickelt hat und der Framerate-Limiter ist in meinen Augen das geilste Feature an der GTX680.

Jetzt bin ich mal ganz stark auf die Performance-Karten im Bereich 250-300€ gespannt. Da hat mich AMD zumindest von der Leistung her nicht überzeugen können im Vergleich zur HD6870.
 
riDDi schrieb:
Klar, mit Wasser kommt man mal eben nochmal 40% höher als mit Luft und zwar alltagstauglich inkl. Gewährleistung.
Zotac bringt vielleicht eine Karte mit aufgebohrter Spannungsversorgung und dickem Kühler, aber bei 2 GHz wird die im Auslieferungszustand im Leben nicht laufen.

Ich gebe es auf.
Du bist einfach nicht offen für so ein Thema. Kannst dir nicht vorstellen, das eine Karte, die schon unter Luftstockkühlung bei 40 Grad herumfröstelt und mit Standardspannung bei 1,4 Ghz läuft, mit deutlich besserer Spannungsversorgung und wesentlich besserer Kühlung auch deutlich höhere Takte schafft.

Auch ignorierst du absichtlich den wesentlichen Unterschied zu den traditionellen Rekord-OC-Ergebnissen. Die nur durch extremer Erhöhung der V-Core erreicht werden.
Laut diesem Ergebnis hier : http://www.overclock.net/t/1232947/hwbot-gtx-680-takes-record-1900-mhz
Ist dies aber eine nun völlig andere Situation ! (Man beachte dabei auch die Power-Target-Einstellung von 100% !!)
Der Grund warum man nicht mehr V-Core gegeben hat, liegt nicht an der Leistungsaufnahme, sondern am Boarddesign, welches eben nicht mehr zulässt.
Genau da setzt nun Zotac an und kreiert ein eigenes Boarddesign, was eben diese Limitierung aufhebt. Somit werden wohl OC-Rekorde von 2 GH bis 2,5 GHz kein Problem mehr sein und unter Wasser sind 2 Ghz dann auch in greifbarer Nähe.

Aber das wirst du eh nicht glauben wollen richtig ?

Für Zotac ist dieses Projekt mehr als eine Machbarkeitsstudie. Offenbar ist niemandem hier klar, welche Ausmaße diese neue Wendung im Grafikkartenmarkt bedeuten kann.
Genau deshalb investiert Zotac darin so stark, weil sie eben Lunte gerochen haben.
Der Chip kostet deshalb nicht mehr in der Herstellung oder im Einkauf.
Jetzt gibt man ihm einfach deutlich mehr Takt und schon haben wir das neue teure Flaggschiff von NIVIDA.
Also weg von den teuren großen Siliziumkloppern, hin zu den wesentlich günstigeren und hoch getakteten Turbo-GPUs.
GK110 wird wohl der letzte große Chip werden und ab da gibt es dann nurnoch die Hochfrequenceeinheiten.

Leider hat die Sache einen Hacken. Das SI der GTX680 ist völlig unterdimensioniert und da machen 2 GHz GPU-Takt nur wenig Sinn.
Vielleicht baut Zotac ja etwas größeres, aber ob das so leicht geht ist die Frage.
Bin jedenfalls auf Mitte April gespannt, was sie da auf die Beine stellen werden. :cool_alt:
 
Pickebuh schrieb:
[...]ab da gibt es dann nurnoch die Hochfrequenceeinheiten. [...]
Zu Zeiten von Pentium 4 hat man auch geglaubt, Intel würde mit ihren Prozessoren bald die 4GHz-Marke überschreiten. Wie es sich entwickelt hat, sehen wir heute am Beispiel LGA 2011: Grössere Chipfläche + höhere Leistungsaufnahme.
 
@Pickebuh

Um Gottes Willen, wenn ich das schon lese: 2,5GHz.
Es geht hier um grundlegendes Chipdesign: mit höherem Takt verkürzen sich die Schaltzeiten, wenn die zu kurz werden, passen die Laufzeiten in der Pipeline einfach nicht mehr und nichts funktioniert.

Ein Pentium 1 wird keine 500MHz schaffen, selbst wenn du ihm 50V gibst und die Wärme abführen kannst.

Wenn jemand wirklich erwartet eine Garantie auf 2GHz zu bekommen, dem ist nicht mehr zu helfen...
 
Zuletzt bearbeitet:
Jenergy schrieb:
Zu Zeiten von Pentium 4 hat man auch geglaubt, Intel würde mit ihren Prozessoren bald die 4GHz-Marke überschreiten.

Der Pentium 4 war eine Kochplatte !
Um ihn auf 4 GHz zu prügeln, hätte man wohl eine Wasserkühlung als Boxenkühler mitliefern müssen.
Hat alles mit dem jetzigen Stand der Technik im 28nm-Verfahren rein gar nichts zu tun.
Nun öffnen sich neue Türen und Möglichkeiten, die die alten Denkmuster völlig negieren !
Die kommenden Ivy-Bridge werden mit 5 Ghz keine Probleme haben.

Wie es sich entwickelt hat, sehen wir heute am Beispiel LGA 2011: Grössere Chipfläche + höhere Leistungsaufnahme.

1. Die Leistungsaufnahme ist nicht höher ! eher umgekehrt.
2. Die größere Chipfläche resultiert durch die Mehrkerntechnologie, wo eben nun 8-12 Kerne zum Einsatz kommen. Pentum 4 war ein SingelCore !
Man hat nun mehr Rechenleistung durch Multicore realisiert, als durch Takterhöhung.

Nur ist eben bei der Halbleitertechnik nicht nur die Leistungsaufnahme ein Stein im Weg.
Auch die Taktfrequenz ist begrenzt, da die Schaltvorgänge für die Transistoren zu schnell werden bzw. die Transistoren sind zu träge. Das ist eben so eine Hürde, die man nur sehr schwer erhöhen kann.
Daher ging man den Weg der Multicore-Technologie.

Bei der GPU sind aber 1-2 GHz noch lange nicht als Hürde anzusehen, wo die Transistoren zu träge werden.
Der Grund lang vielmehr in der Leistungsaufnahme, da so eine GPU eben mit Milliarden Transistoren arbeitet und daher deutlich mehr Strom benötigt.

Nun scheint es aber mit dem GK104 deutlich besser zu funktionieren und die Leistungsaufnahme ist im kontrollierbaren Bereich. Daher sind Taktraten nun deutlich mehr steigerbar.
Ergänzung ()

Booby schrieb:
@Pickebuh

Um Gottes Willen, wenn ich das schon lese: 2,5GHz.
Es geht hier um grundlegendes Chipdesign: mit höherem Takt verkürzen sich die Schaltzeiten, wenn die zu kurz werden, passen die Laufzeiten in der Pipeline einfach nicht mehr und nichts funktioniert.

Glaubst du das 2-3 GHz die Grenze sind ?
Unsinn !!
Die Hürde ist die Leistungsaufnahme, die aber anscheinend nun keine so große Hürde mehr ist.

Wenn jemand wirklich erwartet eine Garantie auf 2GHz zu bekommen, dem ist nicht mehr zu helfen...

Die Welt ist eine Scheibe und Amerika gibt es nicht...
Die Schallmauer kann niemals durchbrochen werden...
Zum Mond wird niemals jemand fliegen können...

Nur weil man sich nichts vorstellen kann, heißt das noch lange nicht, das es nicht möglich ist.
 
Zuletzt bearbeitet:
Jenergy schrieb:
Zu Zeiten von Pentium 4 hat man auch geglaubt, Intel würde mit ihren Prozessoren bald die 4GHz-Marke überschreiten. Wie es sich entwickelt hat, sehen wir heute am Beispiel LGA 2011: Grössere Chipfläche + höhere Leistungsaufnahme.
Der 3,8 GHz Pentium 4 war u.a. ein Singlecore (Prescott 2M) mit 115W TDP. Da bekommst du heute acht Kerne plus SMT mit 2,6 GHz und locker der doppelten Leistung pro Takt (Xeon E5-2670). Seit Jahren sind 130 bis 150 Watt TDP die Obergrenze bei AMD und Intel im Serverbereich - und innerhalb dieses Budgets steigt kontinuierlich die Leistung.
 
Geile Karte, aber ich werde mir erst den Maxwell holen.

Finde nur leider Schade, dass Nvidia hier erst mal nur den 'kleinen' Chip veröffentlicht, quasi die alte GTX 460.
Der GK 100 wird wahrscheinlich einen neuen Namen bekommen, GTX 780???
 
Pickebuh schrieb:
Glaubst du das 2-3 GHz die Grenze sind ?
Unsinn !!
Die Hürde ist die Leistungsaufnahme, die aber anscheinend nun keine so große Hürde mehr ist.

Boahh das wird ja immer besser, ja ich glaube die Grenze liegt bei 20GHz :freak:

Die Laufzeiten sind für die Zielfrequenz optimiert (+/- 20% weil die endgültige Frequenz kaum vorauszusehen ist), weil man sonst die Effektivität der Pipeline mindert (Pentium 4).
Sprich weniger IPC. Dann nimmt man etwa 50-70% Sicherheit drauf, damit auch wirklich jedes Signal unter den schlimmsten Bedingungen mit Sicherheit richtig durchkommt. Nur ein Idiot würde seine Architektur für unrealistisch kleine Schaltzeiten auslegen.

Bei CPUs ist die Architektur für längere Zeiträume ausgelegt, in denen neue schnellere Prozessoren kommen sollen, deswegen hat man da größeren Spielraum und somit größere Übertaktungserfolge.


Die Welt ist eine Scheibe und Amerika gibt es nicht...
Die Schallmauer kann niemals durchbrochen werden...
Zum Mond wird niemals jemand fliegen können...

Es gibt physikalische Grenzen, viele erkennt man aber erst nach ein paar Jahren Studium.
 
Zuletzt bearbeitet:
Booby schrieb:
Boahh das wird ja immer besser, ja ich glaube die Grenze liegt bei 20GHz :freak:

Was du glaubst ist eh irrelevant, denn du glaubst offenbar an rein gar nichts. :freak:

Die Laufzeiten sind für die Zielfrequenz optimiert (+/- 20% weil die endgültige Frequenz kaum vorauszusehen ist), weil man sonst die Effektivität der Pipeline mindert (Pentium 4).
Sprich weniger IPC. Dann nimmt man etwa 50-70% Sicherheit drauf, damit auch wirklich jedes Signal mit Sicherheit richtig durchkommt. Nur ein Idiot würde seine Architektur für unrealistisch kleine Schaltzeiten auslegen.

Schön erklärt und mit Fachidiotie geschmückt. Nur leider erklärt das rein gar nicht, warum 2 GHz bei einer GPU nicht möglich sein sollte.
1,9 Ghz sind schon mit dem Stock-Board möglich.
http://www.overclock.net/t/1232947/hwbot-gtx-680-takes-record-1900-mhz
Ich weiß gar nicht wie oft ich diesen Link schon gepostet habe. Aber anscheinend ist es einfach nötig.

Es gibt physikalische Grenzen, viele erkennt man aber erst nach ein paar Jahre Studium.

Ich bin beeindruckt.
Jetzt bist du schon studiert.
Na da will ich dich bei deiner Doktorarbeit oder deinem Nobelpreistitel nicht weiter stören.
:freaky:
 
Ja ich habe studiert und studiere noch, und mache gerade meinen Master in Nachrichtentechnik und ich weiß nicht wie es mit dir steht, jedoch habe ich bereits, wenn auch primitive, Mikrocontroller designed.

Die aktuellen GPU-Architekturen werden sicherlich nicht für die 1GHz ausgelegt sein, sondern noch die nächste Fertigungsstufe einschließen. Ich schätze 1,4 GHz. Da nochmal 70% Sicherheit und es lassen sich unter den besten Umständen wohl 2 GHz erreichen.

@Nordm4nn

Wenn du min. FullHD + hoches AA fährst, wird fast immer die GPU bremsen
 
Zuletzt bearbeitet:
kommt auf das spiel an ^^

tendenziell ja...aber wenig wenn du AA + AF dazuschaltest
 
Naja, vor Jahren als die ersten CPUs mit 80 Mhz auf den Markt kamen, hielt man 100 Mhz für unmöglich. Damals glaubte man, hier an eine physikalische Grenze zu stoßen. Heute hat man dafür nur noch ein müdes Lächeln über.

Will sagen, gerade physikalische Grenzen werden andauernd neu gesteckt. Da gerade die Forschung, die Entwicklung neuer Technologien und deren Umsetzung bestehende Grenzen immer wieder überschreiten lässt.

Ob es nun irgend wann mal GPUs mit 2 Ghz Standarttakt gibt würde ich deswegen nicht ausschließen.

Das die neuen Fertigungsprozesse immer "Taktungsfreudigere" Chips hervor bringt sieht man z.B. an den I5 2500K, die ganze AMD 7er Serie und nun auch Nvidia mit der GTX 680.

Was ich dabei am verblüffensten finde ist, schafft man es die Chips zu übertakten und gleichzeitig die Temperaturen zu senken, verbrauchen die Chips auch kaum mehr Strom.
 
Was hat das eine mit dem anderen zu tun?
Wenn die Architektur dazu nicht fähig ist, geht das nicht auch wenn das Fertigungsverfahren höhere Taktrate zulassen würde, das ist eine Designentscheidung.

Die physikalische Grenze war auf die Signallaufzeiten bezogen. Wenn ein Pegel früher als erwartet kommt, hilft weder Kühlung noch Spannung!
 
Zuletzt bearbeitet:
Hab ich das so schlecht erklärt?

Das mit dem jetzigen Fertigungsprozess und Architektur, die 2 GHz Standarttakt wohl nicht realisierbar sind, sehe ich genauso.

Aber grundsätzlich halte ich sie für durchaus möglich. Wer weis was die Zukunft bringt.
 
Zuletzt bearbeitet:
Es geht bei der Diskussion ja nicht um absolute physikalische Grenzen, sondern um die physischen Beschränkungen des Designs.
Es wäre möglich eine GPU zu entwerfen die auf 3GHZ ausgelgt ist. Nur macht das niemand, weil so ein Ding vom Verbrauch und der Kühlung her unpraktikabel ist.
 
Exakt, außerdem wären die IPC im Eimer.

Verbrauch würde vor allem wegen der V²*f Beziehung steigen.
 
Zuletzt bearbeitet:
Schaby schrieb:
Naja, vor Jahren als die ersten CPUs mit 80 Mhz auf den Markt kamen, hielt man 100 Mhz für unmöglich. Damals glaubte man, hier an eine physikalische Grenze zu stoßen. Heute hat man dafür nur noch ein müdes Lächeln über.

Will sagen, gerade physikalische Grenzen werden andauernd neu gesteckt. Da gerade die Forschung, die Entwicklung neuer Technologien und deren Umsetzung bestehende Grenzen immer wieder überschreiten lässt.
In gewisser Weise ist man schon an Grenzen gestossen. Nicht ohne Grund ist die Industrie den Weg der Mehrkernprozessoren gegangen.

Es gab auch Vorraussagungen die ja nun nachweislich nicht eingetreten sind. Siehe: Intel: "10-GHz-Prozessoren im Jahr 2005"

Sorry für OT! :)
 
Ja die Architektur hätte es geschafft, nur war die Formel aus meinem letzten Beitrag das Problem.
Übrigens ist es auch der Grund wieso der P4 Prescott langsamer war als Northwood. Die Architektur wurde für höhere Taktrate angepasst, das hat die IPC runtergezogen.
 
Zurück
Oben