News Nvidia Gaming Ampere: Angeblicher Kühler der GeForce RTX 3080 fotografiert

CptBabossa schrieb:
Hallo,

auch wenn man das hier leider nicht versteht. Je weniger Strom verbraucht wird desto besser auch für die Umwelt. Klar die paar Euro merkt man nicht. Auch wenn ich keine Kinder habe ist mir schon wichtig was aus dem Planeten wird. Daher versuche ich alles so niedrig wie möglich zu halten.

Ist ja auch nicht verkehrt, hier wurden aber explizit die hohen Stromkosten als Grund genannt und keine ökologischen Gründe.
 
  • Gefällt mir
Reaktionen: UltraJunge25
CptBabossa schrieb:
Je weniger Strom verbraucht wird desto besser auch für die Umwelt.

Grundsätzlich ist das falsch. Wir wandeln prozentual gesehen so wenig Energie um, dass es der Umwelt egal ist. Wenn du Kohlestrom oder so beziehst, ist das eine andere Baustelle.

CptBabossa schrieb:
Auch mit dem Auto bin ich von den PS weg

Was sollen PS bitte mit der Umwelt zu tun haben? Bitte kläre mich auf, aber das letzte mal wo ich nachgesehen habe, hatte ein Tesla 400-700PS und "braucht" trotzdem weniger Energie als jeder Verbrenner.

Wir reden hier von 100W, die ein Luxusprodukt mehr braucht. Daran geht die Umwelt ganz sicher nicht zugrunde.
Zumal für jeden was dabei ist, wenn das wichtig sein sollte. Wie wärs mit komplettem Verzicht auf Gaming?
 
  • Gefällt mir
Reaktionen: Asghan, Gsonz, Cpt.Willard und 5 andere
Was ist, wenn die 350W TDP gar nicht gebraucht sind, sondern Nvidia hier nur bei der Top Ampere/Titan Karte den Enthusiastengamern einfach von Haus aus eine TDP/Powertarget anbieten will als Kaufanreiz, sodass man sicher sein kann, dass man nicht ins PT limit läuft.
Solche Karten werden doch eh in 90% der Fälle ,denke ich, auf Wakü umgerüstet, da ist die Abfuhr der Wärme wohl nicht so das Problem.

Oder, auch wenn das unwahrscheinlich ist, die RTX 3090 kommt mit einem 512bit Interface und nur 16 GB Vram ?
Dann würde man auch bei der 3080 auf die vollen 384bit und 12 gb vram gehen können und die 3070 dann 320 10gb.
Da RT ja auch Vram benötigt muss NV ja quasi bei der Generation zumindest bei den RT Karten, meiner Meinung nach, über 8GB vram abliefern.

Da wird es auch spannend wieviel Vram AMD abliefert, da sie mit RT ja hier in Zukunft auch mehr benötigen.

Ich bin nicht wirklich gehypted, aber freue mich definitv auf den Herbst :daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Asghan, pietcux und Cpt.Willard
Ich bin mal auf die Designs der Partnerkarten gespannt, vor allem ob es auch noch Hersteller geben wird die bei der Verkleidung auch sowas wie Aluminium verbauen (wie z.B. bei meiner 1080 von Palit). Ich finde es immer schade wenn auf die super teuren Karten dann nur hässliches Plastik draufgeklatscht wird als wären es 50€ Fake-Karten aus China.

Wenn man auf Wasserkühlung umbaut ist das natürlich nicht relevant aber interessieren tut es mich trotzdem.
 
  • Gefällt mir
Reaktionen: pietcux und Cpt.Willard
Vitec schrieb:
Oder, auch wenn das unwahrscheinlich ist, die RTX 3090 kommt mit einem 512bit Interface und nur 16 GB Vram ?
Dann würde man auch bei der 3080 auf die vollen 384bit und 12 gb vram gehen können und die 3070 dann 320 10gb.

Denke ich nicht. Nvidia wird eher an Kompression und kürzeren Signalwegen gearbeitet haben, um mehr Daten bei gleichbleibender Speicheranbindung durchziehen zu können. Das 384-bit Speicherinterface war die letzten Jahre - im Consumermarkt - TITAN exklusiv. Dass Nivida hier direkt eine fiktive 3080 mit einem breiteren Speicherinterface austatten wird als es bislang eine 2080ti besitzt, ist denke ich relativ unwahrscheinlich. Noch unwahrscheinlicher ist es, dass Nvidia seinen "Big Chip" in einer fiktiven 3070 einsetzen wird. Ich kann mich nicht erinnern, ob Nvidia schon jemals einen kastrierten Big Chip in die Mittelklasse entsendet hat, aber dass das hier bei Ampere passieren wird, glaube ich nicht. Es ist schon verwunderlich, dass Nvidia überhaupt wieder den Big Chip in die 3080 bringen will. Entweder sie wollen so stark auf die Kacke hauen, dass AMDs Produktpräsentation nicht einmal Aufmerksamkeit erhält oder aber sie wissen ziemlich genau in welchem Leistungsbereich Big Navi spielen wird. Zumindest hatten sie mit ihren Super Karten in Form der 2060 und 2070 ziemlich guter Konterkarten direkt zu RX5700 entsendet, die nur einen Hauch schneller waren als RX5700, aber noch ausreichend um weiterhin die Krone aufbehalten zu können. ;)
 
  • Gefällt mir
Reaktionen: Gsonz
Vitec schrieb:
Solche Karten werden doch eh in 90% der Fälle ,denke ich, auf Wakü umgerüstet, da ist die Abfuhr der Wärme wohl nicht so das Problem.
Das wage ich zu bezweifeln, ich tippe da eher auf 1-2% .^^
Es wäre jedoch zu begrüßen das Nvidia beim PL die Handbremse lockert. Der vorgestellte Kühler gefällt mir schon Aufgrund des extravaganten Konzepts und könnte wenn er so kommt meine erste Founders werden.
 
  • Gefällt mir
Reaktionen: Asghan und Gsonz
Nekkepenn schrieb:
Es wäre jedoch zu begrüßen das Nvidia beim PL die Handbremse lockert.

Ich denke nicht, das NV die Handbremse lockert um dem Berg runter zu rollen... Solang da keine "roten" oder irgendwann "blaue" steine den Berg runter rollen, geht es da nur ein eine Richtung... :D
 
Wenn ich bei der PCGH lese das die neue 3070 wohl nur 8gig VRAM hat, hoffe ich sie irren sich.... ist ja alles noch ein Gerücht.
Für einen weiteren Sprung denke ich sollten sie schon so einen VRAM haben wie eine 2080TI.... oder ist das nur Wunschdenken? :confused_alt:
 
  • Gefällt mir
Reaktionen: Gsonz
AfterBusiness schrieb:
Wenn ich bei der PCGH lese das die neue 3070 wohl nur 8gig VRAM hat, hoffe ich sie irren sich.... ist ja alles noch ein Gerücht.
Für einen weiteren Sprung denke ich sollten sie schon so einen VRAM haben wie eine 2080TI.... oder ist das nur Wunschdenken? :confused_alt:
Bei Rolls Royce bekam man früher, wenn man fragte, wieviel PS der Motor hat, die Antwort:
Ausreichend. So ähnlich hält es Nvidia mit dem RAM.
 
  • Gefällt mir
Reaktionen: TorgardGraufell und xexex
AfterBusiness schrieb:
Wenn ich bei der PCGH lese das die neue 3070 wohl nur 8gig VRAM hat, hoffe ich sie irren sich.... ist ja alles noch ein Gerücht.
Für einen weiteren Sprung denke ich sollten sie schon so einen VRAM haben wie eine 2080TI.... oder ist das nur Wunschdenken? :confused_alt:
Damit provozieren sie ja aber genau aus der design-to-cost Strategie, dass mehr VRAM dann "Premium" für 4K Gamer ist und dann zur 3080Ti greifen muss/wird.

Mer VRAM kostet direkt auch wieder mehr in der Produktion, und ich fürchte, dass der Launchpreis der 3080Ti nicht nur NICHT bei 999 US Dollar UVP steht, sondern eher bei 1199, je nach Ausbau der Turing Architektur.
 
Ich bin mal gespannt wie das wird. Bei den CPUs hat AMD für mehr Kerne gesorgt, bei den Grafikkarten sorgt AMD hoffentlich auch für mehr VRAM.
 
Abwarten was Next Gen Spiele an Vram verballern.
Wird aber wohl nächstes Jahr normal, dass man mit 8GB nicht mehr die höchste Texturstufe wählen sollte.

Aber entweder wechselt man direkt auf 16GB oder nicht.
Diese zwischenhopser mit 11 und 12GB sind doch nur zur Gewinnmaximierung.
 
Q.E.D. oder Schaun mer mal.
:)
 
Ich hoffe das mit der Leistungsaufnahme stimmt nicht. Nicht das Nvidia ein Fermi II bringt. Will hoffen, dass die 3000er Serie keine 2000er + Brechstange ist.
Andersherum hätte AMD die Möglichkeit aufzuschließen wie mit Intel bei den CPUs.

Ich lasse mich überraschen.
 
Zurück
Oben