News Nvidia GeForce: Taiwanischer Hersteller präsentiert RTX 3070 mit 16 GB

Holzinternet schrieb:
Muss nicht immer over the Top sein. RTX Schnulli brauch ich nicht. DLSS oder FSR finde ich auch nicht gut. Da leidet die Qualität des Gesamtbildes drunter. Immer.
Kannst du doch gar nicht beurteilen? Die 1080 kann beides nicht. Es ist ein Unterschied diese Dinge selbst in Bewegung am eigenen Bildschirm zu sehen als auf Screenshots im Internet.
 
  • Gefällt mir
Reaktionen: Zarlak
Piak schrieb:
Zum einen muss dieser Prozess sowieso gestartet werden.
Ja, starten. Sprich, man verbaut USB-C. Bei einer Grafikkarte nur auf USB-C zu setzen wäre schon ziemlich schräg.
 
Zuletzt bearbeitet:
Piak schrieb:
Offtopic: Wieso gibt es überhaupt noch Hdmi, Displayport, dvi...alle zu usb c zwingen. Weniger Kabel, weniger adapter, aber nachhaltiger.
Theorie und Praxis. Ja in der Theorie hört sich das natürlich gut an, aber praktisch eher eine Fehlgeburt. Über Thunderbolt hat man doch dasselbe gesagt, am ende wurde es nichts. Bei Smartphones und dergleichen ist es ja toll, keine frage, aber bei PCs wo man die Steckern gefühlt einmal im Jahr anfasst eher unsinnig. Im PC will man das es Bombenfest sitzt, höchste Ansprüche standhält und es keine Kompatibilitätsprobleme hat, was bei USB generell eher einer Lachnummer gleichkommt.
 
flappes schrieb:
In Kombination mit den Preisen... JAAAAAA, ich kann es nicht laut genug schreien :evillol:
Die Preise sind aber normal. Ne 1060 6GB gab es neu für ab 320€+ im Juli 2016. Rein nur mit Inflationsausgleich wären das 380€ heute. Die 4060ti kriegt man aktuell ab 425€. Der Preis ist garnicht so stark gestiegen. Im Gegenteil, wenn man die erhöhten Preise der Herstellung und Logistic reinbringt ist der Preis quasi gleich.
 
  • Gefällt mir
Reaktionen: Samuelz
Piak schrieb:
Offtopic: Wieso gibt es überhaupt noch Hdmi, Displayport, dvi...alle zu usb c zwingen. Weniger Kabel, weniger adapter, aber nachhaltiger.


Vermutlich, weil dann ein paar ganz helle Leuchten versuchen würden ihren Gaming-Rig mit einem Schnelllader über die GPU zu betreiben....... :freak: :lol:
 
  • Gefällt mir
Reaktionen: FGA
@|SoulReaver| & @ChrisMK72

danke euch Zwei für eure Kommentare. Ich bin abgebrochen! :schluck:


zum Thema:

finde ich stark. Wie sagt die Oma immer, "dumm kann man sein, aber zu helfen muss man sich wissen". Gut, dumm ist hier natürlich keiner. Muss dabei an die Grafikkarten von früher denken. Gabs da nicht einige, bei denen Steckplätze für zusätzlich VRam ausgelötet waren, um bei Bedarf aufzurüsten....
Gut, die Speicherbausteine von heute sind so fein, da werden keine Beinchen mehr halten, aber so oder so ähnlich könnte es doch mal wieder aussehen. Ist wie mit der Mode, alles kommt wieder....
 
  • Gefällt mir
Reaktionen: ChrisMK72
dermatu schrieb:
Interessiert die Karte heute noch jemand ?
Also ich nutze noch ne GTX 1660Ti, eine 3070 mit 16 GB wäre durchaus eine Option (wenn der Preis stimmt).
Und bisher hat NVidia imho keine brauchbare Alternative zu ner RX6700(XT), die 3060 ist zu lahm, die 3060 Ti und 4060 Ti gibts nur mit 8GB, die 4060 16 GB gibts auch noch nicht.
 
Holzinternet schrieb:
Sollte meine 1080 das Zeitliche segnen kaufe ich mir ne A770 16GB für um die 400 Euro. Vielleicht auch gebraucht, wie es geht. Intel hat zwar Probleme mit den Treibern aber da man Platz gutmachen möchte ist der Preis niedriger und die Ausstattung üppiger. Und die Produktpflege besser.

Vielleicht rennen nicht alle Spiele ohne Tweak problemlos aber ich bekomme 16GB Vram und mindestens die Leistung meiner 1080. Reicht mir.
Ich kann an der Intel Karte (abseits vom VRAM) ehrlich gesagt wenig positives finden:
Eine RX 6700 XT bringt zwar "nur" 12GB VRAM (die in der Leistungsklasse aber noch prima reichen sollten), ist aber knapp günstiger, gut 30% schneller und man brauch keine "Tweaks" um ohne Probleme spielen zu können (insbesondere wenn man noch ältere DX9 Titel spielen will).
Eller schrieb:
Selber Schuld wer sich so ein Elektroschrott mit 8GB gekauft hat.
Naja zu RTX 3000 Release bzw. in der Zeit danach, war die Auswahl an Karten auch nicht sonderlich groß und da musste man nehmen was man bekommen konnte.
Unter normalen Umständen hätte ich mir die Karte sicherlich auch nicht gekauft. Den besonderen Umständen der Miningzeit aber sei Dank, hat mich das Upgrade auf eine RTX 3070 für 800€ aus dem Drop effektiv nur noch 100€ gekostet, da mir ein Miner 700€ in Bar für meine alte Vega 64 in die Hand gedrückt hat, dementsprechend beschwere ich mich auch nicht groß über den knappen VRAM, die 100€ für das Upgrade war allein schon für die knapp doppelt so hohe Leistung definitiv wert.
Mies ist es natürlich für alle die damals den vollen (extrem überzogenen) Preis zahlen mussten und die teure Karte nun trotzdem schon so schnell anfängt zu schwächeln.
 
  • Gefällt mir
Reaktionen: danyundsahne, Holzinternet und Eller
|SoulReaver| schrieb:
Zum Lachen. Nvidia geizt mit Vram, und im Jungle ganz hinten bauen "Buden" mal schnell eine Karte mit 16GB.
Das war schon immer so wen sich irendwelche Hersteller mit propitären Maßnahmen extrem kundenfeindlich gegenüber den Kunden gezeigt haben. Eigentlich sollte man beide Firmen bei den aufsichtsbehörden Melden.
 
fox40phil schrieb:
8x DisplayPort ist enorm... braucht es dafür noch einen Zusatzchip?!!?

Nein, bei DisplayPort steckt der Taktgeber, anders als bei DVI/HDMI und früher VGA im Display, nicht auf der Grafikkarte.
 
  • Gefällt mir
Reaktionen: fox40phil
Samuelz schrieb:
Bla Bla Bla. Ändert trotzdem nichts daran, dass die meisten Spiele in FHD ohne RT mit 8GB locker auskommen.
Damit nagelst du dir selber auch noch ins Knie. Wer will dich nun ernst nehmen wollen?
Samuelz schrieb:
Ja, wirklich lächerlich deine Art, CB journalistische Tölpelhaftigkeit in die Haare schmieren zu wollen und nun du mit deiner bla bla bla Darstellungen in der Relativierungsschlinge hängst.

Und wenn Nvidia RT bewirbt, mit dieser Eigenschaft dann eine RTX 3060 Ti mit RT in diesem Spiel bei den Frametimes 13% vorne liegt, ist es einfach nur beschämend so eine verstümmelte 430€ Grafikkarte 2023 in den Markt zu werfen. Dabei ist der Grafikchip doch erste Sahne und mit 10GB VRAM wäre diese Karte auch 430€ wert.
Damit du es auch technisch verstehst.
Genau bei Hogwarts mit RT zeigt sich, dass 8GB VRAM inkl. mit einer x8 PCI-E Übertragung einfach zu wenig sind, wenn die langsamere 3060 Ti mit 8GB VRAM und x16 PCI-E Übertragung 13% vorne liegt. Weil der VRAM ausgeht und dann der Zugriff auf den Arbeitsspeicher bewusst von Nvidia auf x8 limitiert wurde. Deswegen ist die langsamere RTX 3060 Ti 8GB VRAM 13% schneller.

Und obwohl nun Nvidia einen Börsenwert von ~940 Milliarden Euro hat, zeigt Nvidia trotzdem eine Schäbigkeit die seines Gleichen sucht, indem man so eine tollen Grafichip verstümmelt als Grafikkarte mit einem überzogenen Preis in den Markt entlässt.

Nvidia freut sich aber über Menschen wie dich. Denn Menschen wie du sagen Nvidia, wir können so weiter machen, wir haben freiwillige Verteidiger die unseren Charakter verteidigen. Und obendrauf zahlen diese Leute auch noch den vollen Preis den wir uns gewürfelt haben. Mit einem Würfel, der bei 400€ anfängt.

Eine 7600 mit 8GB VRAM hat nicht zu wenig Speicher. Denn diese ist deutlich langsamer und vor allem deutlicher günstiger. Wobei ich mir dann lieber in dieser Leistungsklasse eine aktuell 210€ 6600 abgreifen würde.
 
  • Gefällt mir
Reaktionen: M11E und [wege]mini
Eine "vernünftige" Karte, die auch Nvidia nicht so sehr stören sollte, da es sich um eine Karte handelt, die explizit nicht für Gamer gemacht ist.

Sie erinnert mich etwas an die HD 5870 eyefinity 6 Edition von AMD. Die hatte unglaubliche 2GB RAM, statt den 1 GB der 5870.

Da Lüfter und Verbrauch aber so angepasst waren, dass man keine solch hohen Taktraten wie bei den Gamerkarten dauerhaft fahren konnte, musste man in Games schon sehr spezielle Titel aussuchen, damit nicht der RAM "verhungert" statt sonst die GPU.

Man hat richtig viele Möglichkeiten, die Gesamtleistung dort hin zu bringen, wo man sie haben will. 16 GB mit 128bit wäre z.B. solch eine Sache, die ganz sicher demnächst auch wieder zurück kommt.

Hier verbaut man einfach 2GB Module statt 1GB, nimmt den erhöhten Stromverbrauch in kauf, taktet den Chip ein wenig niedriger und baut die Kühlung so, dass man keine Monster züchten kann, ohne den Kühlkörper zu wechseln. Wenn es um reine Monitorwall-Dinge geht, kann man die Karte sogar auf 150 Watt kastrieren und schwupp die wupp, ist sie für jeden Gamer uninteressant.

Die Möglichkeiten sind vielfältig und in einen heimischen Rechner für Gamer, wird dieses Produkt wohl äußerst selten einen Weg finden.

mfg

p.s.

Alesis schrieb:
bewusst von Nvidia auf x8 limitiert wurde

Guter Punkt, dass geht ja auch noch. Hat Nvidia von AMD gelernt. Macht den Chip kleiner und senkt den Verbrauch. :heilig:
 
  • Gefällt mir
Reaktionen: Alesis
[wege]mini schrieb:
Hat Nvidia von AMD gelernt.
Da sei an die Frechheit einer 6500 PCI-E x4 erinnert. Bei der 6400 war es auch so, aber bei diesem 6400 Elektromüll würde ich auch nichts anderes erwarten.
Genauso wie ich nicht mehr VRAM bei einer 7600 erwarten würde. Aber da eine 6600 so günstig ist, ist die 7600 mindestens 20€ zu teuer. Zudem ist aus meiner Sicht RDNA3 ein Griff ins Klo, welches ohne Spülung ist :D
 
  • Gefällt mir
Reaktionen: Samuelz und [wege]mini
Alesis schrieb:
Da sei an die Frechheit einer 6500 PCI-E x4 erinnert

Alles eine Frage des Standpunktes.

Bei mir werkelt z.B. eine RTX3060 mobile an einem 17 Zoll FHD Panel mit einer 4800H CPU. Da stellt die CPU von Hause aus, nur 8 Lanes zur Verfügung.

Für das, was ich hier treibe, ist es absolut i.O. und der Stromverbrauch ist erfrischend gering, wenn ich ihn mit meiner i7 6700HQ mit GTX1070 Kombo vergleiche, die mir davor gute Dienste in vielen Jahren leisten durfte.

Vor allem, wenn man vergleicht, wo ich heute bin mit 120 Watt in FPS gerechnet und wo ich damals war, mit 120 Watt in FPS gerechnet.

Wenn ich beide voll aufdrehe, landen beide bei 200 Watt als Gesamtsystem incl. Display. :evillol:

Eine "Frechheit" war es, die 6500 als "Gamerkarte" für alte Rechner zu verkaufen, die z.T. nur PCI-E 3.0 hatten. :heilig:

mfg
 
  • Gefällt mir
Reaktionen: Alesis
Replay86 schrieb:
Kannst du doch gar nicht beurteilen? Die 1080 kann beides nicht. Es ist ein Unterschied diese Dinge selbst in Bewegung am eigenen Bildschirm zu sehen als auf Screenshots im Internet.

FSR sehr wohl da das alle Karten der 10er Gen. beherrschen. Ist ja auch nicht Nvidiaexclusiv wie DLSS. Was damit das einzig Gute an der Technik ist.

DLSS wie auch Raytraycing hab ich, Du wirst es kaum glauben, bereits live gesehen. In Farbe und bunt. Die paar, nicht unbedingt hässlichen Effekte da stimme ich Dir zu was RT angeht, sind weder Exclusivität noch massiven Aufpreis wert. Zumindest für mich.

Wenn Dich das glücklich macht dann hab viel Spaß damit, ich neide Dir das nicht. Gibt außer Gaming noch etliche andere Freizeitaktivitäten die Spaß machen. Da investiere ich lieber.

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: [wege]mini
[wege]mini schrieb:
Eine "Frechheit" war es, die 6500 als "Gamerkarte" für alte Rechner zu verkaufen, die z.T. nur PCI-E 3.0 hatten.
Völlig deiner Meinung.
Wenn man dazu noch das ganze Bild betrachtet.
Es waren Chips Notebooks die keiner verbauen wollte. Deswegen hatten die nur eine x4 Anbindung. Und PCI-E 4.0 x4 für Notebook wäre ja ok gewesen.
Dazu war das Teil in Codecs abgespeckt, weil die APUs in den Notebooks soweit alles an Codecs hatte, was AMD so bieten konnte.
Dann noch ein überteuerter Markt an Grafikkarten. In diesen Markt hat dann AMD diese Chips als Gamer Karten verkauft mit gehobenen Preisen.
Wer das gekauft hat, wurde vollständig über die 1000m Theke gezogen, die voller Mist war.
 
  • Gefällt mir
Reaktionen: [wege]mini
Holzinternet schrieb:
Gibt außer Gaming noch etliche andere Freizeitaktivitäten die Spaß machen. Da investiere ich lieber.

Das gibts doch gar nicht. Du Lügner, du Ketzer. :evillol:

Aber bleiben wir ehrlich. Ein Investment sind Freizeitaktivitäten eher selten. Oder man kalkuliert, was Professionelle für Spaß kosten gegen seine Holde und die Bälger.

Dann könnte man von "Investment" sprechen, wenn die Bälger irgend wann mal die Versorgung übernehmen, wenn man selber alt ist.

Aber klar, das Leben dreht sich ums Daddeln. :heilig:

mfg
 
  • Gefällt mir
Reaktionen: Holzinternet
An und für sich wäre eine RTX 3070 mit 16GB auch 2023 eine interessante Karte, sofern der Preis stimmt. Der große Vorteil liegt beim normalen GDDR6-Speicher, der günstiger als GDDR6X ist und daher in Sachen Preisgestaltung sehr gut zur älteren Ampere-GPU passen würde.
 
[wege]mini schrieb:
Das gibts doch gar nicht. Du Lügner, du Ketzer. :evillol:

Aber klar, das Leben dreht sich ums Daddeln. :heilig:

mfg

Unrecht hast Du nicht^^ ich baue aktuell im Garten einen Platz für meinen Gartenrechner auf. Dual Monitor Setup, 8 Kern CPU, dezent dedizierte Grafikkarte 🙂

Gruß
"Garten"Holzinternet
 
Zurück
Oben