News New World: Großes Brimborium um erneute GPU-Defekte

nur um das mal zu relativieren....

so gegen 23 uhr konnten dann so ca. 400k auf den server spiele, die restlichen hingen in der warteschlange und konnten nur zusehen wie die graka bei 100% pfeift während man noch stunden wartete bis man ev. mal drauf konnte.

die server selbst liefen stabil!
 
Leider ist meine Karte eine von den Defekten. Ist eine Gigabyte 3090 Eagle und ist momentan unterwegs zum Hersteller . bin gespannt wie die Reaktionen sind was ich zurück erhalten werde

PS und ich bin nicht auf Reddit unterwegs ,daher dort auch nicht gelistet
 
  • Gefällt mir
Reaktionen: ZeroStrat, MichaG, so_oder_so und eine weitere Person
dcz01 schrieb:
@ottoman Sicher gehen GPUs mal kaputt, aber meistens nie der Chip selbst sondern der VRAM und dann a ned bei einer nagelneuen Serie wie der 3000er, welche erst raus kam...
In der Elektronik gibt es eine U-Kurve der Lebensdauer - das bedeutet:
In der Regel gehen die Geräte entweder relativ früh kaputt, oder sehr sehr spät.

Die 30er Serie soll ein Problem mit unzureichender Kühlung einzelner Komponenten haben, weswegen viele Channels Videos über Modding der Wärmeleitpads anbieten, die teilweise mehr als 20°C Reduktion problematischer Temperaturen erreichen.
Ja, VRAM ist davon auch betroffen.
 
  • Gefällt mir
Reaktionen: Three of Nine und Mracpad
Tramizu schrieb:
@Taxxor
Das ist mir persönlich noch nie unter gekommen.
Eventuell passiert das bei Spielen, die mit dem Monitor kommunizieren können bzw. die Monitor-Specs ausgelesen werden. Könnte z.B. bei G-sync bzw. FreeSync Monitoren so sein. Ich hatte das jedenfalls noch nie.
Aktives VSync führt eigentlich immer dazu, dass die FPS mit der Herzzahl des Monitors laufen, sofern sie diese erreichen können.
Das ist ja der Sin nhinter VSync, alle Bilder die nicht vom Monitor dargestellt werden können, werden verworfen.

Dafür brauchst du auch nicht mit dem Monitor kommunizieren, Windows teilt ja mit welche Wiederholrate gerade beim Display eingestellt ist.

Edit: Passenderweise ist es in "New World" auch per Default aktiv, hab es mir gerade mal geladen, der Infotext sagt auch zur Funktion:
"Bildrate auf Bildwiederholfrequenz des Monitors begrenzen"
 
Zuletzt bearbeitet:
Norebo schrieb:
Die 30er Serie soll ein Problem mit unzureichender Kühlung einzelner Komponenten haben, weswegen viele Channels Videos über Modding der Wärmeleitpads anbieten, die teilweise mehr als 20°C Reduktion problematischer Temperaturen erreichen.
Ja, VRAM ist davon auch betroffen.
Bleibt die Frage offen, was die unzureichende Kühlung des VRAMs bei der FE mit den defekten der Custom-Karten von EVGA und Gigabyste zu tun hat?! Die FE scheint von dem durch New World verursachten Defekt gar nicht betroffen zu sein.
Wohl aber auch einige AMD-Modelle (auch RDNA2) - ob es sich hierbei auch um Customs handelt oder um die Referenzmodelle kann ich nicht sagen. Zumindest wird davon bei Reddit berichtet.

Es wird hier wieder allgemeinhin wieder viel behauptet und wenig gewusst.
 
VSync passt die Bildausgaberate der des Monitors an, aber soweit ich das versteh, kann die Grafikkarte trotzdem mehr Bilder rendern - die werden halt gepuffert und verworfen, oder ausgegeben, wenn der Monitor ein Bild komplettiert hat und das Signal für ein neues sendet.
Was auch zu Inputlags führt.

Nur ein Framelimiter, oder Radeon Chill (gibt ein FPS Fenster von bis vor) reduzieren die Last auf der Grafikkarte ordentlich und minimieren Inputlags.
Ergänzung ()

Neubauten schrieb:
Bleibt die Frage offen, was die unzureichende Kühlung des VRAMs bei der FE mit den defekten der Custom-Karten von EVGA und Gigabyste zu tun hat?!

Es wird hier wieder allgemeinhin wieder viel behauptet und wenig gewusst.
Weil das so gut wie alle AIB auch betrifft und nicht nur die FE, die hier nur das verfügbare Meßobjekt ist.
 
Norebo schrieb:
Nur ein Framelimiter, oder Radeon Chill (gibt ein FPS Fenster von bis vor) reduzieren die Last auf der Grafikkarte ordentlich und minimieren Inputlags.
Naja, da müsste man das ja im Verbrauch der Karte sehen, wenn man einfach VSync 60Hz macht und dann ohne VSync mit 60FPS Limit, und da sehe ich keinen Unterschied
 
scootiewolff22 schrieb:
Wie kann ein Spiel eine Grafikkarte kaputt machen?
ist nur software ..... kann alles möglich sein gewisse benschmarks haben das ja auch schon geschafft ..... schonmal was von furmark gehört ?
Tramizu schrieb:
Gar keiner. Die AGBs denen du zustimmst schließen die Haftung in der Regel aus
stimmt auch nicht agbs sind kein gesetzt , gesetzt stehen über agbs .... die können reinschreiben was sie wollen wenn es durch software nachweißlich zum defekt kommen würde hängt der software hersteller mit drinne

weiß nicht warum das so abwegig erscheint das software ein stück hardware zum abrauchen bringt ? greift die software nicht auf die treiber / graka im kleinsten zu um später das bild darzustellen wenn da nun einer groben misst baut ..... warum nicht ,

nun ja das muss ja hier jetzt so nicht sein aber alles abstreiten
 
dcz01 schrieb:
@ottoman Sicher gehen GPUs mal kaputt, aber meistens nie der Chip selbst sondern der VRAM und dann a ned bei einer nagelneuen Serie wie der 3000er, welche erst raus kam...
Warum nicht. Gewisse Design-Fehler können immer mal passieren, die eine GPU, gerade wenn sie neu am Markt ist, passieren können.
Hatte Intel sowas nicht auch mal mit einen Chipsatz? Ist bestimmt schon so um die 10 Jahre her. Komme auch nicht mehr auf den Namen. Es waren eventuell die Sandy-Bridge-Chipsätze, aber sicher bin ich mir nicht.
 
  • Gefällt mir
Reaktionen: Three of Nine
Beim Lotto sind die Chancen geringer.

Grundsätzlich müssen Hersteller ja auch für Folgeschäden haften sollte durch ein mangelhaftes Produkt innerhalb der Gewährleistung weiterer Schaden entstanden sein. In den ersten 6 Monaten muss der Hersteller dann auch nachweisen, dass kein Mangel bestand. Da stellt sich die Frage ob in diesem Fall der Spiele Hersteller oder der Grafikkarten Hersteller betroffen ist.
Sollte der Spiele Hersteller verantwortlich sein, was bei einer Häufung naheliegt, wird das kaum möglich sein. Die müssten dann sämtlichen Code zumindest dem Geschädigten offenlegen und nachweisen, dass sie alle Vorgaben und Spezifikation der GPU Hersteller einhalten. Und das tut vermutlich niemand zu 100 Prozent. Und sollten die anfangen GPUs zu ersetzen könnte praktisch jeder mit defekter GPU das Spiel holen und sich die GPU ersetzen lassen. Zumindest hat es jetzt ja nichts mehr mit Lötstellen zu tun.
Auffällig ist ja schon, dass bei anderen Spielen solche Fälle scheinbar nicht auftreten. Cyberpunk als GPU lastiges Spiel hatte jedenfalls nicht den Ruf teure Hardware zu schrotten.
 
  • Gefällt mir
Reaktionen: Three of Nine
Schwimmen geht net und keine Mounts, in nem 2021 MMO, ohne mich.
Nächsten Monat vielleicht mal Elyon reinschnuppern.
 
  • Gefällt mir
Reaktionen: Toni_himbeere
Wuerde mich ja mal brennend interessieren ob es auf Deutscher Seite solche Ausfaelle gab?

Fuer den Fall der Faelle, kann mir jemand den Link oder so zum zurueckschicken einer Gigabyte Karte geben?

Meine Freundin besitzt eine 3070 Eagle OC von Gigabyte und falls es soweit kommen sollte dann wissen wir direkt wohin damit.
 
Zuletzt bearbeitet:
Für das Spiel lohnt sich keine Defekte Graka :-D
 
  • Gefällt mir
Reaktionen: Three of Nine und JahJah192
Norebo schrieb:
Weil das so gut wie alle AIB auch betrifft und nicht nur die FE, die hier nur das verfügbare Meßobjekt ist.
Ich konnte es zumindest bei meiner alten MSI Ventus und bei der EVGA eines Freundes nichts derart Gravierendes nachvollziehen - aber es kann durchaus sein, dass sich die Probleme auch bei anderen Customs wiederfinden.
Das ist sicher nicht schön (meine 6900xt erreicht beim Junction Temp auch gerne mal 98 Grad), aber ich sehe hier keinen direkten kausalen Zusammenhang zu dem eigentlichen Thema. Hat sich EVGA, Gigabyte in irgendeiner Form dazu geäußert, dass zu hohe Temperaturen des GDDR6X Speichers das Problem verursacht haben? Ich finde dazu nichts.
 
Ich geh mal davon aus, das bei denen die Graka deswegen abgeraucht ist, manche sehen es halt nicht so eng mit Staub. :-)
Screenshot_3.png
 
  • Gefällt mir
Reaktionen: Three of Nine
Old White Man schrieb:
Aber wundern tut mich das ganze nicht mit den RTX 3080 bis 3090, da diese von Haus aus ja schon eine abnorme Menge an Strom (= höhere Hitze = Gefahr der ausfallrate/defekte steigt) benötigen. Und das ganze wo angeblich alle das Klima retten wollen indem jeder einzelne weniger Energie verschwenden soll/will.
Jep... zocken alle nur wenn die Sonne auf das eigene Solardach scheint :D:D:D
 
  • Gefällt mir
Reaktionen: Three of Nine
Wenn beispielsweise nur einige Hundert New World Spieler eine RTX 3090/80 nutzen, wäre die Ausfallrate nicht winzig. Der Artikel und einige Kommentare relativieren hier mit absurden Vergleichen. Um es noch mal plakativ zu sagen, es hat nicht jeder dieser 700.000 (Mainstream)Spieler eine RTX 3090/80 im Rechner.
 
  • Gefällt mir
Reaktionen: Three of Nine
Hier muss man halt ein wenig Vorsicht walten lassen.

Zum einen spielen nicht alle 700k + Spieler mit Nvidia high end Ampere, es dürften sicherlich einige Tausend Sein, wenn davon die ein oder andere karte reproduzierbar Kaputt geht ist das sicherlich Hunderte male wahrscheinlicher als bei anderen Anwendungen (warum auch immer)

Lässt man das so stehen ist natürlich noch nicht geklärt was mit anderen GPU Herstellern ist, wie hoch generell die Ausfallrate neuer GPUs aufgrund von Produktionsmängeln ist oder warum es ausgerechnet dieses Spiel ist.

Selbst wenn die GPU 400+ watt zieht darf sie das Laut Hersteller, muss dies also über Tausende Stunden überleben. Da darf,. egal wie schlecht new world Programmiert ist kein Hardwaredefekt auftreten. Von daher schiebe ich es einfach mal auf eine besonders hohe GPU Last dieses Spiels welches bei bestimmten 1337 OC 500W+ GPUs Produktionsmängel aufdeckt.

Das wars dann aber auch schon.

Fackeln und Mistgabeln wieder einpacken :evillol:
 
  • Gefällt mir
Reaktionen: Three of Nine, ZeroStrat, Klever und 2 andere
Zurück
Oben