GTX970 Spulenfiepen:Hersteller äußert sich auf YT

Bei dem Video aus dem Startpost kann man leider nichts hören. So wie der Typ dazwischen quatscht.
 
t3chn0 schrieb:
Du bezeichnest mich als komischen Vogel?
Ja?!

t3chn0 schrieb:
Du schreibst aber in fast jeden Thread dass du dir ja eine 6GB Karte geholt hast und dass diese perfekt ist und wie schlecht die Maxwell Karten sind, weil sie nur eine 4GB Speicher-Bestückung haben.

Was für ein Mumpitz. Posten bitte. Ich berate seit eh und je ohne oft auch nur das Wort Kepler zu erwähnen.

t3chn0 schrieb:
Dann kommt wieder Shadows of Mordor als Begründung für 6GB+ VRAM etc.

Ist auch absolut legitim. Deswegen bezeichne ich die anderen mit 4GB aber nicht als Krüppel. Wenn ich mir etwas kaufe, möchte ich, dass alle Seiten beleuchtet werden und wenn es da draußen Spiele gibt, die die Mainstreamkarten nicht maximal darstellen können, dann möchte ich so etwas WISSEN. Das Totschweigen solcher Sachverhalte verhilft nämlich nicht zu einer fundierten Kaufentscheidung.

t3chn0 schrieb:
Sobald jemand sagt, dass die 4GB deutlich ausreichen (und ich mache noch extra ein 4K Video von BF4), kommst du mit Shadows of Mordor an.
Du lebst in deiner eigenen Welt, Hm? Wenn ich mit Speicher Argumentiere, geht es immer um "ultra", 4K oder ähnliches. Ich habe noch nie wem mit Mainstreamwünschen High-end aufgeschwatzt. [/QUOTE]

t3chn0 schrieb:
Mach mal ein Video mit 4K Auflösung von BF auf Ultra Settings und zeig mir dann, wie viel dein Speicher noch Wert ist. Gar nichts, denn du bekommst satte 15-20FPS.
BF4 ist nicht das Maß aller Dinge und wie gesagt: man kann die 6GB auch in FHD füllen.
Was man immer wieder liest, ist der Wunsch nach "Zukunftssicherheit". Diese ist illusorisch, aber man muss sich nicht absichtlich noch ins Bein schießen. Deswegen rate ich seit ca. 2-3 Monaten vor dem Maxwell-Launch von 780ern mit 3GB so gut wie immer ab.

t3chn0 schrieb:
Und ja, es gibt Spiele die viel Speicher benötigen. Dies liegt aber primär an der Benutzung von Kantenglättungsmodi. Wer spielt denn bei einer 4K Auflösung noch mit 4xMSAA? Das kostet mal eben, schlappe 30-40% Leistung und bringt optisch kaum Vorteile, da man eh schon in einer hohen Auflösung spielt.

Red nicht. Lords of Fallen. Als ob der Speicherbedarf nun immer weiter schrumpfen würde. Ob das Spiel das jetzt letztendlich "braucht", ist eine andere Frage. Was man aber sieht: Die Entwickler nutzen den Spielraum. Heute vielleicht noch etwas leichtfertig, aber morgen wohl schon ganz anders und da werden die 8GB Karten einiges zu beitragen.

t3chn0 schrieb:
Dann kommt wieder irgendwer (nicht du, glaube ich), der anfängt mit...256Bit Si sind einfach viel zu wenig und limitiert die Maxwell Karten total. Wo denn bitteschön?
Die 980 ist in 98% der Fälle auch in hohen Auflösungen immer auf Platz 1, auch mit 256Bit.

Das sehe ich in der Tat auch anders. Gerade wenn der Speicher nur für den Kram genutzt wird, wie momentan.

t3chn0 schrieb:
Die Maxwell Chips gibt es halt derzeit nur mit 4GB, so what? Ist das ein Grund die Daseinsberechtigung zu entziehen?

Und da liegt der Hase im Pfeffer. Du bist auf MICH sauer, weil DU 4GB-Karten hast. Das ist doch Murks. Sollt dich dieser Tatbestand mal jucken, verschacher sie halt und kauf dir 8GB-Karten. Momentan ist das aber wirklich nicht nötig. Trotzdem kann man vorausschauend kaufen bzw zum Abwarten raten, was die 8GB-Modelle in 1-2 Monaten treiben und kosten. So lange ist das ja nun nicht mehr hin.

t3chn0 schrieb:
Bis die 4GB gar nicht mehr reichen, ist eine komplett neue Generation von Karten wieder draußen.
Die steht ja Quasi schon vor der Tür, weswegen ich jedem vorab geraten habe, mit einer 600/700er nicht auf Maxwell 2.0 aufzuspringen (Tue ich heute auch noch.). Die Rede ist vom Shrink und AMDs Konterfei.

t3chn0 schrieb:
Anscheinend haben die Entwickler keine richtige Lust mehr, Spieletexturen ordentlich zu komprimieren. Anders kann ich mir das nicht erklären. Denn auch mit HD Texturen sieht Shadows of Mordor nicht sonderlich super prall aus, um den Verbrauch rechtfertigen zu können. Gleiches gilt auch für Advanced Warfare.

Und was kann man dagegen tun, wenn man unbedingt alles nach rechts regeln will? Mehr Speicher kaufen. Deswegen frage ich auch schon in letzter Zeit immer in der Kaufberatung, ob es denn "ultra" sein "muss".

t3chn0 schrieb:
Und zum Thema Spulenfiepen.
...Es ist reine Glückssache, mehr nicht.
Nein, bei den 970ern ist das Glück schon ähnlich einem Lottogewinn vonnöten. Guck dir die Testvideos an (auch hier auf CB). Da ist nicht EINE bei, die nicht bei 40+fps heult. Das darf und kann so nicht sein. Ich selbst hatte drei Karten hier. U n e r t r ä g l i c h!

t3chn0 schrieb:
Da die 970 aber nur 320€ kostet und so schnell ist wie eine 780Ti, verkauft sich diese deutlich besser und öfters, von daher gibt es auch deutlich mehr Berichte über das Spulenfiepen, das ist doch wohl klar!

Wie gesagt: lies dir die ewig langen Threads der Owner's Club Threads durch. Auch die 780/780TI wurde gut verkauft. Die 970 ist extrem gefragt, aber wegen der schweren Lieferbarkeit sind da jetzt noch nicht die Milliarden über den Tisch gewandert, wie man immer glaubt.


Das klingt alles ein wenig gereizt (bin ich auch) wenn man mir Böses bzw. Voreingenommenheit unterstellt, sauer bin ich aber nicht, denn dein Text liest sich nun ein wenig sachlicher und nicht so aggressiv.

/EDIT:
t3chn0 schrieb:
Ich habe meine Aussage vielmehr auf die Architektur und Effizienz, Features bezogen.

Denn, Leistung pro Watt, Preis/Leistung, DX12, MFAA etc. sprechen doch eigentlich eine deutliche Sprache.
Nein, sprechen sie nicht, denn sobald du eine OC-Karte hast bzw OC-Betreibst, ist das mit dem Power Limit und dem Verbrauch eine ganz andere Nummer und schon nahe an Kepler.
Das unvollständige DX und MFAA sind nun wirklich kein Mehrwert.

@SuddenDeathStgt
Du solltest etwas weniger komisches Zeug essen, dann klappt es auch wieder mit den Geschmacksnerven.
 
Zuletzt bearbeitet:
MFAA und DX12 sind keine Argumente?

Aber die hohe Speicherauslastung bei Singleplayerspielen(die ich eh nicht spiele) ist von Relevanz?

Zu Lords of the fallen:

Zit:"Wir bereiten gerade Grafikkarten-Benchmarks von Lords of the Fallen vor, welche auch die Frage nachdem tatsächlich benötigten Grafikkartenspeicher beantworten sollen."

Durch MFAA erreicht man die Bildqualität von 4xMSAA beim Ressourcenverbrauch von 2xMSAA (zumindest in der Theorie). Das ist doch ein massiver Vorteil, oder liege ich da etwa falsch?

Außerdem benutzen die Maxwell doch eine neue Speicherkomprimierung, die auch in der Praxis sehr gut funktioniert:

Zit:"Das nur 256 Bit breite Speicherinterface wirkt im Vergleich zu den 512 Bit der Hawaii-GPUs von AMD und auch der hauseigenen GK110-GPU mit 384 Bit recht schmal. NVIDIA will über eine neue Speicherkomprimierung dennoch eine vergleichbare Performance in diesem Bereich bieten."

"NVIDIA verwendet für die Speicherkomprimierung eine sogenannte Delta Color Compression. Dabei wird nur der Basispixelwert gespeichert und für die umliegenden Pixel in einer 8x8-Matrix nur noch der Unterschied (das Delta) gespeichert. Da das Delta ein deutlich kleinerer Wert ist, kann dieser schneller gespeichert werden und benötigt auch weniger Platz im Speicher. Es werden also weniger Daten in den VRAM geschrieben und müssen gelesen werden, sodass aus den 224 GB pro Sekunde 297 GB pro Sekunde werden sollen."

"Um zu zeigen, welche Möglichkeiten der Komprimierung sich typischerweise ergeben, präsentierte NVIDIA obigen Screenshot aus GRID 2. Zunächst einmal lässt sich darauf kaum abschätzen, welche Texturen und in welcher Form die Texturen dort komprimiert werden können.

Die tatsächliche Umsetzung zeigt dann aber, dass sich große Bereich effektiver speichern lassen. Obiges Beispiel ist sicherlich ein Extrem, das so in der Praxis nicht allzu häufig auftritt. Dennoch ist die Speicherkomprimierung ein entscheidender Faktor, um die Leistung des Speichercontrollers zu steigern. Ob dies auch in der Praxis eine entsprechende Leistung ermöglicht, werden wir in den Benchmarks sehen. Auch AMD verwendet in der Tonga-GPU der Radeon R9 285 eine neue Speicherkomprimierung."

http://www.hardwareluxx.de/index.ph...-maxwell-architektur-im-xxl-test.html?start=2


Und dann:

Zit:"Die Reduzierung der Speicherbandbreite von 384 Bit der GeForce GTX 780 zu den 256 Bit der GeForce GTX 980 sind gerade im Hinblick auf die von AMD gebotenen 512 Bit auf dem Papier ein Rückschritt - daran ändert auch die Speicherkomprimierung wenig. Es wird für AMD und NVIDIA zunehmend schwierig eine ausreichende Speichermenge möglichst schnell und breit anzubinden. Ob die GeForce GTX 980 durch ihr 256 Bit Speicherinterface limitiert wird, haben wir versucht mit einigen Messungen zu ergründen. Dazu haben wir im Wechsel den Speichertakt und den GPU-Takt erhöht, um eventuelle Abhängigkeiten feststellen zu können."

"In einem absehbaren Rahmen skalieren GPU- und Speichertakt mit der Leistungssteigerung durch das Overclocking. Direkte Abhängigkeiten von einem zu langsam angebundenen Speicher sehen wir aber nicht, dazu sind die Unterschiede bei gleichem GPU-Takt einfach zu gering. Um genau zu verstehen, ob und wo der Flaschenhals zu suchen ist, bedarf es eines tieferen Einblicks in die Speicherkomprimirierung, auf die der Nutzer aber keinerlei Einfluss hat, da dies Prozesse sind, die direkt auf der Hardware, also zwischen GPU und Speicher, laufen."

http://www.hardwareluxx.de/index.ph...maxwell-architektur-im-xxl-test.html?start=28



-------

Somit kannst du schonmal keine Performance-Schlüsse aus deinen Aussagen ableiten. Was übrig bleibt, sind ein paar Spiele, die einfach nach 6GB+ verlangen....weil sie darauf Lust haben.

Du hast recht indem du sagst, das man evtl. noch auf die 8GB warten soll/kann. Doch ob diese Zukunftssicherer sind, ist doch auch wieder fraglich. Wenn es nicht gerade um irgendwelche Texturen-Pakete geht, frisst nur der massive Einsatz von AA diesen Speicher. Und dann kommt man mit Sicherheit an eine GPU-Limitierung der Performance.

Das alles ist auch eine Frage des Preises. Wenn die 4GB nochmal 100-150€ mehr kosten....dann sollte man sich schon fragen. Kaufe ich mir eine GTX970 mit 8GB, oder direkt die schnellere 980 mit 4GB. Oder kaufe ich mir für 650-700€ eine 980 mit 8GB, oder warte ich auf eine 980Ti mit 8GB für 900€ ?

Das geht dann immer so weiter....man "muß" halt irgendwann kaufen. Jeder definiert doch für sich selbst womit er zufrieden ist. Manche stört Spulenfiepen nichtmals.

So, anbei noch Bilder von der fiependen Karte(MSI) (780) und der nicht fiependen. Nicht das mir noch unterstellt wird, dass ich niemals eine 780 hatte und die Karte einfach nur "bashen" will. Die 6GB Version gab es damals natürlich noch nicht.
 

Anhänge

  • IMAG0550.jpg
    IMAG0550.jpg
    389,4 KB · Aufrufe: 116
  • IMAG0546.jpg
    IMAG0546.jpg
    289,1 KB · Aufrufe: 103
  • IMAG0464.jpg
    IMAG0464.jpg
    381,7 KB · Aufrufe: 125
  • IMAG0455.jpg
    IMAG0455.jpg
    434,7 KB · Aufrufe: 102
Zuletzt bearbeitet:
DX 12? Maxwell beherrscht doch DX 12 mit voller Hardwareunterstützung gar nicht (wie auch wenn die Specs noch nicht final sind) aber macht sich gut auf der Packung nicht?

MFAA? Gibts noch nicht und deaktiviert sich ab einer bestimmten FPS (30 oder 40 weiß nicht mehr genau). Lassen wirs doch erstmal kommen dann kann man immer noch eine Einordnung machen.


und überhaupt leicht OT hier meint ihr nicht?

zum Fiepen:

http://www.3dcenter.org/umfrage/produziert-die-grafikkarte-ein-hoerbares-fiepen-2014

und da sage mal einer das wäre nicht auffällig.

Wie auch immer ich spiel ne Runde Shadow of Mordor leider nur mit High Texturen da meiner Karte der Speicher ausgeht. Tja so kanns laufen aber das war vor einem Jahr nicht vorhersehbar. :freak:
 
Zuletzt bearbeitet:
NV-User sind da halt ehrlich & machen halt ihr Kreuzchen an der richtigen Stelle.^^ Ihr habt doch sicherlich auch Spulenfiepen im ~4-stelligen FPS-Bereich, oder etwa nicht?


edit:
Na wenigstens entschädigt das Bildchen ... ;-)
 
Zuletzt bearbeitet:
Ich habe einen Screenshot mit meinem Handy gemacht, oder siehst du oben nicht das typische Handy-Interface mit Ladestand und Netz? Oo....alter Schwede....

Lords of the Fallen hast du ganz klar als pro 6GB Argument aufgeführt, weil es diese einfach benutzt.

Nur leider benutzt das Spiel einfach den Vram den es bekommen kann. Es läuft aber kein Stück schlechter, oder sieht anders aus mit weniger Speicher.

Also sind 6GB Vram für dieses Spiel nicht nötig.

Da ich gerne eine Herausforderung suche, spiele ich ausschließlich Multiplayer Shooter. Somit kann ich mit irgendwelchen Singleplayer Titeln leider nichts anfangen.

Die 980 fiept übrigens bei IceStorm bei 3600FPS auch...


P.S. Du hast schon gelesen das es um 6GB RAM und nicht um VRAM geht, oder? Oo
 
Es ist wirklich schwer mit dir.Nicht nur, dass bei der Gamestar wieder der Praktikant ran durfte (was bei the evil within schon lustig war), hast du wirklich eine Leseschwäche.
Ich markiere dir jetzt das Wichtige:
Lahatiel schrieb:
Lords of the Fallen. Als ob der Speicherbedarf nun immer weiter schrumpfen würde. Ob das Spiel das jetzt letztendlich "braucht", ist eine andere Frage. Was man aber sieht: Die Entwickler nutzen den Spielraum. Heute vielleicht noch etwas leichtfertig, aber morgen wohl schon ganz anders und da werden die 8GB Karten einiges zu beitragen.

Da wird nichts von 6GB RAM gefaselt, sondern:
Die Engine versteht es, den kompletten Grafikspeicher der verwendeten Geforce GTX Titan auszunutzen: Schauplatzabhängig sind die 6 zur Verfügung stehenden GiByte schon nach dem Laden komplett in Verwendung. Nachladeruckler treten infolgedessen keine auf, offenbar werden schlicht und ergreifend alle Ressourcen produktiv genutzt.
Was sich wunderbar mit meinen Beobachtungen deckt.

Jetzt noch das PvE vs PVP-Gelaber (Kasparow hat sich gegen Deep Blue gewiss auch gelangweilt und sich das Gezeter von halbstarken Skill0rn herbeigesehnt) und die wichtige Information, dass deine 980 erst spät pfeift (Glückwunsch, du hast erkannt, dass ein Problem, das massiv gehäuft bei den 970ern auftaucht, nicht auf eine andere GPU inkl anderem Platinenlayout und Spannungsversorgung zu übertragen und gesondert zu betrachten ist).

JUNGE... tut das nicht langsam weh?!
 
Du verlinkst folgende Seite

http://abload.de/img/screenshot_2014-11-04f0sx9.png

Und sagst, dass da nichts von RAM steht? Oo.....

Und es ist ja süß, dass das Spiel bei dir 6GB VRAM verbraucht, aber es macht damit nichts....hat man dadurch eine bessere Performance, nein.... sieht es dadurch besser aus, nein....also, wo ist der Vorteil dieser Auslastung? Steht irgendwo das mit weniger VRAM Nachladeruckler auftreten, nein....

Der Kasparow Verglich hinkt total, aber das dürfte dir sehr wohl bewusst sein.

Eigentlich war es genau das Gegenteil. Kasparow war so gut, das man ihn gegen einen Supercomputer hat antreten lassen. Genau das war ja die Herausforderung.

Keine KI in einem Spiel, verhält sich unter Stress so, wie ein richtiger Mensch. Des weiteren kann ich in einem Shooter nicht einfach abspeichern oder eine Pause einlegen.

Du würdest absolut anders urteilen, wenn deine 780 auch pfeifen würde, tut sie nicht. Somit hast du Glück gehabt, mehr nicht. Dafür reitest du jetzt die 6GB VRAM Welle, ist doch auch was feines. So kann jeder seinen Kauf rechtfertigen.

Du lachst mich für meinen Speicherkrüppel aus, prima :). Bis jetzt hat es für jedes Spiel gereicht. Dafür erfreue ich mich an 21.600 Punkten im FireStrike und den 4000 Maxwell Cores.

Alle sind glücklich.

Spulenfiepen wird weiterhin ein Thema bleiben.
 
Da gebe ich auch mal meinen Senf ab:

Meine erste GTX770 hat so fürchterlich unter Last gerattert. Fiepsig war das nicht mal. Ging mir aber auf den Sack und habe die Karte verkauft. Anschließend kam wieder das gleiche Modell in meinen Besitz. Sie hatte auch die Geräusche, jedoch weniger nervig und dafür surrend. Mittlerweile habe die die GTX780 und die surrt auch vor sich hin, fängt bei ca. 6xxMHz schwach an und wird stärker, je höher der Takt. (Ob das auch ohne Last passiert, aber mit festgetackerten Taktraten, weiß ich nicht.) Wäre ich konsequent, müsste ich sie austauschen, weil die schlimmer als die 2. 770 ist, somit auf dem Niveau der ersten 770. Aber mittlerweile ist das mir zu blöd, die Karte wieder zu tauschen, zumal ich dann draufzahlen müsste und so einen Mist, wenn kein Fernabsatz mehr möglich. Da sch**** ich mittlerweile drauf und behalte auch Karten, die eher stärker fiepen/surren/rattern. Austauschen werde ich dann nur, wenn der/die Lüfter im Ar*** sind oder die Karte instabil ist.

Meine These: Selbst wenn die Produktionskosten um einen Cent steigen würden, um die Spulen besser gegen Schwingungen zu schützen, verzichten die Hersteller drauf, um genau diesen Cent zu sparen. Ich vermute, das ist in Wahrheit mehr, so eher 1 bis 5 Euro. Wenn Asus zum Beispiel 100.000.000 Grafikkarten im Jahr weltweit verkauft, kommt da schon ein Batzen Ersparnis zusammen. Falls einer die Werte besser kennt, kann er mich gerne berichtigen.
 
Zuletzt bearbeitet:
Habe seit 8 Jahren keine Grafikkarte mehr gehabt die nicht fiepte.

Mal lauter, mal leiser.
Nichts neues, man braucht manchmal ein wenig Glück.

Die 980/970 hat nun mal zwei spawas weniger, dadurch werden die anderen stärker belastet, dementsprechend ist das fiepen lauter als noch bei der 780/780 ti.

Ich würde gerne 1-5€ mehr bezahlen für anständige spulen, wenn es sein muss auch 10.
 
Zuletzt bearbeitet:
Ich find das eigentlich auch eine Schweinerei Spulenfiepen als normalen Nebeneffekt zu verkaufen. Es ist schlichtweg ein qualitativer Baufehler, fertig aus.
 
Ich bin mir nichtmals sicher woher das Problem überhaupt kommt.

Wenn ich mal rekapituliere, dann hat auch meine 780Ti Kingpin Edition gefiept. Auch bei normalen Bildraten, z.b. bei BF4, oder Diablo 3. Die Karte hat fast 800 Ocken gekostet und hatte eine extrem aufwendige Spannungsversorgung.

Am schlimmsten war damals meine HD6970 und die GeForce 2MX.

Die Karten haben wirklich bei jeder kleinsten FPS Erhöhung gepfiffen wie ein Käfig mit Kanarienvögel.

Es gibt auch einen weiteren, nichts zu unterschätzenden Faktor. Das Mainboard und das Netzteil. Diese Komponenten in Kombination sorgen meiner Meinung nach für das Problem.
 
Schön dass wir wieder Back to Topic sind.

kujulian schrieb:
Ich find das eigentlich auch eine Schweinerei Spulenfiepen als normalen Nebeneffekt zu verkaufen. Es ist schlichtweg ein qualitativer Baufehler, fertig aus.

Ich stimme Dir da nur zu! Stellt euch doch mal euren neuen Monitor vor, ihr packt ihn aus. stellt ihn auf, nehmt ihn in
Betrieb und dann? ein Fiepen während des Betriebs !

So ein Teil gehört umgetauscht und ist mangelhaft/Baufehler. Warum sollte das mit Graka`s anders sein?

Gruß
 
Ich glaune das Problem ist deutlich komplexer. Mangelhaft ist das Produkt nicht und auch ein Baufehler liegt nicht vor.

Das ist reine Kulanz der Hersteller, bzw. dein Glück dass es das Fernabsatzgesetz gibt.

Eine Rechtliche Chance sehe ich eher noch in Richtung Emissionswerte. Denn das Fiepen kann sich sehr wohl auf das Befinden einer Person auswirken, sollte sie empfindlich dafür sein. Das alles wird aber zum riesen Rattenschwanz.

Spulenfiepen existiert seitdem Energie fließt. Ich habe von AVM Powerline Adapter. Die Dinger muß ich jeden Abend rausziehen,sonst kann ich nicht schlafen, weil die so laut fiepen.
 
Nur einmal so, dass nicht verallgemeinert wird und alle Probleme haben. Meine EVGA GTX 770 ist absolut leise und da fiept oder rattert überhaupt nichts.
 
NeoGeo95 schrieb:
Ich stimme Dir da nur zu! Stellt euch doch mal euren neuen Monitor vor, ihr packt ihn aus. stellt ihn auf, nehmt ihn in
Betrieb und dann? ein Fiepen während des Betriebs !
Wieso vorstellen, ist doch normal. Alles fiept fröhlich vor sich hin.
 
Offenbar sind die Hersteller (störende Nebengeräusche = RMA-Grund), Händler (bessern nach und tauschen um), und die meisten Betroffenen (bestehen auf einwandfreier Ware) ein wenig weiter als manche hier im Forum.
 
Pilstrinker schrieb:
Das ist ein klarer Sachmangel und keine Sache der Kulanz.

Nein, es ist kein Sachmangel!

http://dejure.org/gesetze/BGB/434.html

Zit Mindfactory hier im Forum:"Hallo coda44,

die Aussage unserer RMA-Abteilung ist korrekt. Einen Ersatz gibt es nur bei einer defekten Karte. Spulenfiepen ist kein Defekt, da die Karten ja von den Herstellern so gebaut werden und damit auch normal funktionieren. Wir würden in deinem Fall die Karte nicht ablehnen, sondern an den Hersteller schicken, damit dieser Beurteilen kann, ob es in dem Fall zu einer abnormalen Geräuschentwicklung kommt oder nicht. Das hängt dann also von der Kulanz und Bearbeitungsgeschwindigkeit des Herstellers ab, wobei es natürlich einige Wochen dauern würde.

Wenn du die Karte online bei uns erworben hast, kannst du sie innerhalb der Widerrufsfrist zurückgeben. Wir werden die Karte dann prüfen und dir den Kaufbetrag rückerstatten.

Alles Gute,
Mike"
 
So, ich habe mir mal erlaubt ein wenig Aufzuräumen und die ganze OT-Diskussion mal ins Aqua geschoben. Es geht hier immer noch um Spulenfiepen.
 
2. wenn sie sich für die gewöhnliche Verwendung eignet und eine Beschaffenheit aufweist, die bei Sachen der gleichen Art üblich ist und die der Käufer nach der Art der Sache erwarten kann.

Und genau das kann den Sachmangel begründen, denn störende Nebengeräusche muss man nicht erwarten.

edit: Und wen interessiert's, was "Mike" von Mindfactory dazu meint? Da sind die Aussagen der Hersteller doch wesentlich bedeutsamer
Wenigstens aber wird Spulenfiepen als RMA-Grund angesehen – Nutzer, welche diesbezüglich Probleme mit ihrer Grafikkarten haben, sollten auch diesen Weg gehen, denn nur wenn die Rückgabequote entsprechend hoch ist, ...
.
 
Zuletzt bearbeitet:
Zurück
Oben