Test Early Access mit AMD & Nvidia

Status
Für weitere Antworten geschlossen.
Tresenschlampe schrieb:
Jene die gerne zu Sales greifen sind Jugendliche und "Kiddies" die sich auch ne AMD rein bauen, weil Eltern den Strom zahlen und sie durch ein oft stark begrenztes Budget am meisten FPS ungeachtet der Nachteile wünschen...
Entschuldige, ich hab bei diesem Beitrag einfach nur das "...sind meist Jungendliche..." vergessen...


zeedy schrieb:
Tresenschlampe, ich bezahle alles was ich habe mit meinem eigenen Geld und habe dennoch eine AMD Karte...
Wie sagt man so schön "Ausnahmen bestätigen die Regel"
 
Zuletzt bearbeitet:
eXEC-XTX schrieb:
AMD hat irgendwie das Problem, die Leistung nicht in FPS umsetzen zu können...

Nicht wirklich. Wenn die Entwickler erstmal nur auf NVidia testen, liefert NVidia nunmal höher Frames. Das ist weder Hexerei noch ein Mangel seitens AMD noch irgend etwas anderes. Zum Release bzw heutzutage zum ersten Patch werden dann die Optimierungen für AMD nachgezogen sein und wir sind wieder beim Alten: der eine hat da 5% mehr, der andere da, letztendlich ist es Wurst.
 
@Tresenschlampe: Sry aber die Regel geht meiner Erfahrung nach in die andere Richtung :)
Mit 15 bei Mutti habe ich mir ausschließlich Nvidia gekauft ;) Weil ich mit 15 noch gewohnt war, dass Mutti sich für mich den Kopf anstrengt.
Spätzünder. Besser später als nie :)
 
Tresenschlampe schrieb:
Jene die gerne zu Sales greifen sind Jugendliche und "Kiddies" die sich auch ne AMD rein bauen, weil Eltern den Strom zahlen und sie durch ein oft stark begrenztes Budget am meisten FPS ungeachtet der Nachteile wünschen...

Dieses Stromargument finde ich interessant. Die GTX 980 kostet momentan um 500€, die r9 290x um die 330. Dass die beiden so schon beim ersten Computerbase Test 7% auseinander waren, lassen wir jetzt mal aussen vor und betrachten nur dein Stromargument:
Die Preisdifferenz sind mindestens 170€, die 290x nimmt maximal 440 Watt, die 980 maximal 380. Sind 60 Watt Unterschied.
Rechnen wir mal mit 30 Cent/kwh musst du 16,5 Stunden zocken um 30 Cent zu sparen.

Wie oft passen 30 Cent in 170€? -> 567 mal. Also 567*16,5 Stunden = 9350 Stunden. Gehen wir mal realistisch davon aus, dass du 6 Stunden am Tag zockst sind das 1560 Tage oder 4 Jahre 3 Monate.

_Danach_ sparst du Geld. _Wenn_ die Karte dann noch läuft. _Wenn_ du bis dahin keine neue Karte holst. Lohnt sich ja echt, die Stromersparnis, ne?
 
Zuletzt bearbeitet von einem Moderator:
mambokurt schrieb:
Dieses Stromargument finde ich interessant. Die GTX 980 kostet momentan um 500€...

oO bis 3 zählen kannst du aber?

Die 970er stampft die 290X schon in den Boden!
Von der 980er war ne die rede bei meinem Vergleich...
https://www.computerbase.de/2014-09...dia/6/#diagramm-rating-1920-1080-4xssaa-16xaf

Nebenbei gibt es die 970er mit Mehrleistung im energieeffizienten Custom (leichtes OC) für rund 320€
Mehr RAM, mehr Leistung, mehr Features, mehr Gamesupport bei massivst weniger Stromverbrauch, Abwärme und Lautstärke...

Jetzt rechne deine kleingeistige Kalkulation nochmal mit der 970er durch und vergesse nicht das 290X NT um mindestens 150W größer anzurechnen... E10 400W (60€) vs. 500W/290 (78€) +18€!!! Bzw. 600W/290X (89€) +29€

Hier die Gegebenheiten für deine Berechnung
Leistungsaufnahme (nimm die 970er Phantom)
https://www.computerbase.de/2014-10/nvidia-geforce-gtx-970-test-roundup-vergleich/5/ 0.28€ die kWh
970 Phantom + E10 400W kostet 383€
290X DC2OC + E10 600W kostet 408-419€
... und jetzt rechne bitte den Mehrverbrauch hinzu! Für 0! Mehrleistung und ansonsten nur Nachteile...
 
Zuletzt bearbeitet:
Tresenschlampe

Kannst du auch Kommentare ohne Übertreibungen schreiben ?

Deine Beiträge sind nämlich "extrem" Hauptschul-Niveau.

Meine R9 290 OC + AMD CPU OC schaffe ich ohne Probleme mit einem 500 watt Netzteil zu betreiben und ich behaupte dass die Mehrheit ein Netzteil zwischen 400-550 watt besitzt.
Ich bin aber auf eines gespannt, ob du bei deiner Argumentation bleibst, falls AMD neue Grafikkarten auf den Markt bringt, die den Gerüchten gerecht werden. Besonders GF 28nm SHP Prozess dürfte im Vergleich zu TSMC Prozess einiges bringen und auch AMD kann deren GPUs an solche p-state wie bei NV anpassen, sodass die Spannungen besser angepasst sind und die AMD Karten weniger verbrauchen. Denn es ist kein Geheimnis, dass der Boost der AMD Karten alles andere als optimal eingestellt sind und deshalb jene AMD GPUs ohne VCore Erhöhung gut übertakten lassen.
 
Zuletzt bearbeitet:
LokiDKS schrieb:
Viele Kerne bringen noch nicht unbedingt viel, gerade wo KI Gegner mit im Spiel sind dann gehen die FPS etwas runter. Freeflight durchs All sind es deutlich mehr.

Danke für den Screenshot. Ist das Star Citizen? Sieht schwer nach Elite Dangerous aus. Kann aber auch täuschen. Hab nur ne ungefähre Vorstellung davon wie beide Spiele aussehen weil ich keins von denen besitze und nur ein paar Screenshots gesehen habe.

Auf jeden Fall ist die CPU-Auslastung recht interessant. Besonders dass Kern 1 (bzw. 0) nicht übermäßig belastet wird. Sieht alles schön gleichförmig aus. Fast könnte man meinen das wär mit Mantle erreicht worden und nicht mit DX11.
 
Sitzt Ihr eigentlich bei allem was Ihr da so kauft mit dem Taschenrechner herum um zu sehen wo Ihr ein paar Euro sparen könnt? Ich kaufe auch aus Spaß an der Freude und wenn ich mir ein paar Watt mehr nicht mehr leisten kann, dann habe ich ein ganz anderes Problem als AMD oder NVidia.
 
pipip schrieb:
Tresenschlampe

Ich bin aber auf eines gespannt, ob du bei deiner Argumentation bleibst, falls AMD neue Grafikkarten auf den Markt bringt, die den Gerüchten gerecht werden.

Wenn AMD die "Karten (gut) neu mischt" verlieren aktuelle NV Vorteile evtl. an Bedeutung... aber mal ehrlich es geht um aktuelle Fakten und nicht um was wäre wenn! :rolleyes:
 
MikelMolto schrieb:
Sitzt Ihr eigentlich bei allem was Ihr da so kauft mit dem Taschenrechner herum um zu sehen wo Ihr ein paar Euro sparen könnt? Ich kaufe auch aus Spaß an der Freude und wenn ich mir ein paar Watt mehr nicht mehr leisten kann, dann habe ich ein ganz anderes Problem als AMD oder NVidia.

Machen die wenigsten. Ich machs nur, um dieses blöde Stromsparargument zu entkräften, das immer kommt, wenns um AMD vs. nVidia geht.
Zwei Sachen jucken mich an Grafikkarten ab der sagen wir mal oberen Mittelklasse überhaupt nicht. Lautstärke unter Last und Stromverbrauch. Ersteres bekomme ich beim Zocken überhaupt nicht. Aufgedrehte 2.0 Nahfeldmonitore bzw Kopfhörer vs. schallgedämmtes Gehäuse unterm Tisch, wer gewinnt wohl? Zweiteres fällt in der Stromrechnung leider auch nicht weiter auf. 50€ Stromkosten bei Grafikkarten zu amortisieren dauert bei arbeitstätigen Menschen die auch noch viel draussen sind gut 2-3 Jahre oder mehr.

Bei einer Grafikkarte gehts für mich nur um eins: max. Leistung fürs geplante Budget. Und da ist nVidia oft hintendran, wenn auch mit der GTX 970 nur knapp. Letztlich machte das Bundle Ergänzung Civ Beyond Earth bei mir den Unterschied. Hab inzwischen fast 100h Spielzeit. Alien Isolation hab ich noch nichtmal angefangen, Star Citizen ist noch einige Zeit hin.

Bei ner GTX 970 hätte ich 50€ mehr für ne vergleichbare MSI Gaming gezahlt + Civ Beyond Earth nochmal extra. (war glaub zumindest für 30€ kürzlich im Sale). Da ist das ne einfache Rechnung.

Und an Weihnachten gabs noch für 35€ das Upgrade von PowerDVD13 auf PowerDVD14 Ultra (die Upgrades gibts an Weihnachten immer verdammt günstig). Jetzt rechnet meine R9 290 die 24fps von Blurays auch noch auf 60fps hoch (AMD Fluid Motion), was gelinde gesagt verdammt gut rüberkommt, selbst in einem 30fps Video sieht man den Unterschied deutlich.

https://www.youtube.com/watch?v=gZLsYpSAouo
 
Tresenschlampe schrieb:
oO bis 3 zählen kannst du aber?

Die 970er stampft die 290X schon in den Boden!
Von der 980er war ne die rede bei meinem Vergleich...
https://www.computerbase.de/2014-09...dia/6/#diagramm-rating-1920-1080-4xssaa-16xaf

Nebenbei gibt es die 970er mit Mehrleistung im energieeffizienten Custom (leichtes OC) für rund 320€
Mehr RAM, mehr Leistung, mehr Features, mehr Gamesupport bei massivst weniger Stromverbrauch, Abwärme und Lautstärke...

Jetzt rechne deine kleingeistige Kalkulation nochmal mit der 970er durch und vergesse nicht das 290X NT um mindestens 150W größer anzurechnen... E10 400W (60€) vs. 500W (78€) +18€!!! Bzw. 600W (89€) +29€

Hier die Gegebenheiten für deine Berechnung
Leistungsaufnahme (nimm die 970er Phantom)
https://www.computerbase.de/2014-10/nvidia-geforce-gtx-970-test-roundup-vergleich/5/
0.28€ die kWh
:lol:
Schaut her wir haben einen 2. Sontin!
Also laut deinem Link ist die Ref 970 2% schneller als 290X, das nennst du in den Boden stampfen?? Laut dem Benchmark ist eine 970 mit ref Taktraten sogar 5% langsamer:
http://ht4u.net/reviews/2014/msi_gtx_970_gaming_4g_im_test/index39.php
In 1440p ist sie schon 11% langsamer. Und das ist ein Leistungsrating aus 18 Spielen, also recht aussagekräftig.

Also nach deiner Logik sind 4GB Nvidia VRAM mehr als 4GB AMD VRAM? :lol:

Jaja "massivst!" weniger Stromverbrauch, Abwärme und Lautstärke und dann der idiotische Netzteilvergleich, meine Güte, du hast echt Ahnung...
http://www.tomshardware.de/nvidia-g...up-vergleichstest,testberichte-241658-20.html

Und dann gibt's die Sapphire R9 290 Tri-X, 275€, kaum langsamer als 290X, kühl, leise und 215W maximaler Gaming Verbrauch.
 
In den Boden stampfen bezog sich auf das Over-All-Paket (Leistung, Stromverbrauch, Lautstärke etc.)

Was soll mir der Tom'sHardware Link sagen dort wird nicht eine ATI Karte zum vergleich aufgeführt!
Das ist dir aufgefallen Fanboy oder? 215W max. bei einer max. OC 290er wenn da mal nicht jemanden an den Weihnachtsmann und den UVP glaubt... bzw. verliert die Tri-X gegen die 970 in allen Bereichen zwar nicht so massiv wie anderer 290er aber knapp daneben ist auch vorbei inklusive ner nach wie vor schlechten Energieeffiziens!
 
Zuletzt bearbeitet:
@Tresenschlampe: Kennst du Wayne? Du merkst doch selbst, dass dein Schwachsinn genau 0 Aussagekraft hat :)

Aber! Es hält dich ja keiner ab, eine 970 bzw. eine 980 zu kaufen :)

Achja, aktuelle Fakten sind, dass eine 290 aus Ende 2013 ist und die 970 von 2014. Ein Jahr Unterschied, dabei ist die 970 nicht mal schneller.
Mit dir ists ja lästiger als mit den Zeugen Jehovas.
 
Zuletzt bearbeitet:
berkeley schrieb:
@Tresenschlampe: Kennst du Wayne?

Ne, aber ich kenne dank CB deine Wenigkeit. Was wohl auf's selbe raus kommt... :)

Zudem stimmt das mit der 0 Aussage nicht, da ich alle erwähnten Argumente, im Gegensatz zu jenen der AMD Fanboygemeinde hier, belegen konnte...
 
Zuletzt bearbeitet:
Lesen kannst du schon? Dass sie widerlegt wurden, ist dir also entgangen ;)
Kann schon mal passieren. Aber Wayne?
 
ich hab sowohl nen PC mit nVidia SLI als auch nen PC mit ATI/AMD Crossfire und stell dir vor egal ob nVidia oder ATI/AMD ... ist derzeit nix auf dem Markt was die in die Knie zwingt! Also wayne! ob jetzt die eine oder die andere in diesem Game schneller ist, schnell genug sind beide! Meinem ATI/AMD Gespann steht lediglich eine nVidia zur Seite weil ich auf PhysX nicht verzichten will! zu den Stromsparargumenten: einfach den PC bei nichtgebrauch mal ausschalten da kannst du sehr viel mehr sparen!
 
Forum-Fraggle schrieb:
So ein Quatsch. propietärer Kram sorgt dafür, daß man einige Dinge nur auf bestimmten Karten erleben kann. D.h. man müßte von beiden Herstellern eine Karte haben um alle Vorteile zu genießen.
Daß Deine Aussage hinkt erkennt man an DirectX. Das eine propietäre Lösung die Hardwarehersteller unabhängig war und dennoch kaum Innovationen hervorbrachte.

Du hast offenbar nicht verstanden auf welche Fakten ich eingehe!

Propietäre Features sind ein garant einer Firma, sich von der Konkurrenz abzusetzen. Mit dem unsinnigen "offenem Kram" dauert es immer ewig bis eine unabhängige Kommission einmal die nächste Stufe frei gibt. Oft sitzen in solchen Ausschüssen zu viele Mitglieder mit unterschiedlichen Interessen. Dabei wird so lange das Thema zerreded und letztendlich kommen doch nur halbgare Kompromisse heraus.

Ob wir als Kunden mehrere Produkte von unterschiedlichen Herstellern kaufen müssen, ist irrelevant. Das war schon in den neunzigern so und wird sich auch nicht ändern. DirectX hat übrigens den Markt voran gebracht, obwohl es geschossen war!


ampre schrieb:
Das ist ja kein offener Wettbewerb wenn NVIDIA einen CODE raushaut dessen einziger Sinn und Zweck ist die Konkurentz langsamer zu machen und zu gängeln. Wo ist da der fortschritt.

STOPP!
Du gehst von Sachverhalten aus, die nicht der Wirklichkeit entsprechen!
Es gibt bisher keine Beweise, dass GAMEWORKS gegen die Konkurrenz entwickelt wurde. Das behauptet alleine AMD und den Beweis sind die Jungs bis heute schuldig geblieben. Glaub doch nicht jeden Marketingschrott, den die Hersteller dir erzählen.

AMD behauptet immer viel, wenn der Tag lang ist. Es sollte doch auffällig sein, dass es immer die anderen sind. Nie sind es die eigenen Verfehlungen!



ampre schrieb:
Es unterliegt dann dem Normenausschuss Innovationen für die Zukunft zu setzen. Der Normenausschuss ist zurzeit Microsoft mit DX. Nur tut Microsoft so garnicht um Innovationen zu fördern. Nur wenn sie nen tritt von AMD wegen Mantle bekommen tut sich was. Das was Microsoft macht gehört eigentlich in einen Ausschuss von Software und Harwarehersteller.

Und wer ist dieser Normenausschuss bei Grafikkarten? Noch dazu muss hinterfragt werden, ob dieser Ausschuss immer genau in die richtige Richtung entwickelt? Wenn alle gleich sind, können sich keine Unterschiede mehr heraus bilden.

Bilden wir doch einen Ausschuss und dann einen Unterausschuss mit exakt umrissenen Aufgabengebiet. In erster Linie ist das nur ein neues Bürokratiemonster. Du tauschst lediglich einen Meister gegen einen anderen ein.


gmc schrieb:
Das hat nichts mit meinem Beitrag zu tun. Also noch mal, Gameworks schließt AMD nicht aus. Das wurde hier suggeriert und sich noch gewundert. Hier liegt der Denkfehler.

Das hatte ich eigentlich nicht gemeint, aber du hast recht!

Ich wundere mich sowieso, warum so viele User hier sich von billigsten Marketingphrasen so leicht hinter das Licht führen lassen. Vor Gericht muss man ja auch sämtliche Anschuldigungen beweisen. Warum gilt das nie für AMD? Die Jungs dürfen behaupten was sie wollen, jedoch nie Belege dafür bringen.


gmc schrieb:
Huddy ist ein unglaubwürdiger Marketing Dummschwätzer.

Das nicht, er ist ein gerissener Fuchs, der die Fakten gerne zu Halbwahrheiten und grenzwertigen Lügen verpackt. Bei ihm muss man höllisch aufpassen wann immer er etwas sagt! Er weiß wie man Leute manipuliert und ist daher gefährlich. Personen, die gut reden können, haben unser Land im letzen Jahrhundert schon einmal an die Wand gefahren.

Das die Menschheit nie aus ihren Fehlern lernt und sofort auf den nächsten Rattenfänger rein fällt, ist einfach krank!
 
@Hardware_Hoshi:
meinst du das wirklich ernst, was du da schreibst? Du Vergleichst Richard Huddy (weil er deiner Meinung nach eloquent ist) mit demjenigen, der letztes Jahrhundert Deutschland (dein Land?) gegen die Wand gefahren hat? Hast du überhaupt noch Realitätswahrnehmung? Langsam wird es hier wirklich suspekt.

Glaubst du auch an den Rest? Von welchen Beweisen ist die Rede, wenn mit DirectCompute für DX11 letztendlich alle nötigen Werkzeuge bereitstehen?
Was soll AMD bitte beweisen? Dass sie den Source Code nicht von Nvidia kriegen? Dann rufe doch bei Nvidia an und überzeuge dich selbst, ob du so einfach an irgendeinen SourceCode rankommst... Achja, bei AMD brauchst du dafür nur auf die Webseite zu gehen und kannst es downloaden...

Und dann solche makaberen Vergleiche aufstellen und große Töne spucken, die an Lächerlichkeit nicht zu überbieten sind. Wenns bloß bei deinen lächerlichen Marketingphrasen bliebe...

Es gibt keine Beweise...
 
Zuletzt bearbeitet:
Was will AMD denn überhaupt mit dem Quellcode?
Die unterstützen die Gameworks Features doch eh nicht. Also müssen sie dafür auch nichts optimieren.

Optimieren müssen sie nach wie vor nur das, was dann auch tatsächlich auf ihren Karten läuft.
Und da investieren sie scheinbar weniger Ressourcen als NVidia.

Aber dann zeigen sie mit dem Finger auf NVidia, stellen irgendwelche haltlosen Behauptungen in den Raum, ohne auch nur Indizien für deren Wahrheitsgehalt zu liefern ... und die Fanboys fressen es, ohne einen gesunden Zweifel auch nur in Betracht zu ziehen.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben