News „World's fastest Graphics Card“ – AMD fordert Nvidia heraus

daniel1111 schrieb:
Solche Karten hingegen, sind eher Prestigeobjekte, die kaufen sich viele Leute auch einfach, um sie zu haben. Manche Leute, nutzen sie auch einfach mit FullHD, als ob das keine Fordernde Auflösung wäre :lol:
Naja Dual-GPU Karten sind die einzige Möglichkeit 4 (oder mehr) GPUs in einem System zum Laufen zu bringen.

Klar es gibt bestimmt viele, die diese Grafikmonster "unterfordern" mit zu geringen Auflösungen. Aber von diesen "Hauptsache ich hab die schnellste Graka"-Leuten mal abgesehen, denke ich, wer so viel Geld für son Teil ausgibt, der hat eh genug in der Tasche, dass er sich auch den/die passenden Bildschirm(e) dazu kauft und evtl wirklich gleich zwei von den Teilen. Ob das nun für einen persönlich Sinn macht oder nicht ist ne ganz andere Sache.
 
@Haudrauff
Jetzt kann die ganze Diskussion der Sinnhaftigkeit von Vorne losgehen, nur ob man jetzt ein Atom- oder ein Zacate-Board nehmen sollte :lol:
 
Wer sich wundert, wie wohl die Vertreter der Zielgruppe aussehen mögen, derentwegen NV und AMD sich Grabenkämpfe um die Leistungskrone liefern - auf den letzten paar Seiten des Threads sind ganz viele Exemplare zu finden! :)
 
@terraconz
Schonmal daran gedacht das man der AMD Karte ebenfalls nen wasserkühler verpassen kann und dadurch Temperatur und Leistungsafnahme ebenfalls nach unten geht?
Hast du ebenfalls mal daran gedacht das es vielen Usern schlicht egal ist wer nun die beste Bildqualität hat solange es so gut wie nicht oder nicht sichtbar ist und ihnen deshalb die fps wichtiger sind? Zu Zeiten der Geforce 7 war das komischer Weise auch kein Problem....
Hast du vielleicht ebenfalls mal in Betracht gezogen das jemand der ca. 600€ für so eine Grafikkarte ausgibt auch nicht beim Bildschirm spart und eine entsprechende Auflösung fahren könnte?

Nichts für ungut aber bei der Argumentation kann man dir auch nen grünen Anstrich nachsagen..
 
Terraconz, dein "Leistungsaufnahme ist bei diesen Karten nicht wichtig"-Mantra ist einfach nur eine veraltete Denkstruktur, die vor ein paar Jahren noch gegolten haben mag, aber in Zeiten von 80+Gold und Platinum NTen, äußerst effizienten Sandy Bridge Chips, generell das Streben nach hoher Leistung bei geringer Leistungsaufnahme(z.B. im Mobil-Bereich,Stichwort ARM-Architektur) etc. pp einfach nicht mehr zeitgemäß ist.

Der allgemeine Konsens ist doch (bitte korrigieren, wenn ich die Diskussionen/Artikel falsch interpretiere): diese Karten sind zu teuer, zu laut, verbrauchen zu viel und generell wird der reale Nutzen dieser Karten angezweifelt.

Im Enthusiasten-Bereich wird seit geraumer Zeit der abgestraft, der ein ineffizientes Design präsentiert (1. Gen Fermi, GF100) und belohnt, wenn die Schlüsse gezogen werden und (nachge-)verbessert wird (GF110).

Die HD 6990, ist hier klar das effizientere Design und das sollte auch belohnt werden. Natürlich wiegt das Thema Lautstärke schwer, es sollte im Zweifelsfall auch klar die Entscheidung bringen. Meines Erachtens wiegt jedoch das Thema Effizienz weitaus schwerer auch wenn du das gerne als nebensächlich abstempeln möchtest.

Weiterhin sieht man das die HD 6990 offensichtlich Leistungsreserven nach oben hat, die 590 GTX aber schon nach offiziellen Spezifikationen an ihre Grenzen stößt und sogar unter Umständen das Zeitliche segnen kann wenn versucht wird die offiziell gesetzten Grenzen zu überwinden. Und wenn schon nicht die Effizienz wichtig ist, dann sollte doch wenigstens die Üertaktbarkeit ein interessantes Thema sein, oder hast du auch hier andere Vorstellungen?

Das Thema, Treiber und Schummeln bei der Bildqualität, ist legitim und muss auch klar betrachtet werden. Da sich beide Firmen (Nvidia/ Ati/AMD) in der Vergangenheit da aber nicht mit Ruhm bekleckert haben und AMD mit den letzten Treibern große Fortschritte erzielt hat und weiterhin bescheinigt wird, dass die Unterschiede längst nicht mehr so gravierend sind, als noch vor mehreren Treibergenerationen, muss dies trotzdem als Schutzbehauptung gewertet werden.

@Hardware_Junkie


Deine RAM-Argumente sind dahingehend irrelevant als das die günstigste HD 6990 im Moment ab 534 gelistet wird, und der Preis 3 Tage nach Listung schon um 10% gefallen ist. Die günstigste 590 GTX ist seit 4 Tagen gelistet und kostet weiterhin 600 Euro.
Dieses Kindergartenargument "der hat aber mehr" ist also Quatsch. Betrachtet werden muss hier, dass zum gleichen Preis die gleiche (und meines Erachtens in den relevanten Bereichen mehr) Leistung erbracht wird und beim aktuellen Stand mehr Leistung bei bis zu 10% geringeren Preis. Das ist das einzige Kriterium das hier greift und ist kein "blablabla".


@cuthbert

Nvidia unterstützt derzeit kein 4x SLI, bin mir nicht sicher ob 4xCF möglich ist.
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Kann ich nicht nachvollziehen :cool_alt:

Wozu kauft man solche Karten? Für Multimonitoring oder von mir aus auch "nur" 30"@2560x1600, oder 3D, wo man ja quasi doppelt so viele fps benötigt.

Und genau da versagt die NVIDIA. IMO klare Sache, aber kann jeder anders sehen :freaky:

du meinst wohl eher bei 3D versagt AMD richtig? ich würde mich bei fullHD sehr über reichlich mehr frames freuen wenn ich meine brille aufhabe, und da reichen singlechipkarte derweil bei weitem nicht, selbst bei grafisch nicht so prächtigen titeln.
 
Es ist schon wahr was einige hier schreiben.
Aus meinem Freundeskreis kennen sich nur wenige aus, die meisten kennen nur "GeForce", und das als Marke :D

Marketing ist alles, siehe Apple.
 
Also mie von mir aus kann amd rum protzen wie sie wollen^^.
AMD is hier imho n stück besser als nvidia da sie mehr reserven hat und in den hohen auflösungen Schneller ist.
Bei der gtx 590 wird ihr halt einfach der gf110 chip zum "verhängnis".
Es sind hier glaub ich die Physischen grenzen der Leitbahnen.... da heizt sich das pcb glaub ich star auf und gerät an die grenzen....
 
wadenbeisser schrieb:
@terraconz
Schonmal daran gedacht das man der AMD Karte ebenfalls nen wasserkühler verpassen kann und dadurch Temperatur und Leistungsafnahme ebenfalls nach unten geht?
Hast du ebenfalls mal daran gedacht das es vielen Usern schlicht egal ist wer nun die beste Bildqualität hat solange es so gut wie nicht oder nicht sichtbar ist und ihnen deshalb die fps wichtiger sind? Zu Zeiten der Geforce 7 war das komischer Weise auch kein Problem....
Hast du vielleicht ebenfalls mal in Betracht gezogen das jemand der ca. 600€ für so eine Grafikkarte ausgibt auch nicht beim Bildschirm spart und eine entsprechende Auflösung fahren könnte?

Nichts für ungut aber bei der Argumentation kann man dir auch nen grünen Anstrich nachsagen..

Natürlich habe ich daran gedacht und es auch zu ende gedacht.
AMDs AIBs können natürlich auch WAaKü draufhauen und VRAM verdoppeln nur was bringt es? WaKü macht das Baby leiser aber ob die Karte jetzt 2gb oder 4gb VRAM (repektive insgesamt 4 oder 8gb) hat ist egal sie wird nicht viel schneller werden da ab 3gb der VRAM nicht mal mehr mit Extreme Settings und Multi Monitor und 3D voll zu bekommen ist.
Die Karte wird maximal so schnell wie 2x HD6990!

So und nun zu Nvidia, man spendiere WaKü, 3gb VRAM (repektive 6gb) und ne ordentliche Stromversorgung und schon hat AMD das nachsehen. Denn bei der Nvidia limitiert eindeutig der VRAM und nicht wie bei AMD die Architektur. (natürlich immer abhängig von den settings) Das maximale wäre als 2x GTX580! Da eine GTX580 3gb mit der HD6990 in allen Auflösungen und Settings den Boden wischt (HD6990 ist eher gegen GTX570 positioniert) werden 2 davon das selbe mit 2x HD6990 machen.

Das war alles worauf ich hinauswollte. Bei Nvidia ist es nicht der Chip der langsam ist sondern einfach der fehlende VRAM. AMD kann 100gb (ACHTUNG absichtliche Übertreibung) VRAM pro GPU zur Verfügung stellen da der VRAM nicht der limitierende Faktor ist sondern der Chip ansich wird das nichts bringen. (Ausser in wenigen Extreme Settings, aber alles ab 3gb pro GPU bringt dann nur noch massig Overhead)

deadohiosky schrieb:
Terraconz, dein "Leistungsaufnahme ist bei diesen Karten nicht wichtig"-Mantra ist einfach nur eine veraltete Denkstruktur, die vor ein paar Jahren noch gegolten haben mag, aber in Zeiten von 80+Gold und Platinum NTen, äußerst effizienten Sandy Bridge Chips, generell das Streben nach hoher Leistung bei geringer Leistungsaufnahme(z.B. im Mobil-Bereich,Stichwort ARM-Architektur) etc. pp einfach nicht mehr zeitgemäß ist.

Natürlich ist Leistungsaufnahmen generell ein wichtiger Faktor aber eben nicht bei diesen Karten. Schaue ich auf die Leistungsaufnahme komme ich doch gar nicht im entferntesten auf die Idee eine Dual GPU Karte zu kaufen. Bei diesen Karten ist Leistungsaufnahme nur insofern relevant als das man die Karten kühlen muß.

Als Beispiel ein Auto Vergleich (Ja Ja ich weiß Auto Vergleiche bla bla.....), bei einem Ferrari kommt auch keiner auf die Idee zu sagen der muß langsamer werden weil er zuviel verbraucht. Wer sich einen Ferrari kauft der weiß um die folgekosten und kann sie sich leisten, oder er ist nicht mündig einkäufe zu tätigen.


deadohiosky schrieb:
Der allgemeine Konsens ist doch (bitte korrigieren, wenn ich die Diskussionen/Artikel falsch interpretiere): diese Karten sind zu teuer, zu laut, verbrauchen zu viel und generell wird der reale Nutzen dieser Karten angezweifelt.

Ja da geb ich dir recht, ich würde mir keine der Karten kaufen aber es gibt Leute die das tun und damit Freude haben. Ich würde mir auch keinen Ferrari kaufen, den ich mir auch nicht leisten kann, aber deshalb komme ich nicht auf die Idee zu sagen das Sportautos ohne Sinn und Zweck für jeden Menschen sind. Sie sind ohne Sinn und Zweck für mich persönlich!


deadohiosky schrieb:
Im Enthusiasten-Bereich wird seit geraumer Zeit der abgestraft, der ein ineffizientes Design präsentiert (1. Gen Fermi, GF100) und belohnt, wenn die Schlüsse gezogen werden und (nachge-)verbessert wird (GF110).

Fermi lief doch gut was die Verkaufszahlen belegen und das Ziel schnellste Graka wurde auch erreicht. Der einzige negativpunkt an Fermi (GF100) war die Leistungsaufnahme und auch hier gilt wieder: Das ist High End! Das ist nicht für otto normal gedacht der einfach bei Full HD mit 8xMSAA zocken will. Für den gedachten Einsatzbereich war die 480 eine gute Karte (mit Aftermarketkühler oder AIB Kühler).

deadohiosky schrieb:
Die HD 6990, ist hier klar das effizientere Design und das sollte auch belohnt werden. Natürlich wiegt das Thema Lautstärke schwer, es sollte im Zweifelsfall auch klar die Entscheidung bringen. Meines Erachtens wiegt jedoch das Thema Effizienz weitaus schwerer auch wenn du das gerne als nebensächlich abstempeln möchtest.

Sagt wer?
Treibe mal die HD6990 auf das Leistungsniveau einer GTX590 (abgesehen vom VRAM Limit natürlich) und du wirst den selben oder sogar mehr Verbrauch haben. Stichwort abnehmender Grenzertrag!


deadohiosky schrieb:
Weiterhin sieht man das die HD 6990 offensichtlich Leistungsreserven nach oben hat, die 590 GTX aber schon nach offiziellen Spezifikationen an ihre Grenzen stößt und sogar unter Umständen das Zeitliche segnen kann wenn versucht wird die offiziell gesetzten Grenzen zu überwinden. Und wenn schon nicht die Effizienz wichtig ist, dann sollte doch wenigstens die Üertaktbarkeit ein interessantes Thema sein, oder hast du auch hier andere Vorstellungen?

Was meinst du mit Leistungsreserven nach oben? Meinst du damit explizit OC oder meinst du die Architektur? Bezüglich OC, warte bis die AIBs custom Designs mit adequater Stromversorgung bringen und die 590 lässt sich genauso takten. Wir wissen ja das der Fermi Refresh ein OC Monster sondergleichen ist warum sollte sich das hier ändern?

deadohiosky schrieb:
Das Thema, Treiber und Schummeln bei der Bildqualität, ist legitim und muss auch klar betrachtet werden. Da sich beide Firmen (Nvidia/ Ati/AMD) in der Vergangenheit da aber nicht mit Ruhm bekleckert haben und AMD mit den letzten Treibern große Fortschritte erzielt hat und weiterhin bescheinigt wird, dass die Unterschiede längst nicht mehr so gravierend sind, als noch vor mehreren Treibergenerationen, muss dies trotzdem als Schutzbehauptung gewertet werden.

Wieso Schutzbehauptung?
Nurmal ein paar der Nvidia Treiber Vorteile:
SSAA in ALLEN APIs (AMD nur im 8 Jahre alten DX9)
Hybride AA Modi
Profilverwaltung
TWIMTBP = Games am releasetag zocken und nicht auf dem Patch/Hotfix warten
3D Vision (AMDs 3D ist ja ein schlechter Scherz dagegen)
nhancer/nvidia inspector (durch einrichten einer eigenen API durch Nvidia gibt es diese Apps)
CUDA/Physx (AMDs Streams ist wie so oft bei AMD nur halbherzig umgesetzt worden)

Also das sind Schutzbehauptungen?

quityper schrieb:
@terraconz
Hä, auf was beziehst du dich. Ich verstehe dich nicht!

Vergiß es der Beitrag auf den ich es bezogen habe wurde gelöscht oder ins Aquarium verschoben.
 
terraconz schrieb:
Bei Nvidia ist es nicht der Chip der langsam ist sondern einfach der fehlende VRAM.
Und genau das ist der Fehlglaube, guck dir einfach mal den Test zur 3GB Variante von Gainward an. Nvidia skaliert bei sehr hohen Auflösungen mit sehr hohem AA/AF einfach schlechter als AMD.

terraconz schrieb:
So und nun zu Nvidia, man spendiere WaKü, 3gb VRAM (repektive 6gb) und ne ordentliche Stromversorgung und schon hat AMD das nachsehen. Denn bei der Nvidia limitiert eindeutig der VRAM und nicht wie bei AMD die Architektur. (natürlich immer abhängig von den settings) Das maximale wäre als 2x GTX580! Da eine GTX580 3gb mit der HD6990 in allen Auflösungen und Settings den Boden wischt (HD6990 ist eher gegen GTX570 positioniert) werden 2 davon das selbe mit 2x HD6990 machen.
Das Problem ist aber dann, das man preislich nicht mehr mit AMD mithalten kann und die Kühlung wirklich wohl nur noch unter Wasser möglich ist, diese Karte hätte so gut wie gar keinen Markt mehr. Und würde nicht für 550€ realisierbar sein. Dann hätte man zwar wieder die schnellste Grafikkarte, aber eben wie bei der GTX580 einfach weil man ein Produkt anbietet, welches so von AMD nicht hergestellt wird, was Preis und Verbrauch an geht.

MfG Maley
 
@Terraconz

Erstens, bitte lass die Autoanalogien sie bringen gar nichts, da sie das Problem nicht vereinfacht darstellen können sondern nur als Füllmaterial in einem Text dienen.

Jedoch...wenn wir schon bei Autos sind... auch bei diesen geht es im Endeffekt um Effizienz. Jedenfalls in der Fachpresse, bei den Experten, bei den "wirklichen" Auto-Enthusiasten.
Nicht umsonst gibt es die Formel 1. Effizienz und Leistung um jeden Preis.
Dass sich dann im Endeffekt irgendwelche Poser einen Ferrari und dergleichen zulegen, weil sie andere Unzulänglichkeiten kompensieren müssen ist eine andere Sache, aber um Verschwendung geht es hier sicherlich nicht.


Ich hab nicht gesagt das sich Fermi nicht verkauft hat. Es kam aber ca. ein halbes Jahr zu spät und wurde von den Testern/Kritikern nicht sehr wohlwollend aufgenommen...zurecht. Es wurde die Ineffizienz der Architektur bemängelt. Sie haben nachgebessert (obwohl sie im Vergleich immer noch nicht effizient genug sind) und haben mit der 580 die schnellste Karte abgeliefert. Jetzt wieder ein deutlicher Rückschritt in Sachen Effizienz.


Und was meinst du mit " Treibe mal die HD6990 auf das Leistungsniveau einer GTX590"?
Was ist denn das für eine Aussage? Leistungsniveau? In Bezug auf was? Sie sind beide auf dem gleichen Leistungsniveau. Und da wären wir wieder bei der Schutzbehauptung die ja auch Hardware_Junkie als Entschuldigung für das Abschneiden der 590 GTX hat.

"Hättekönntewürdewollte Nvidia der 590 GTX 1 GB mehr spendiert dann würde die aber eine HD 6990 aber so plätten das glaubt ihr gar nicht". Diese Behauptung ist und wäre erst ein mal zu beweisen. Das dies durchaus möglich ist und eine plausible Erklärung sein könnte, will ich gar nicht in Abrede stellen wir müssen uns aber der Tatsachen bewusst sein: Sie bewegen sich im ähnlichen Preisbereich, wobei die HD 6990 aktuell sogar um einiges günstiger ist, und werden daher auch verglichen, es gibt auch keinerlei weitere Bewerber bzw. Alternativvarianten. Es wäre durchaus interessant, eine mögliche 4 GB 590 gegen eine 6990 antreten zu lassen, aber das muss sich dann ein Hersteller erst einmal trauen. Bis dahin müssen die Referenzdesigns herhalten. Was man aber durchaus in näherer Zeit sehen könnte, wäre eine verbesserte, leisere Kühllösung bei der HD 6990, dann wäre der angebliche und für dich ja entscheidende "Vorteil" neutralisiert.


Also was meinst du mit Leistungsniveau? Gehen wir von der allgemeinen Definition aus, befinden sie sich auf dem gleichen Niveau. Und das aktuelle P/L-Verhältnis (laut Preissuchmaschinen) geht klar an die HD 6990.

Mit Leistungsreserven meine ich natürlich Übertaktung, was sonst. Das beide Architekturen so gut wie ausgereizt sind, steht ja schon seit einer Weile fest, viel tut sich nicht mehr. Die 550 Ti enttäuscht(nicht jedoch die 560), AMD bringt wohl auch noch einen Mitbewerber aber sonst wird es von Fermi bzw. Northern Islands nicht mehr viel Neues sehen, bzw. wenn dann ein bißchen was vom alten im neuen Gewand.

Und wo wir gerade von "The way it's meant to be played reden" out of the box ganz toll ohne Hotfix spielen... na dann schau dir mal das Ergebnis fast ganz unten an
http://www.tomshardware.de/geforce-gtx-590-dual-gf110-radeon-hd-6990,testberichte-240752-16.html
Diese Marketing-Scheiße finde ich z.B. total zum Kotzen, ich hasse es wenn ich die scheiß Nvidia-Logos nicht abschalten kann es interessiert mich nämlich nicht die Bohne, ob Nvidia oder AMD die Entwickler geschmiert haben, solange meine 8800 GT genug Leistung bringt.
Genau das gleiche gilt für PhysX und CUDA, ich könnte nur kotzen, dass Nvidia mit proprietärer Scheiße Marktanteile erzwingen will, den Schaden hat im Endeffekt der Kunde,
in diesem Fall der AMD-Käufer. Und du siehst ja an den Tests wie sich das auswirkt, in dem einen Spiel ist AMD vorne im nächsten Nvidia... da wurden dann schon Algorithmen eingefügt um diese Unterschiede künstlich herzustellen.


Ich weiß auch nicht was du mit dem "namedropping" von CUDA, 3D Vision und Co. beweisen willst die haben per se jetzt nichts mit den Tests zu tun.

Du hast generell auch Recht das Nvidia da mehr "investiert" hat, es bleibt aber ein geschlossenes System, das ist bei AMD und Open Cl nicht der Fall. Zu 3D, kannst du dir ja diesen englischen Artikel von TH durchlesen: http://www.tomshardware.com/news/radeon-barts-3d-hdmi-hd3d,12403.html, auch hier geht AMD den Weg Industrie-Standards zu unterstützen. Meines Erachtens sehr lobenswert.

edit: Nochmal zur Effizienz http://www.tomshardware.de/geforce-gtx-590-dual-gf110-radeon-hd-6990,testberichte-240752-19.html
 
Zuletzt bearbeitet:
Wie kommt ihr darauf das es marketing ist?

@Genoo dieses satz von dir find ich obergeil --> "Der 0815 User im Geschäft wird fragen - Welche Grafikkarte ist denn z.Z. die schnellste? AMD? Oh dann hätte ich gerne ein kleineres Modell von denen!"

Seid wann gibt es Verkäufer im kommerz PC Bereich ala Saturn, Media Markt etc. die mehr als der Kunde wissen?^^

Und nur weil AMD die schnellste High end Karte hat, heißt es ja noch lange nicht das ein Mittelklasse Modell von AMD auch schneller als die anderen ist... Darauf würde ja dann der Verkäufer auch eingehen wenn er ahnung haette bzw. es den Kunden näher bringen...
 
terraconz schrieb:
Natürlich habe ich daran gedacht und es auch zu ende gedacht.
AMDs AIBs können natürlich auch WAaKü draufhauen und VRAM verdoppeln nur was bringt es? WaKü macht das Baby leiser aber ob die Karte jetzt 2gb oder 4gb VRAM (repektive insgesamt 4 oder 8gb) hat ist egal sie wird nicht viel schneller werden da ab 3gb der VRAM nicht mal mehr mit Extreme Settings und Multi Monitor und 3D voll zu bekommen ist.
Die Karte wird maximal so schnell wie 2x HD6990!

So und nun zu Nvidia, man spendiere WaKü, 3gb VRAM (repektive 6gb) und ne ordentliche Stromversorgung und schon hat AMD das nachsehen. Denn bei der Nvidia limitiert eindeutig der VRAM und nicht wie bei AMD die Architektur. (natürlich immer abhängig von den settings) Das maximale wäre als 2x GTX580! Da eine GTX580 3gb mit der HD6990 in allen Auflösungen und Settings den Boden wischt (HD6990 ist eher gegen GTX570 positioniert) werden 2 davon das selbe mit 2x HD6990 machen.
Das war alles worauf ich hinauswollte. Bei Nvidia ist es nicht der Chip der langsam ist sondern einfach der fehlende VRAM. AMD kann 100gb (ACHTUNG absichtliche Übertreibung) VRAM pro GPU zur Verfügung stellen da der VRAM nicht der limitierende Faktor ist sondern der Chip ansich wird das nichts bringen. (Ausser in wenigen Extreme Settings, aber alles ab 3gb pro GPU bringt dann nur noch massig Overhead)

Es war bei mir nirgenswo etwas von einer VRAM Verdoppelung die Rede und du bist praktisch auf keinen meiner Punkte eingegangen.
Was hast du also zuende gedacht?

Wenn du der Doppelkarte die Taktrate und damit vermutlich auch die Spannung einer GTX580 verpasst dann frisst sie auch wie 2 GTX580. Willst du die Spannungsversorgung dann auf anfallenden 500-600W auslegen? Zusammen mit 3-4 8 poligen Stromanschlüssen?
Na viel spass bei der Kühlung und mit der Kabelarmada an der Karte.
 
@Wadenbeisser:
Kühlung für solche karten ist sowieso nur unter Wasser erträglich, ob ich jetzt 70db oder 100db habe unter Luft ist schon egal da beides viel viel zu laut ist. Und ja die Spannungsversorgung wird dann auf 500W ausgelegt wo ist das Problem? Warum das eine "Kabelarmada" geben soll versteh ich nicht so ganz. Man kann Kabel hinter dem Mainboardtray verlegen und Kabelbinder nutzten wie es eigentlich eh jeder macht.

Was ist an dem Argument so schwer zu verstehen das 1x GTX580 3gb > 1x HD6990 ergo 2x GTX580 3gb > 2xHD6990. Was daran so schwer ist erschliesst sich mir nicht.

@deadohiosky:
Also glaubst du auch das 1xGTX580 3gb < als 1xHD6990? Wenn du auf den CB anspielst in dem die 3gb Phantom nichts brachte dann schau dir doch die Tests dort an. Da hast du Tests von 2560x1600 und max 8xMSAA also da läuft ja nichtmal der 1,5gb VRAM der normalen GTX580 über also warum sollte sich die Phantom da absetzten können. Das Einsatzgebiet dieser Karten ist 3D, Downsampling, SSAA (in allen APIs) und Multimonitoring. Mach den selben Test nochmal mit 5940x3240 und 3D oder mach ihn mit Downsampling/SSAA und schon sieht das Ergebnis anders aus. Wie schon weiter oben erwähnt bringt mehr VRAM nur etwas wo auch der VRAM zuvor limitiert hat und nicht der Chip.
 
Also, sehe ich das richtig: Du hast gerade zugegeben, dass die Lautstärke bei beiden Karten unerträglich ist und in der Folge ist es egal ob eine Karte unerträglich laut oder noch unerträglich lauter ist?

Nun, dann setzen wir doch beide unter Wasser, welche Karte würde dann objektiv (ich weiß bei dir ist das schwierig) gewinnen.


Es scheint mir auch, als ob du den Test den ich verlinkt habe nicht gelesen hast:

http://www.tomshardware.de/geforce-gtx-590-dual-gf110-radeon-hd-6990,testberichte-240752-19.html

Hier haben wir zwei 580, die mit 1,5 GB laufen und zwei 6970 mit 2 GB schlagen, also bitte wenn du den RAM-Drosselung beweisen möchtest musst du schon konkret mit Beweisen kommen. Bis jetzt hört es sich nur nach einer Trotzreaktion an: "Naja wenn die 590 10 GB RAM und bei 1000 MHz getaktet gewesen wäre, dann hättekönntewürdesollte das Ergebnis ganz anders ausgesehen." Das ist völliger Quatsch, hier werden zwei Referenzdesigns miteinander verglichen. Und dabeis ist unerheblich wie die Ergebnisse entstehen solange sie vergleichbar sind. Und hier sollte gänzlich und allein der Fakt, dass beide im gleichen Preissegment gegeneinander antreten, gelten.

Wieviel Leistung bekommen ich für 600/540 Euro.

Ich finde es auch süß, dass du weiterhin denkst, der Chip hätte noch ewig Reserven und der böse RAM ist schuld, dass das volle Potential nicht entfalten kann. Warum hat denn dann Nvidia darauf verzichtet? Und warum kann AMD insgesamt 4 GB verbauen?

Aber wie ich ja bereits sagte, es ist unerheblich. die Faktenlage ist eindeutig. Da kann man noch soviel in die Glaskugel schauen und sich über die Unfairness der VRAM-Diskrepanz aufregen, Nvidia hat sich so entschieden und muss jetzt damit leben, dass sie eine teurere Karte in den Ring schicken, die nicht besser ist, einiges schlechter macht (LA) und einiges besser (Kühllösung).

Die 6990 ist in diesem Vergleich die bessere Karte wenn man von der L/W und P/L ausgeht und das sind heutzutage die Kriterien nach denen entschieden wird. Dass die 590 dann am Ende doch die bessere Karte sein soll, weil sie "leiser" ist, ist für mich fragwürdig (wenn die Tester feststellen dass beide Karten zu laut sind) aber selbstverständlich eine legitime Aussage.


Und mal zu SLI vs. CF:

http://www.tomshardware.com/reviews/crossfire-sli-3-way-scaling,2865.html
 
Zuletzt bearbeitet:
terraconz schrieb:
Wieso Schutzbehauptung?
Nurmal ein paar der Nvidia Treiber Vorteile:
SSAA in ALLEN APIs (AMD nur im 8 Jahre alten DX9)
Immer wieder liest man diese SSAA Geschichte. AMD hält sich nun mal an die Forderung von DX10/DX11 und ermöglicht das forcierte Anti-Aliasing nicht mehr. Nvidia geht da seinen eigenen Weg mal wieder.
http://www.3dcenter.org/artikel/supersampling-anti-aliasing-auf-ati-nvidia-unter-directx-1011
Besser wäre es sowieso, wenn ATI und nVidia sich ganz offiziell dieses Themas annehmen würden und Supersampling Anti-Aliasing entweder direkt im Treiber (wird wohl nicht gehen wegen der DirectX-10/11-Forderung, daß der Treiber kein Anti-Aliasing mehr forcieren darf) oder per Tweaktools anbieten würden. Es wäre in jedem Fall schade, diese gute Möglichkeit zu Supersampling Anti-Aliasing (und damit zu mehr Bildqualität) einfach so liegenzulassen, nur weil irgendwelche API-Regularieren dies ohne technisch begründbare Notwendigkeit verbieten. In jedem Fall sollten beide Grafikchip-Entwickler bei diesem Thema in Zukunft verstärkt ansetzen.
 
deadohiosky schrieb:
Also, sehe ich das richtig: Du hast gerade zugegeben, dass die Lautstärke bei beiden Karten unerträglich ist und in der Folge ist es egal ob eine Karte unerträglich laut oder noch unerträglich lauter ist?

Nun, dann setzen wir doch beide unter Wasser, welche Karte würde dann objektiv (ich weiß bei dir ist das schwierig) gewinnen.


Es scheint mir auch, als ob du den Test den ich verlinkt habe nicht gelesen hast:

http://www.tomshardware.de/geforce-gtx-590-dual-gf110-radeon-hd-6990,testberichte-240752-19.html

Hier haben wir zwei 580, die mit 1,5 GB laufen und zwei 6970 mit 2 GB schlagen, also bitte wenn du den RAM-Drosselung beweisen möchtest musst du schon konkret mit Beweisen kommen. Bis jetzt hört es sich nur nach einer Trotzreaktion an: "Naja wenn die 590 10 GB RAM und bei 1000 MHz getaktet gewesen wäre, dann hättekönntewürdesollte das Ergebnis ganz anders ausgesehen." Das ist völliger Quatsch, hier werden zwei Referenzdesigns miteinander verglichen. Und dabeis ist unerheblich wie die Ergebnisse entstehen solange sie vergleichbar sind. Und hier sollte gänzlich und allein der Fakt, dass beide im gleichen Preissegment gegeneinander antreten, gelten.

Wieviel Leistung bekommen ich für 600/540 Euro.

Ich finde es auch süß, dass du weiterhin denkst, der Chip hätte noch ewig Reserven und der böse RAM ist schuld, dass das volle Potential nicht entfalten kann. Warum hat denn dann Nvidia darauf verzichtet? Und warum kann AMD insgesamt 4 GB verbauen?

Aber wie ich ja bereits sagte, es ist unerheblich. die Faktenlage ist eindeutig. Da kann man noch soviel in die Glaskugel schauen und sich über die Unfairness der VRAM-Diskrepanz aufregen, Nvidia hat sich so entschieden und muss jetzt damit leben, dass sie eine teurere Karte in den Ring schicken, die nicht besser ist, einiges schlechter macht (LA) und einiges besser (Kühllösung).

Die 6990 ist in diesem Vergleich die bessere Karte wenn man von der L/W und P/L ausgeht und das sind heutzutage die Kriterien nach denen entschieden wird. Dass die 590 dann am Ende doch die bessere Karte sein soll, weil sie "leiser" ist, ist für mich fragwürdig (wenn die Tester feststellen dass beide Karten zu laut sind) aber selbstverständlich eine legitime Aussage.


Und mal zu SLI vs. CF:

http://www.tomshardware.com/reviews/crossfire-sli-3-way-scaling,2865.html

Wow langsam ich fing nicht an mit "dann noch Wakü und mehr VRAM" sondern ich entgegnete auf einen anderen post das man auch der 590 eine WaKü mehr VRAM und ne ordentliche Stromversorgung spendieren kann.

Und ja für mich sind beide Karten unerträglich aber ich bin ja auch nicht die Zielgruppe. Ich habe weder Multi Monitor noch 3D (zwar am TV aber nicht am PC Monitor) und downsampling betreibe ich ebenfalls nicht. Für mich reicht meine 560er oder maximal eine 570er dicke aus.

Aber ich gebe dir recht das wenn man rein vom Ref Design ausgeht dann die AMD Karte die "bessere" oder besser gesagt die weniger nutzlose wäre. Nur wie wir schon festgestellt haben ist das Ref Design bei beiden unter aller Sau, ob eine jetzt weniger crap ist als die andere ist denke ich eher unerheblich. Ach und Bezüglich tests der 3gb 580 schau mal in die aktuelle PCGH da sollte laut Raff so ein Test drinnen sein. Die tests online die mit 2560x1440 und popeligen 8xMSAA testen sind ja logischerweise nicht wirklich brauchbar um ein VRAM limit bei einer 1,5gb Karte anzuzeigen. Da muß Multimonitor, massiv SSAA oder DS oder 3D, am besten alles zusammen. Denn für 2560x1440 8xMSAA braucht kein Mensch so eine Karte da man mit ner GTX580/HD6970 genauso gut fährt (ausser vielleicht Leute die nur Crysis und Metro zocken).

Complication schrieb:
Immer wieder liest man diese SSAA Geschichte. AMD hält sich nun mal an die Forderung von DX10/DX11 und ermöglicht das forcierte Anti-Aliasing nicht mehr. Nvidia geht da seinen eigenen Weg mal wieder.
http://www.3dcenter.org/artikel/supersampling-anti-aliasing-auf-ati-nvidia-unter-directx-1011

Und das steht jetzt wie im Gegensatz zu meiner getätigten Aussage?
AMD = SSAA nur in DX9
Nvidia = SSAA in DX9/10/11
Ist das nicht korrekt?
 
Zurück
Oben