News Grafik der „Fusion“-APUs schneller als aktuelle GPUs?

Vidy_Z schrieb:
Wie denn auch, wenn der Fermi bisher niemals/niergens mit der HD 5000 verglichen wurde???(Kopfschüttel).
Hier gab es doch schon nen Link, wo beide verglichen wurden: http://www.brightsideofnews.com/Data/2010_3_26/nVidia-GeForce-GTX-480-and-GTX-480-SLI-Review/NVDA_GTX480_Elcom2_675.jpg
Was ist denn an diesem Vergleich verkehrt? Sorry, aber wenn du "niemals" und "nirgends" schreibts, dann benutzt du genauso eine "Powerphrase", wie du sie gruffi vorwirfst.

Btw. welche Schnittstelle benutzt dieses ElcomSoft eigentlich?
 
@Schaffe89

Bitte was? OpenGL ist bei Version 4.1 oder so. Und falls du OpenCL meinst, Version 1.1 ist nicht mal 2 Monate alt. Also ganz ruhig mit den jungen Pferden. Wenn du glaubst, du könntest den Support schneller implementieren, darfst du dich ja gerne mal bei AMD bewerben. ;)
OpenCL 1.1 Support ist laut Roadmap übrigens für das Stream SDK 2.2 angekündigt, welches noch diesen Monat erscheinen soll.


@Vidy_Z

Nicht ich bezeichne das so, das ist alles den technischen Unterlagen von AMD zu entnehmen. Ich würde dir empfehlen, du schaust die dir erstmal an, bevor du hier weiterdiskutierst. Und egal wie viele Stream Cores ATI hat, solange die Aufgabe parallelisierbar ist, können auch alle Kerne genutzt werden. Das trifft auf Audio- und Video-Streaming genauso zu wie auf andere Sachen. Nix mit "wird es bereits eng".

Wenn dir die Aussage "ATI gibt den Ton an, in allen Bereichen" nicht passt, dann ist das dein Problem. Vielleicht hätte ich dazu schreiben sollen, in "relevanten" Bereichen. ATI hat die schnellste Karte (HD 5970), sie haben energieeffizientere Karten, sie haben niedrigere Kosten, sie haben einen Entwicklungsvorsprung, sie haben HD 5000 Karten in sämtlichen Bereichen des Portfolios im Angebot, sie haben mehr Leistungskapazitäten für GPGPU, usw. Sachen wie Eyefinity und dergleichen lasse ich mal weg, da jeder Hersteller hier eigene Features anbietet und das auch wenig relevant für den Markt ist. Wobei selbst hier ATI noch Vorteile hat, wie zB der Support für HD Audio.
Das sind jedenfalls die Fakten, denen auch du ins Auge sehen musst. Ich war nicht derjenige, der hier mit völlig falschen Superlativen um sich geschmissen hat. "Ist der Nvidia Chip doch weit überlegen", "Nvidia seinen Graphikchip für GPGPU Anwendungen quasi neu erfindet", "AMD ... ohne ein irgendwie vergleichbares Engagement für Berechnungen via GPU", "AMD ist auf dem Gebiet sogar gefährlich hinten dran". Soll ich noch mehr aufzählen? Es wäre daher ratsam, du prüfst erstmal deine eigenen Aussagen, bevor du andere damit attackierst.

Du solltest übrigens aufhören, dich zu wiederholen. Du zählst jetzt schon zum zweiten mal Sachen auf, die für das Thema völlig belanglos sind. Und die Behauptung, ATI hätte das Hauptaugenmerk beim RV870 auf die Spieleperformance gelegt, ist immer noch falsch. Wenn dem so wäre, wäre der RV870 wohl ein 600 mm² Chip, der 375 W braucht, 50% mehr FPS als die GTX 480 liefert und ebenfalls 6 Monate später erschienen wäre. Schau dir lieber mal an, was für Chipentwicklung entscheidend ist und wo die Prioritäten liegen. Dass die Spieleperformance trotzdem gut ist, zeigt einfach nur, dass das Design gesund ist. Das kann man von Fermi bei der Grösse und Leistungsaufnahme nicht sagen. Das Design von ATI bietet darüber hinaus ebenfalls sehr gute GPGPU Performance, die Fermi bisher im Schnitt nicht überbieten konnte. Und natürlich wurde Fermi schon mit Evergreen verglichen. Einen Vergleich hatte ich bereits zuvor verlinkt.
 
Zuletzt bearbeitet:
gruffi schrieb:
Und falls du OpenCL meinst, Version 1.1 ist nicht mal 2 Monate alt.

Bei Nvidia gibts das jedenfalls schon.^^ Und ja Open CL.^^
Hat jetzt aber glaub ich weniger mit der eigentlichen Diskussion zu tun.
 
Zuletzt bearbeitet:
Ob das nVidia bereits hat, ist aber völlig belanglos für die Aussage "ATI würde hier irgendwas vernachlässigen", was du ja zitiert hast. Wir reden hier über Zeiträume von wenigen Wochen. Das ist doch keine Grundlage für deine Frage.
 
Hmm,

"niemals/nirgends" ist eine Doppel- oder gerne auch Powerbetohnung, und ruft eine Tatsache ins Gedächnis, in der alle übereinstimmen.

Dagegen ist "ATI gibt den Ton an, in allen Bereichen." ein ganzer Satz, der sich auf Gesprächspunkte bezieht, in der die Meinungen auseinanderlaufen. Und zwar nicht nur auf einen, sondern auf alle zusammen, und ein Phrase ist es deshalb, weil eine nicht belegte Überzeugung, machtvoll als Tatsache dargestellt wird.

Passwortknacken stellt bestimmte Anforderungen, die nicht auf andere Anwendungen übertragen kannst. Für die Anwendungen für die GPGPUs eigentlich gedacht sind, kannst du deshalb kaum etwas ableiten.
 
Dass Fermi bisher nirgends mit Evergreen verglichen wurde, ist schlichtweg nicht korrekt. Wie kann das dann eine Tatsache sein? :rolleyes: Ausserdem stimmen dem nicht alle zu. Auch diesbezüglich ist die Aussage falsch.

Im Gegensatz dazu habe ich dir für meine Aussagen Tatsachen genannt. Ob du diese nun akzeptierst, ist deine Sache. Es ändern sich die Tatsachen dadurch aber nicht.
 
@Vidy_Z
Aber alles im allem ist es nun mal ne GPGPU Anwendung, steht sogar im Benchmark drüber. Und nur weil es deinen Ansprüchen anscheinend nicht gerecht wird, ist es trotzdem verkehrt zu sagen, Evergreen wäre nie(!) mit Fermi verglichen worden in Bezug auf GPGPU Anwendungen. Das ist der Punkt, auf dem ich hinaus wollte.
 
@gruffi

Deine drei Belege sind wortwörtlich:

Nicht ich bezeichne das so, das ist alles den technischen Unterlagen von AMD zu entnehmen. Ich würde dir empfehlen, du schaust die dir erstmal an, bevor du hier weiterdiskutierst.
Wenn dem so wäre, wäre der RV870 wohl ein 600 mm² Chip, der 375 W braucht, 50% mehr FPS als die GTX 480 liefert und ebenfalls 6 Monate später erschienen wäre.
und natürlich der leider nicht übertragbarer "Passwortentschlüsselbenchmark"(tschuldigung das ich den eben vergessen habe, da ist der RV870 klar im Vorteil).
Hmm, und irgendwie kann man daraus so wenig entnehmen. Im Anbetracht der Tatsache, dass eh keiner von uns auf einen Anwendungsrelevanten Bench zurückgreifen kann, finde ich dann Aussagen wie:
- die Floting Point Einheit des Fermi stellt mehr Funktionen in DP bereit als die des RV870(zu den Funktionen gehören außer +, -, x , : etwa auch Sinus, Cosinus, Tangens)
- Fermi wurde beim Generationswechsel mit mehr und mit komplexeren Befehle erweitert als der RV870 im Verhältnis zu seinem Vorgänger.
- Fermi besitzt ein Vielfaches der Cachegröße sowohl seines Vorgängers als auch des RV870
doch irgendwie wesentlich klarer und nachvollziebarer. Da kann man wenigstens ein Mindestmas an Schlüssen draus ziehen. Woran mag das nur liegen? An den klaren Zahlen vielleicht?
Und ist die GX480, obwohl sie sich aufheizt wie eine Herdplatte, nicht trotzdem einen Tick schneller als die 5950? Nicht dass ich dem irgendeine Relevanz beimessen würde, nur ist es wieder ein klarer Beleg, der deine maßlosen "gib den Ton an, in allen Bereichen"-Lobeshymnen mal so eben ad absurdum führt. Durch deine restlosen Übertreibungen haben deine Aussagen ihre Glaubwürdigkeit eingebüßt. Da kann man einfach nicht mit klar kommen. Finde ich ehrlich gesagt ziemlich schade, weil man nicht weis, was man von deinem sicher nicht geringem Wissen glauben kann und was nicht.

edit:@Lonely Shepherd
Ja, jetzt verstehe ich was du meintest, den Bench hatte ich in der "niemals"-Ausage einfach übersehen.
 
Zuletzt bearbeitet:
Du scheinst nicht wirklich zu kapieren, was die relevanten Fakten sind. Deine off-topic Abschweifungen wie "Fermi stellt mehr Funktionen in DP bereit", "Fermi ... mit mehr und mit komplexeren Befehle erweitert", "Fermi besitzt ein Vielfaches der Cachegrösse" und dergleichen sind jedenfalls keine und für das Thema völlig irrelevante Details. Ich habe dir sehr deutlich die Fakten aufgeführt.
ATI hat die schnellste Karte (HD 5970), sie haben energieeffizientere Karten, sie haben niedrigere Kosten, sie haben einen Entwicklungsvorsprung, sie haben HD 5000 Karten in sämtlichen Bereichen des Portfolios im Angebot, sie haben mehr Leistungskapazitäten für GPGPU, usw. Sachen wie Eyefinity und dergleichen lasse ich mal weg, da jeder Hersteller hier eigene Features anbietet und das auch wenig relevant für den Markt ist. Wobei selbst hier ATI noch Vorteile hat, wie zB der Support für HD Audio.
Das alles spricht eindeutig für ATI. Genau deshalb ist ATI momentan auch Technologieführer im GPU Bereich und "gibt den Ton an". Und wenn du nicht in der Lage bist, dir die technischen Docs von AMD durchzulesen, dann ist das einzig und alleine dein Problem.
 
@Vidy_Z:
Es wäre ganz nett, wenn du endlich mal vergleiche zwischen HD5k und Fermi bringen würdest.

Denn die von gruffi scheinen dir nicht zu gefallen..


Ja, verstehe, ich vermute auch Nvidia würde das nicht in ihre Präsentation mit cherry Picking packen.
Aber soweit ich hier weiß versuchen wir durch Objektivität Leistung zu beurteilen und nicht durch Leistungsangaben usw.

Aber vielleicht bist du auch der Oberguru und darfst entscheiden was "gut genug" für GPGPU ist und was weiß ich für anderen Namen tragen sollte...
 
Superanstrengend!

Die Frage ist, aus welchen Daten man überhaupt auf die Leistung der GPGPU Beschleunigung schließen kann, wenn man nicht mal einen einzigen anwendungsrelevanten Benchmark zur Verfügung hat.

Deine Argumentation:
ATI hat die schnellste Karte (HD 5970)
Wir reden über den Chip, also die Graphics Processing Units von AMD und die von Nvidia. Es geht darum welche Chiptechnologie wo Vorteile gegenüber der anderen hat, und nicht darum wie die Leistung skaliert, wenn man 2 oder mehr voll ausgestattete Chips samt Karten auf ein Board packt. Welche Graphics Processing Einheit ist in Bezug auf die Spieleleistung also schneller? Die Fermi GPU hängt den RV 870 ab, danke!
sie haben energieeffizientere Karten
Das trifft jedenfalls im Bezug auf Spieleperformance zu. In Bezug auf die GPGPU Leistung steht die Frage mangels Benchmarks noch aus.
sie haben niedrigere Kosten
Diese Diskussion hat nicht die Wirtschaftlichkeit, sondern die Leistungsfähigkeit des Chipdesigns zum Thema. Es ist auch gar nicht möglich alle Aspekte auf einmal zu behandeln. Ergo: Irrelevant!
sie haben einen Entwicklungsvorsprung
Der Chipaufbau zeugt vom genauen Gegenteil.
sie haben HD 5000 Karten in sämtlichen Bereichen des Portfolios im Angebot
Die Diskussion hat nicht die Vollständigkeit des Sortiments, sondern die Leistungsfähigkeit des Chipdesigns zum Thema. Es ist auch gar nicht möglich alle Aspekte auf einmal zu behandeln. Ergo: Irrelevant!
sie haben mehr Leistungskapazitäten für GPGPU
Der Chipaufbau zeugt vom genauen Gegenteil und die schließliche Leistung kennen wir mangels Benchmarks noch nicht.


Zurück zu der Frage, aus welchen Daten man überhaupt auf die Leistung der GPGPU Beschleunigung schließen kann. Da haben wir nur die Informationen zum Aufbau der Chiparchitektur. Etwas anderes steht uns nicht zur Verfügung! Also können wir nur darauf zurückgreifen, was übrigens jede Hardwareredaktion, die sich mit der GPGPU Beschleunigung beschäftigt, genauso machen würde. Ist doch irgendwie logisch.

Und aus der von mir verlinkten Beschreibung des Fermi bzw. RV870 Nvidia Fermi-Architektur@hardware-infos, ATI Radeon HD 5870@hardwareluxx, geht eindeutig die Tatsache hervor, das der Fermi mehr Funktionen in DP bereit hält. Ich denke sogar, dass AMD nicht mal abstreiten würden, dass sich
- Nvidia mehr Mühe gegeben hat, die GPU auf GPGPU Anwendungen zu trimmen, weshalb etwa Nvidia den Floting Point Satz in DP viel weiter vervollständigt hat.
- Den gleichen Schluss kann man daraus ziehen, dass Nvidia sehr viel Energie dazu verwendet hat, eine C++ ähnliche Programmierung zur Verfügung zu stellen, was dem Programmierer die Verwendung der GPU wesentlich erleichtert und was auch die zusätzlich in die GPU integriert Befehlssätze erleichtern, die in ihrer Fähigkeit komplexe Befehlsschritte in einem Schritt zusammenzufassen, die Fähigkeiten der GT200b- sowie RV870-Befehlssätze weit übertreffen.
- Den gleichen Schluss kann man daraus ziehen, dass der Cash verachtfach! wurde. Da wir aber wissen, dass Cachspeicher jede Menge Chipfläche belegt, und da wir wissen, dass Cach für die Spieleperformance nicht relevant ist,
- kann man daraus wiederum den Schluss ziehen, dass Nvidia die Chipfläche auf Kosten des Wärmeverhaltens, auf Kosten der Idelrate, auf Kosten der Chippreise und zu Gunsten der GPGPU Performance vergrößert hat.

Eigentlich sind diese Abhängigkeiten offensichtlich. Wenn du aber nicht mal den Hauch eines Zusammenhangs darin lesen kannst, dann ist es vielleicht so, dass du zwar ein nicht geringes Wissen über die Zeit zusammengetragen hast, aber nicht so recht weist, wie man aus diesem Wissen logische Schlüsse zieht. Und wenn du die einzigste Information die uns zur Verfügung steht, nämlich den Chipaufbau, weiterhin so konsequent ignorierst, und wie ein Kind darauf beharrst, dass AMD, warum auch immer, der Technologieführer sei, ist für mich das Gespräch beendet.
Und wenn du nicht in der Lage bist, dir die technischen Docs von AMD durchzulesen, dann ist das einzig und alleine dein Problem.
Wir sind auch nicht im Kindergarten wo Warmluftargumente hin und her geschoben werden! Ich kümmere mich nicht um die Beschaffung deiner Argumente! Bist du unfähig deine Belege selber auf den Tisch zu legen, dann hat es sie nie gegeben! So sind die Regeln!


@JokerGermany
Es wäre ganz nett, wenn du endlich mal vergleiche zwischen HD5k und Fermi bringen würdest.
Du kannst dir gar nicht vorstellen wie nett ich das erst fände, wenn es endlich etwas zum ablesen gäbe!
Zu dem Passwortentschlüsselbench: kennst du noch den Gedo Prozessor von Via? Eine echt Krücke von CPU, aber in einem Punkt war er unschlagbar. Im Passwortentschlüsseln hat er selbst die schnellsten Prozessoren von Intel und AMD im Regen stehen lassen. Das ist dadurch bedingt, dass Passwortentschlüsselung im speziellen von ganz bestimmten Chipfunktionen besonders profitiert. Diese Funktionen haben in anderen Anwendungen aber so gut wie keinen Nutzen. Nichtsdestotrotz hat Via diese Funktionen einfach in die Gedohardware integriert und konnte fortan damit prahlen.

Es ist davon auszugehen, dass weder Nvidia noch Ati diesem Punkt eine Relevanz beimessen, weil nur ein vernachlässigbarer kleiner Teil der Kundschaft vorhaben dürfte Passwortentschlüsselung via GPGPU zu betreiben. So könnte der Bench zwar auf vorteilhaft ausgelegte Bereiche des Chips hinweisen, es könnte aber genauso gut totaler Zufall sein, man weis es nicht!

Ich habe mehrere Stunden damit verbracht, nach weiteren Benchmarks zu suchen. Wenn du da auf irgendwas stößt, nur her damit! Ansonsten bleibt der Chipaufbau die einzigste Informationsquelle, aus der man seine Schlüsse ziehen kann, wie es übrigens jede Hardwareredaktion auch tun würde.

Grüße
 
Man kan aus einem Chipaufbau nicht einfach so Schlüsse ziehen, da müsste man sich schon besser auskennen.
Es gibt derzeit Ein paar Benchmarks in denen die parelelisierte Leistung getestet wird.
Hier gewinnt ATI.
So ist der Stand.
Spezialanwendungen wie zum Beispiel Betriebssysteme oder etc.. etc.. gehen an der eigentlichen Fragestellung vorbei.
ATI hat mehr GPGPU Leistungskapazitäten, sieht man ja an der Rohleistung,inwieweit Nvidia hier mit Cache unzusätzlichen Funktionen des Fermi Chips in speziellen Bereichen besser ist, wissen wir dank der dürftigen Informationslage nicht.
 
Schaffe89 schrieb:

Schaffe das StreamSDK mit OpenCL 1.1 ist nun verfügbar ;).

In den Samples muss aber ein Fehler drin sein wenn man auf der CPU OpenCL Rechnen möchte.

Wer auch immer das verbrochen hat ....

Code:
    if(deviceType.compare("cpu") == 0)
    {
        dType = CL_DEVICE_TYPE_CPU;
    }
    else //deviceType = "gpu" 
    {
        dType = CL_DEVICE_TYPE_GPU;
    }

in meiner bescheidenen Meinung würde es so mehr Sinn ergeben

Code:
    if(deviceType.compare("gpu") == 1)
    {
        dType = CL_DEVICE_TYPE_GPU;
    }
    else //deviceType = "cpu" 
    {
        dType = CL_DEVICE_TYPE_CPU;
    }

-------------------

Wegen dem ganzen hin und her was nun besser ist. Könnten ihr euch nicht drauf einigen das beide ihren Weg gehen? Bei Nvidia hat man gewisse Vorteile und mit ATI je nach Anwendungsfall. Ich persönlich würde mir aber seitens AMD hier etwas mehr Engagement wünschen. Besonders bei Bullet sieht es eher mager aus, wobei die wohl eher an CUDA interessiert sind und weniger an OpenCL wenn man sich mal die letzte Changelog anschaut bzw. mal in das SVN Repo schaut.


PS: Mit dem neuen StreamSDK wurde meiner alten HD3850 leider die letzten Möglichkeiten zur GPGPU genommen :/
 
Zuletzt bearbeitet:
Vidy_Z schrieb:
Deine Argumentation:Wir reden über den Chip, also die Graphics Processing Units von AMD und die von Nvidia. Es geht darum welche Chiptechnologie wo Vorteile gegenüber der anderen hat, und nicht darum wie die Leistung skaliert, wenn man 2 oder mehr voll ausgestattete Chips samt Karten auf ein Board packt. Welche Graphics Processing Einheit ist in Bezug auf die Spieleleistung also schneller? Die Fermi GPU hängt den RV 870 ab, danke!
Nein, das genaue Gegenteil ist der Fall. Evergreen überflügelt Fermi deutlich. Du kannst nicht einfach Chips 1:1 vergleichen. Es geht um Transistoren- und Power-Budgets. Und damit geht Evergreen deutlich effizienter um. Das ist der entscheidende Punkt. Und deshalb kann ATI auch problemlos 2 Chips auf ein PCB setzen für den High-End Enthusiasten Markt, ohne den Performance und Mainstream Markt zu kompromittieren. nVidia hat jetzt schon 2 Designs benötigt (GF100, GF104), um in AMDs RV870 Gebieten zu wildern. Und sie haben immer noch keine nennenswerte Erfolge damit. Wie viele Designs sollen es denn noch werden? Das ist höchst ineffizient und unwirtschaftlich.

Vidy_Z schrieb:
Diese Diskussion hat nicht die Wirtschaftlichkeit, sondern die Leistungsfähigkeit des Chipdesigns zum Thema.
...
Die Diskussion hat nicht die Vollständigkeit des Sortiments, sondern die Leistungsfähigkeit des Chipdesigns zum Thema.
Nein, das Thema sind alle relevanten Aspekte bezüglich des GPU-Marktes. Und da gehört die Wirtschaftlichkeit genauso dazu. Man kann Leistungsfähigkeit ohne jeglichen Bezugspunkt auch gar nicht beurteilen. Das ist völliger Unsinn. Ansonsten wäre Atom wohl die mieseste x86 CPU, die es jemals gab. Ist sie natürlich nicht, weil Leistungsfähigkeit gar keine Priorität hatte. Man muss immer die wirtschaftlichen Rahmenbedingungen berücksichtigen und für welche Märkte Chips bestimmt sind. Und nVidia hat hier schlichtweg am Markt vorbei entwickelt.

Vidy_Z schrieb:
Der Chipaufbau zeugt vom genauen Gegenteil
Welcher Chipaufbau? ATI hat eine effizientere VLIW Architektur. Und deshalb hat ATI auch mehr Leistungskapazitäten. Das kann jeder mit einem klaren Blick sehen.

Vidy_Z schrieb:
Wir sind auch nicht im Kindergarten wo Warmluftargumente hin und her geschoben werden! Ich kümmere mich nicht um die Beschaffung deiner Argumente!
Es sind nicht meine Argumente, es sind Fakten. Und diese kannst du den AMD Docs entnehmen. Ich kann dir zB das zur 5800 Serie von der SIGGRAPH Dezember 2009 empfehlen. Wenn du zu faul bist, dir diese mal anzuschauen, dann ist das immer noch dein Problem. Höre dann aber wenigstens auf, beim Thema mitreden zu wollen. Dass du keine Ahnung davon hast, haben wir ja nun begriffen.


Und bitte, fange jetzt nicht auch noch mit Sachen wie C++ an und gebe irgendwelche kontextfreien Phrasen irgendwelcher Printmedien wieder. Von Programmiersprachen habe ich recht wahrscheinlich mehr Ahnung als du. AMDs GPUs lassen sich übrigens ebenfalls mit C und C++ programmieren. Und erspare uns bitte deine gebetsmühlenartigen Abschweifungen zu Cache, Befehlssatzerweiterungen und dergleichen. Wir haben es ja nun gehört. Es nervt nicht nur, sondern ist für das Thema KOMPLETT IRRELEVANT. Wenn du dich über die genauen Architekturdetails von Fermi unterhalten möchtest, würde ich einen anderen Thread empfehlen. Es heisst zudem "Cache" und nicht "Cash". nVidias Cash dürfte nach den letzten Quartalszahlen alles andere als verachtfacht worden sein. :rolleyes:




@nille02

Was gibt denn die Funktion compare zurück? Null muss nicht zwangsläufig Ungleichheit bedeuten. ZB strcmp gibt für Gleichheit auch 0 zurück.
 
Zuletzt bearbeitet:
gruffi schrieb:
@nille02
Was gibt denn die Funktion compare zurück? Null muss nicht zwangsläufig Ungleichheit bedeuten. ZB strcmp gibt für Gleichheit auch 0 zurück.

OK nachdem ich es genauer mir angeschaut habe sehe ich nun auch das == 0 in dem Fall richtig war.
Danke für den Hinweis.
 
Zuletzt bearbeitet:
@gruffi
Nein, das genaue Gegenteil ist der Fall. Evergreen überflügelt Fermi deutlich. Du kannst nicht einfach Chips 1:1 vergleichen. Es geht um Transistoren- und Power-Budgets. Und damit geht Evergreen deutlich effizienter um. Das ist der entscheidende Punkt. Und deshalb kann ATI auch problemlos 2 Chips auf ein PCB setzen für den High-End Enthusiasten Markt, ohne den Performance und Mainstream Markt zu kompromittieren. nVidia hat jetzt schon 2 Designs benötigt (GF100, GF104), um in AMDs RV870 Gebieten zu wildern. Und sie haben immer noch keine nennenswerte Erfolge damit. Wie viele Designs sollen es denn noch werden? Das ist höchst ineffizient und unwirtschaftlich.
Normalerweise geht es immer darum, den kleinsten gemeinsamen Nenner zu finden um möglichst viele Faktoren, die das Ergebnis undurchsichtig machen auszuklammern. Eine Dualgpukarte bzw Crossfire/Sli Verbund verfälscht das Ergebnis aber sehr. Du weist dann nicht, wie sich der Verbund bei der einen Anwendung weniger und bei der anderen mehr auf die Performance auswirkt, ob nicht bald Dualkarten von Nvidia gibt, ob Asus eine Quad für irgendwas in der Planung hat, usw, usw, aber was soll´s, gleiche Bedingungen interessieren dich ja ohnehin nicht. Dann recherchier doch mal nach Teslaracks mit 6 und mehr GPU´s, bzw. arbeitet der Hersteller von V-Ray mit 3 Consumer 480ger in einer Workstation. Wenn du es nicht findest bist du natürlich selbst dran schuld. Erzähl dann bitte die Geschichte vom Aufbau mit 3x 5970. Aber erzähl die bitte nicht mehr mir, mich interessiert das hoffnungslose Diskutieren mit dir nämlich nicht mehr.

@nille02
Könnten ihr euch nicht drauf einigen das beide ihren Weg gehen?
Ich glaube man kann herauslesen, dass ich durchaus für echte Argumente zugänglich bin. So etwas bei gruffi zu erwarten ist hoffnungslos.


@Schaffe89
Man kan aus einem Chipaufbau nicht einfach so Schlüsse ziehen,
Man kann keine Leistung ablesen, das ist war, das habe ich aber auch nicht getan. Man kann aber anhand dessen, was der Hersteller in seinen Chip integriert, auf seine Absichten schließen. Es ist ja schön und gut was AMD gemacht hat, sie haben aber kaum mehr als die Anzahl der Prozessoren verdoppelt. Die Rohleistung ist damit natürlich gestiegen, nur müssen dann auch Anwendungen vorliegen, welche alle 1600 Kerne mit einem ununterbrochen Datenstrom versorgen können. Und das ist ein Problem, nicht für spezielle Benchmarks, die dafür programmiert sind, sondern für reale Anwendungen wie z.B. Videoincodern(Premiere/After Effects usw.). Da bin ich auch sehr gespannt. Dabei ist der Leistungsgewinn für Spielegraphik unbestritten. Das kann man dagegen nicht für die Vergrößerung der Cacheinheiten beim Fermi behaupten. Diese kann ausschließlich der Beschleunigung von GPGPU Anwendungen dienlich sein. Hast du einen Link zu deinen Benchmarks?
 
Vidy_Z schrieb:
@Schaffe89 Man kann keine Leistung ablesen, das ist war, das habe ich aber auch nicht getan. Man kann aber anhand dessen, was der Hersteller in seinen Chip integriert, auf seine Absichten schließen.

So einige Projekte sind so schon total fehlgeschlagen.
Die Theorie bestimmt noch lange nicht die Praxis.

Es gab auch in der Vergangenheit schon einige Architekturen, die sich in der Theorie genial angehört haben, aber in der Praxis total versagt haben...
 
So einige Projekte sind so schon total fehlgeschlagen.
Die Theorie bestimmt noch lange nicht die Praxis.

Es gab auch in der Vergangenheit schon einige Architekturen, die sich in der Theorie genial angehört haben, aber in der Praxis total versagt haben...
Jep, das stimmt auch wieder :-). Deshalb ist es ja so spannend! Ich bin echt so neugierig zu sehen, ob sich die ganze NV Theorie in der Praxis und in welchen Anwendungsfällen bewährt, oder ob es trotz des vielen Mühe nur für einen der hinteren Plätze reicht, was dann natürlich ziemlich peinlich wäre :-).
 
Vidy_Z schrieb:
Normalerweise geht es immer darum, den kleinsten gemeinsamen Nenner zu finden um möglichst viele Faktoren, die das Ergebnis undurchsichtig machen auszuklammern. Eine Dualgpukarte bzw Crossfire/Sli Verbund verfälscht das Ergebnis aber sehr.
Das hängt immer davon ab, unter welchem Gesichtspunkt man vergleicht. Rein von der Dimensionierung (Fläche, TDP) liegt Hemlock halt näher am GF100. Cypress ist hier viel eher mit GF104 vergleichbar. ATI holt aus dem gleichen Transistoren- und Power-Budget eben mehr raus. Und deshalb muss nVidia einen GF104 (GTX 460) auch so preiswert verhökern, obwohl dieser in der Fertigung so teuer oder gar teurer als Cypress ist. Und dass das am Ende nicht gut für Margen ist, sollte klar sein.

Vidy_Z schrieb:
Du weist dann nicht, wie sich der Verbund bei der einen Anwendung weniger und bei der anderen mehr auf die Performance auswirkt, ob nicht bald Dualkarten von Nvidia gibt, ob Asus eine Quad für irgendwas in der Planung hat, usw, usw, aber was soll´s, gleiche Bedingungen interessieren dich ja ohnehin nicht.
Natürlich. Im Gegensatz zu dir interessieren die mich sehr wohl.

Vidy_Z schrieb:
Dann recherchier doch mal nach Teslaracks mit 6 und mehr GPU´s, bzw. arbeitet der Hersteller von V-Ray mit 3 Consumer 480ger in einer Workstation. Wenn du es nicht findest bist du natürlich selbst dran schuld. Erzähl dann bitte die Geschichte vom Aufbau mit 3x 5970. Aber erzähl die bitte nicht mehr mir, mich interessiert das hoffnungslose Diskutieren mit dir nämlich nicht mehr.
Ich wüsste nicht, was das mit dem Thema zu tun haben soll. Aber das passt irgendwie zu deiner Diskussion. Eine klare Linie ist da nicht zu erkennen.
 
Zurück
Oben