Test Mifcom miniBOSS i9-7980XE im Test: Titan V schlägt 1080 Ti in Spielen um bis zu 50 Prozent

wo ist der sind der Karte wenn die nichtmal korrekte Ergebnisse in wissenschaftlichen Andwendungen liefert und die nächste Ti sowieso schneller sein wird?
 
m0LN4r schrieb:
keine Gaming GPU, ende der Discussion

Genau deshalb würde ich auch immer noch gerne einen Benchmark für den primären Einsatzbereich dieser GPU sehen: Deep Learning.

Dafür wurde V100, besonders mit den TensorCores, ja entworfen. Ich verstehe nicht, warum man das primäre Einsatzgebiet dieser GPU zwar zigfach erwähnt, bei den Compute-Benchmarks dann aber einfach auslässt.
 
  • Gefällt mir
Reaktionen: new Account()
Da ist was dran @ ascer :)

Einige zweifeln hier, dass die neue 1180/2080 Ti nicht diese Leistung der Titan V in Spielen bringen wird...
Imo kann man in Games mindestens Titan V Leistung erwarten. Steht ja auch im tldr Artikel:

"...Volta ist anders aufgebaut als Maxwell und Pascal
Und es gibt sicherlich einen Grund, warum der GV100, übrigens genauso wie der ebenso ausschließlich professionelle GP100 auf Basis von Pascal, 64 Shader-Einheiten pro Streaming-Multiprocessor (SMX) hat und der Gaming-Pascal stattdessen 128 Einheiten. Vermutlich eignet sich die 64er-Konfiguration schlicht besser für HPC-Aufgaben, die 128er-Aufteilung dagegen besser für Spiele. Und es wäre nicht verwunderlich, wenn die neuen GeForce-Spielergrafikkarten auf Basis der Turing-GPU – welche Architektur auch immer sich genau dahinter verstecken mag – auch wieder 128 ALUs pro SMX bieten würde.
..."
 
fdsonne schrieb:
Was haben HWLuxx Tests mit mir, der meinigen Aussage hier und deiner Forderung zu tun?
Hast DU irgendwelche Anteile an CB dass du in dieser Form in die Bresche springst?
Anstatt auf die Kritikpunkte einzugehen, also getreu deiner Devise es besser zu machen könntest du ja mit gutem Vorbild vorran gehen - und nein, ich kann es nicht besser machen, da ich keine TV habe und mir diese Karte für das gebotene auch zu teuer ist. Dennoch nehme ich mir das Recht herraus Kritik zu üben wo diese mMn angebracht ist, die Punkte habe ich oben erwähnt.
Ggü. den sonstigen GPU Tests sticht dieser hier mMn mit recht viel Marketingbla und unbestätigten Interpretationen herraus. Etwas was sonst nicht üblich in den Tests ist...



Nur ist genau das einfach nur spekulation - woran liegt die in manchen Titeln fehlende Skalierung?
Anstatt zu stänkern wäre es doch eher interessant warum das der Fall ist? Konkret, warum ist die OC TI, die im Schnitt normal ca 10% vor der FE TI liegt, in diesem Test nur noch 2-3% vorn?
https://www.computerbase.de/2017-03...x-oc-test/2/#abschnitt_benchmarks_in_ultra_hd
Welchen Sinn haben Aussagen zur Leistungsskalierung wenn ein und die selbe GPU Architektur trotz er erwartenden grob 10% Unterschied schon nicht so performt?

Vielleicht gibt es dafür ja rationale Erklärungen - aber ohne offensichtliche Unklarheiten in Größenordung gut und gerne 8% zu Messungen der Vergangenheit zu Erklären wirken Aussagen zu angeblich schlechterem Abschneiden auf Basis noch geringerer Unterschiede nur wenig sinnvoll.
Vor allem auch der Punkt, dass es in Sachen FPS ja gut zulegt. Der mMn Bockmist mit der angeblich schlechteren Optimierung zieht vllt bei Generation Handy aber nicht bei hardware interessiertem Publikum. Wenn DIR das nicht passt bleibt dir immernoch die Möglichkeit meine Beträge zu melden oder zu ignorieren...

Dir ist die Bedeutung der Abkürzung: "mMn." geläufig? Wenn nicht empfehle ich dir einfach mal danach zu suchen... kein Plan was dein Problem ist, wer das sagt, steht oben, warum ich das meine, steht ebenso oben, ob CB das tangiert, spielt für die Aussage absolut keine Rolle und auch sonst ist mir absolut rätzelhaft was du mit deiner Aussage gerade bezweckst... Du meinst Beiträge sind zu melden wenn man mit dessen Aussage nicht konform geht? :confused_alt:
Wieder nichts weiter als persönliches Angeblubber. Du lieferst doch selbst kein nachvollziehbares Gegenargument, Ideen und oder irgendeinen Vorschlag der etwas verbessert. Du kritisierst schlicht einfach, ohne zweckdienlichen Lösungsansatz, dabei mit viel Wortgewalt, hohem Selbstbewusstsein und hohlen Schachtelsätzen.

CB hat geschrieben "warum - weshalb - wieso", man muss es nur mal genauer lesen und sie begründen damit vermutlich auch Ihre Testergebnisse, der Rest ist dann halt journalistische Freiheit oder das was sie meinen die Community lesen will. Man kann dabei auch Vermutungen anstellen, denn alles wird Nvidia sicher nicht offenlegen. Ich kann mir nicht vorstellen das man dabei reines Clickbaiting im Kopf hatte.

Genauso steht es um Mesh vs Ringbus, sie schreiben nicht das es schlechter ist oder kritisch, nur auf Mesh eben kaum optimiert wird, was auch anderswo durch die Presse ging und AMD mit der Bitte um Optimierungen auf neuere CPU Gens (deren IF) genauso öffentlich bestätigte. Eine V ist dir im Gegensatz zu 4 Ti's zu teuer, komisches Argument. Ich kann mir nicht vorstellen das man mit Ti's nur spielen will. Jetzt kommt du mit meinem Argument wo ich schreibe, wenn Dir (mMn) was nicht passt, dass du es melden kannst, der zuständige Mod es sich dann ansieht und es dann bereinigen würde, wenn er es als begründet ansieht.

Mir kommt das immer so vor, als könnten Mods ihre Arbeit nie ruhen lassen, ob im eigenen Forum oder nicht egal. Daher sind deine Argumentationsweise und die zum Teil auch persönlichen Dispute diesbezüglich ziemlich bekannt. Wenn man das lässt, dann musst weder du, noch ich oder wer anders etwas melden. Für dich gilt doch genauso, wenn man sich mit Beiträgen oder Artikeln nicht identifizieren kann, lässt man es einfach und wenn du hier den Mod raushängen lassen willst, frag einfach bei der Foren-Redaktion-Administration an.
Ergänzung ()

ascer schrieb:
Genau deshalb würde ich auch immer noch gerne einen Benchmark für den primären Einsatzbereich dieser GPU sehen: Deep Learning.

Dafür wurde V100, besonders mit den TensorCores, ja entworfen. Ich verstehe nicht, warum man das primäre Einsatzgebiet dieser GPU zwar zigfach erwähnt, bei den Compute-Benchmarks dann aber einfach auslässt.
Wird wohl im direkten Vergleich mit einer ti nichts bringen, denke darum ging es im Kern - um herzuleiten was man von Turing erwarten kann wenn er Voltagen ist, bzw. was Nvidia üblicher Weise drauf legt. TCs und DL sind dabei imo auszuschließen.
 
Zuletzt bearbeitet von einem Moderator:
donend schrieb:
Wird wohl im direkten Vergleich mit einer ti nichts bringen, denke darum ging es im Kern - um herzuleiten was man von Turing erwarten kann

Also im Test geht man sehr ausführlich auf Spiele(performance) ein und kommt zum Schluss, dass Volta - wie von NVIDIA gedacht - eben eine Compute-Architektur ist. Dann macht man noch einige Compute-Tests, um aufzuzeigen wie groß die Fortschritte diesbezüglich zu Pascal & Co. sind...
...und da frage ich mich durchaus, warum man da nicht auch die Hauptdisziplin von Volta, Deep Learning, bencht.

Das man das generell gemacht hat, um auf etwaige Neuerungen seitens NVIDIA einzugehen und anhand dieser Neuerungen in der Architektur/Performance versucht die (Spiele)Leistung von Turing zu approximieren ist natürlich vollkommen legitim. Ich sehe aber nicht, wo das einen Konflikt zu den Compute-Benchmarks darstellen sollte.

Es würde doch vielmehr erhärten, was man mit den Compute-Tests schon versucht hat darzustellen: das Volta auf spezifische, professionelle Szenarien hin optimiert wurde.

Und das unterstreicht doch dann abermals, dass man von Turing eine Spiele-Optimierung erwarten kann.
 
@ascer
Natürlich hast du da stellenweise Recht, nur dürfte Volta doch kaum jemanden interessieren, die große Frage ist doch - wenn Turing auf Voltagen kommt, was 64 (HPC) vs 128 Arch bringen könnte, wo zweitere unter Spielen anscheinend Vorteile hat (so wie das CB auch beschreibt). Ähnlich wie Mesh vs Ringbus scheint auf zweitere derzeit auch deutlich sinniger optimiert zu werden. Ich glaube nicht (so wie du), dass Nvidia mit der V hauptsächlich Spieler ansprechen will. War bei Titanen sicher noch nie so.

Vergleiche findet man im Netz schon: https://www.pcper.com/reviews/Graphics-Cards/NVIDIA-TITAN-V-Review-Part-3-Deep-Learning-Performance

Rein vom P/L würde die ti sicher gewinnen. Auch unter Multi-GPU.
 
Zuletzt bearbeitet von einem Moderator:
m0LN4r schrieb:
Die Titan V für Spiele zu kaufen ist schwachsinn, schon darüber nachzudenken und sagen, die sei für Spiele zu Teuer ist schwachsinn. Das ist einfach keine Gaming GPU, ende der Discussion.

keine gaming gpu? nvidia sieht das aber anscheinend anders. wenn man nämlich auf der nvidia homepage nach einem treiber für die titan v sucht, bekommt man nur folgendes ergebnis:

http://www.nvidia.de/download/driverResults.aspx/134705/de

und das ist der GeForce Game Ready Driver.

wäre die titan wirklich nur eine reine compute / ai karte, würde die wohl nicht nur die geforce gaming treiber bekommen, oder?

die titan V ist wie die andere titans eine gaming karte mit anleihen aus dem prof. bereich - die titan V ein gutes stück mehr als die anderen titans, aber es ist trotzdem keine professionelle karte (u.a. weil sie sich verrechnet :evillol:), und das macht sie dann doch eher zu einer gaming-hybrid karte als zu allem anderen.
 
Ja, Titan ist im Endeffekt der Versuch eine aus dem Profi-Segment stammende GPU im Consumer-Bereich unterzubringen bei dennoch hoher Marge. Es gibt mit Sicherheit einige, wenn auch wenige Prozent an Nutzer, die sich so eine Karte kaufen und damit auch spielen werden. Eine reine Profi-Karte ist das nicht.
 
donend schrieb:
Wieder nichts weiter als persönliches Angeblubber.
Ich will dir nicht zu nahe treten aber du warst der dr mir hier irgendwelches Zeug an den Kopf geschmissen hat und die Kritik hast als nicht passend darzustellen.
Kritik beinhaltet keinen Gegenvorschlag zumindest nicht immer - wenn dir das nicht passt, mach bitte nicht deine mangelnde Akzeptanz zu meinem Problem - danke!

donend schrieb:
Genauso steht es um Mesh vs Ringbus, sie schreiben nicht das es schlechter ist oder kritisch, nur auf Mesh eben kaum optimiert wird, was auch anderswo durch die Presse ging und AMD mit der Bitte um Optimierungen auf neuere CPU Gens (deren IF) genauso öffentlich bestätigte.
Schreiben sie nicht?
Skylake-X arbeitet zum Beispiel mit einer in Spielen langsameren Mesh-Verbindung zwischen den Kernen –, lässt sich nicht ändern.
Wäre doch mal nen Test wert gewesen? (hier haste auch einem Verbesserungsvorschlag, den du offenbar übersehen hast mit deiner Kritik oben)
Und zum anderen - was durch die Presse geht ist irrelevant, es gibt Medienvertreter, die haben das technische KnowHow um derartige Dinge auf sachlich technischer ebene zu untersuchen und es gibt die, wo abgeschrieben oder vom hörensagen nachgeplappert wird. Natürlich fordert AMD das, da ist ein offensichtlicher Flaschenhals zwischen den CCXen, den der Entwickler umgehen kann - hier aber mMn nicht. Das Mesh funktioniert ganzheitlich gleich, da gibts nichts drauf zu optimieren. Der Single Ringbus funktioniert ebenso ganzheitlich gleich - bei größeren Modellen mit zwei oder drei Ringen gibt es was zu drehen - hier aber nichts für die Aussage. Bestenfalls noch auf den Cacheaufbau - aber Cache ist Cache und nicht Mesh oder Ringbus!

Ein großer Teil kommt primär durch höhere Latenzen zum Cache, da das Meshkonstrukt viel niedriger taktet - ein sinniger Vergleichstest, wenn man schon Cores deaktiviert und Takt ändert - warum nicht gleich ziehen? Cache Ratio und Mesh Teiler gleich und messen - dann kommst du auf eine Aussage ob das Mesh schneller ist oder nicht. Der eben gleich ganz solche Andeutungen raus lassen...

Da es hierzu wenig bis keine validen Tests gibt, wäre es gut von CB dies auch auszutesten - aber hier kommt dann wohl eher die geringere Reichweite solcher Tests zum tragen - wie man schön an dir sieht, euch reichts ja auch ohne Untersuchung und vom höhrensagen :D

donend schrieb:
Eine V ist dir im Gegensatz zu 4 Ti's zu teuer, komisches Argument. Ich kann mir nicht vorstellen das man mit Ti's nur spielen will.
Was ist da komisch dran? Wenn du die Hälfte der Aussage unter den Tisch fallen lässt wird das auch nichts...
Ich sagte, für das gebotene! - JFYI, ich rendere mit dem Zeug (Belnder Cycles), zu zwei TIs in meiner Allrounder Kiste gesellen sich vier TIs in einer dedizierten Renderkiste. Weder als Allrounder Ersatz noch ggü. den vier Renderkarten lohnt es sich gemessen an der Performance ggü. dem Preis, VRAM steigt ebenso nur bedingt um nichtmal 10%. Was auch immer du da dran komisch findest...


donend schrieb:
Natürlich hast du da stellenweise Recht, nur dürfte Volta doch kaum jemanden interessieren, die große Frage ist doch - wenn Turing auf Voltagen kommt, was 64 (HPC) vs 128 Arch bringen könnte, wo zweitere unter Spielen anscheinend Vorteile hat (so wie das CB auch beschreibt). Ähnlich wie Mesh vs Ringbus scheint auf zweitere derzeit auch deutlich sinniger optimiert zu werden.
Genau das meine ich - hörensagen ohne Validierung der Aussage - such mal nach Quadro P100 vs. Quadro P6000 Spieletests. Die P100 kommt mit 64er Blöcken vom GP100, die P6000 mit 128er des GP102.
Der Unterschied geht im Rahmen der Messtoleranz in Games unter, vor allem bei Taktgleichheit...

Übrigens, trotz GP100 kam der Gamer Pascal mit 128er Blockaufteilung - vom GTirgendwas kann man wohl vom gleichen ausgehen. Normal sind auch kleinere Blöcke im Vorteil, da mehr FrondEnd Anteile - und damit weniger Flaschenhals in diesem Bereich - wir werden sehen was kommt. Flächenbedarf steigt aber...
 
donend schrieb:
Welche 1080ti soll das sein?
Was Netzteile angeht, mal lesen: https://www.tomshw.de/2011/03/10/netzteil-richtige-dimensionierung-verbrauch-80/
Was bringt dir der OC Takt von 21xx.. irgendwas, 3 fps mehr? Jeder weiß das Pascal nach oben raus zwar hoch taktet, aber kaum noch mehr Frames liefert.
1. Ganz normale nVidia 1080Ti Founders Edition von Asus. Die Standardtaktraten und Mindestboost bzw. Typischboostangaben, sprich die Specs muss ich dir sicherlich nicht erklären, sind bekannt. Ebenso bekannt sollte dir sein, das der tatsächliche, quasi "auf dem Platz" ankommende Boosttakt in z.b. Games wesentlich höher liegt, wie von NV in den Specs als Mindestangabe angegeben ist.
Bei mir schaut das so aus "out of the Box": 1911MHz GPU-Boost, 1,06Vcc und 5508MHz GPU-Memtakt.

Jetzt habe ich (so wie wohl die meisten hier...) deine Aussage so verstanden, das man +30% OC bei jeder 1080Ti locker herausholen kann beim GPU-Takt(Boost). Und eben genau DAS ist unmöglich!!!

2. Was willst du mir mit dem Link zu thg zur NT-Dimensionierung sagen? :confused_alt:

3. OC-Takt von 21xx anstatt 1911MHz bin ich voll bei dir: aus ruckelt wird dadurch nicht flüssig, somit überflüssig :D
Ich lasse meine Ti daher undervolted laufen im 24/7. Und zwar so: 2000 | 6000 | 0,975V :)

Unnu schrieb:
...Tja, die Vega ist halt jetzt AMDs „Bulldozer“.
Deine Meinung.

Ich sehe das anders. Vega ist alles, nur kein "Bulldozer"! Warum? Weil sie Performance auf 1080 Niveau bietet mit allerdings höherem Verbrauch, welcher nicht als "exorbitant" bezeichnet werden kann. Somit mMn alles nur nicht "Bulldozer 2.0"...

Esenel schrieb:
...Gehen wir dann mal zum OC.
Ein 18 Kerner mit 4.4 Ghz braucht ca. 450W und eine Titan V wird im OC bei 300W landen. Dann kommen noch Lüfter, Mainboard, Wakü dazu (20-50Watt?)

Daher finde ich das Netzteil für solch ein System viel zu knapp bemessen....
An deinen gewürfelten Verbrauchszahlen kann man sehr gut erkennen, das du die Fakten des Artikels (bewußt oder unbewußt) ignorierst oder gar nicht kennst! Da kann ich dir aber helfen anhand FAKTEN:
1. laut Test (nachlesen kannst selber) ist bei 165Watt für die CPU bedingt durch das Mainboard Schluss
2. laut Specs hat die Titan-V maximal 250W Powerlimit, welches bis zu +20% auf dann 300W geweitet werden kann
Zusammenrechnen wirst du selber können + ~50W für den Rest des Systems dazu packen. Wo landest du dann?
Fazit:
Das vom Hersteller gewählte 650W Markennetzteil ist somit keineswegs "unterdimensioniert", sondern genau im "Besteffiziensrahmen". Auch mit OC.
 
@fdsonne
Validierung in der Informatik steht für Nachweisführung, was soll das mit Testverfahren, die man in Pacur's selbst entwickelt und seine Ergebnisse mitteilt - zu tun haben? Die Prüfung erfolgt an dem Anforderungsprofil, dass man sich selbst und für eigne Zwecke erstellt. Wenn dir das Ergebnis dahingehend nicht passt lies es doch nicht.

Teile deine überaus sinnigen Erkenntnisse dahingehend doch mit CB, anstatt wiederholt deinen kleinen Krieg zu führen und jede Redaktion zu kritisieren, wenn etwas nicht deiner Meinung entspricht - was sich mittlerweile über mehrere Foren erstreckt. Anscheinend scheint deine Testmethodik alle anderen weit überlegen zu sein, oder geht es eher um positivere Ergebnisse die du sehen willst, dir die Redaktionen aber nicht liefern?

Mesh, ja genau...schon mal überlegt das man den L3 als Unified Lösung nur über das komplette Die ansprechen kann? Nur dann kann man Latenzen am MC oder I/O minimieren. Bloß blöd das Spiele die daraus resultierende Effizienz und niedrigere Latenz wegen fehlender Optimierung nicht nutzen, oder? Intel teilte von Anfang an mit, dass genau dieses nur in bestimmten Szenarien Vorteile bietet (HPC und gleichen Anwendungsumgebungen), andersherum eben hinter Ringbus zurückfallen kann. Nicht umsonst kommen sie mit einem 8700k für Gamer um die Ecke.

Den Rest lass ich unkommentiert, nervt nur...ich werf dir mal ein Brocken hin, darauf kannst du dann ja umher reiten:

1. RMx650w? jeweils 20A auf 12V_1 und 12V_2? CPU? (54A Singlerail mit max 713W Peakpower?)
2. aggressiver Throttlingsalgorithmus? CPU-GPU?
3. W10 Sheduling Priorität und Thread-/Prozessgruppenaffinität/Gamemode
4. L3 Cache oder Latenzen wegen fehlernder Optimierung und Datenauslagerung in den Systemram?
5. 64 vs 128 SMX?
6. Mesh vs Ringbus vs IF?
7. SO DIMM DDR4 im Vollausbau?

Darauf hätte CB eingehen können (haben sie teilweise gemacht, wenn auch kurz), nur testen sie einfach was Mifcom ihnen zur Verfügung stellt und die Kiste scheint alles andere als optimal konfiguriert zu sein. So summieren sich die negativen Effekte. 10K ist die Kiste, egal was man dort verbaut jedenfalls nicht Wert. Man verschenkt hier und da zu viel, der Effizienz und Miniaturisierung wegen, was bei Hardware dieser Größenordnung aber egal sein dürfte.

Wenn dabei Doom3 zum Stresstestszenario gereicht, kann man annehmen das an allen Ecken und Enden die hardwarenahe Optimierung fehlt. Mal abgesehen von dem hardwaretechnischen Konfigurationsdesaster das Mifcom abliefert.
 
Zuletzt bearbeitet von einem Moderator:
Oh wie gerne ich eine auf Spiele ausgelegte GPU mit 815mm² die sehen würde. Was so eine GPU unter Wasser zu leisten imstande wäre würde mich sehr interessieren.

Selbst für 10.000+ Euro gibt es sicher genug Enthusiasten die sich so eine GPU zulegen würden. Eventuell auf 1000 Stück limitiert um durch den Sammlerwert noch mehr Kaufanreize für die Enthusiasten zu schaffen.

Leider dürften die Kosten für die Masken alleine schon die Einnahmen übersteigen. :/
 
mgr R.O.G. schrieb:
1. Ganz normale nVidia 1080Ti Founders Edition von Asus. Die Standardtaktraten und Mindestboost bzw. Typischboostangaben, sprich die Specs muss ich dir sicherlich nicht erklären, sind bekannt. Ebenso bekannt sollte dir sein, das der tatsächliche, quasi "auf dem Platz" ankommende Boosttakt in z.b. Games wesentlich höher liegt, wie von NV in den Specs als Mindestangabe angegeben ist..
Natürlich weiß ich das, es ist trotzdem kein allgemeiner Zustand und liegt dann an der guten Serienstreuung (Asic-Güte) und dem bißchen Glück beim Kauf, kann damit auch ganz anders aussehen. Von "Stockboosttakt" kann man deshalb nicht reden, der BT wird auch nicht garantiert.

mgr R.O.G. schrieb:
Ich sehe das anders. Vega ist alles, nur kein "Bulldozer"! Warum? Weil sie Performance auf 1080 Niveau bietet mit allerdings höherem Verbrauch, welcher nicht als "exorbitant" bezeichnet werden kann. Somit mMn alles nur nicht "Bulldozer 2.0"...
Beide haben vermutlich technologisch ihre Wurzeln im HPC Bereich, da ist das Maß an Energie oft zweitrangig, wenn es im Verhältnis einer daraus resultierenden Leistung steht. Für Spiele eignen sich beide nicht unbedingt. Selbst wenn man so eine Architektur beschneidet liegen die Stärken immer noch woanders. Blöde wenn man nichts anderes hat (aus welchen Gründen auch immer) und so vergehen muss. Glaube mal das meinte er...
 
Zuletzt bearbeitet von einem Moderator:
ascer schrieb:
Genau deshalb würde ich auch immer noch gerne einen Benchmark für den primären Einsatzbereich dieser GPU sehen: Deep Learning.

Dafür wurde V100, besonders mit den TensorCores, ja entworfen. Ich verstehe nicht, warum man das primäre Einsatzgebiet dieser GPU zwar zigfach erwähnt, bei den Compute-Benchmarks dann aber einfach auslässt.


Schau dir den Test von LinusTechTips an, in dem Video haben sie solchen kram iirc getestet.
 
mgr R.O.G. schrieb:
Ich sehe das anders. Vega ist alles, nur kein "Bulldozer"! Warum? Weil sie Performance auf 1080 Niveau bietet mit allerdings höherem Verbrauch, welcher nicht als "exorbitant" bezeichnet werden kann. Somit mMn alles nur nicht "Bulldozer 2.0"...
Korrekt. Meine Meinung. Und die sagt aus, dass auch Bulldozer nicht so schlecht war wie er immer gemacht wurde. ... Falls das nicht deutlich wurde.

(Gab da mal einen interessanten Artikel (etwas länger her), den ich grad' nicht finde -.-, in welchem die Redakteure mal die Evolution, so sie denn stattgefunden "hätte", nachgezeichnet haben.
Sie kamen zum Schluss, dass, hätte sich AMD nicht einer komplett neuen Architektur zugewandt und die alte "vergessen", sie durchaus noch weitere Verbesserungen hätten machen können (Scheiß Konjunktiv), welche den "Bulli" durchaus noch etwas länger im Rennen gehalten hätten. Naja, Vergangenheit.)

Wenn sich AMD dahinter klemmt, kann Vega sehr wohl noch was reißen.
Auch wenn Volta anscheinend ein echtes Brett werden wird.
(Und falls HBM irgendwann mal dort ankommt, wo er seit Anbeginn hätte sein sollen.)
U.a. sollten sie halt dringend die Speicherbandbreite angehen, denn da kann man was reissen bei den RX.
Ja, ich weiß, dass ist der Part der richtig teuer wird. Jedoch, man stelle sich mal eine RX 580 mit 304 oder 320bit Anbindung vor.

So ähnlich wie bei den CPUs. Auch dort gilt: Bandbreite, Durchsatz.
Sieht man ja auch schön an (fast) sämtlichen Empfehlungen die "CPU" zu OC'en. Vergiss den Takt, kümmere Dich um den Speicher und dessen Geschwindigkeit. Bringt viel mehr.
 
Unnu schrieb:
Und die sagt aus, dass auch Bulldozer nicht so schlecht war wie er immer gemacht wurde. ... Falls das nicht deutlich wurde.
Wenn man Corepower brauchte und optimiert hat, AMD verbesserte diese Power per Refreshs. Das ist etwas das man immer von denen erwarten kann, Bulli ala Steamroller-Core.

Unnu schrieb:
Wenn sich AMD dahinter klemmt, kann Vega sehr wohl noch was reißen.
Hm, ich glaube nicht das AMD Highend-/ der Enthusiastgaming damit anpeilt. Den Hype nahm man einfach mit.

Unnu schrieb:
Auch wenn Volta anscheinend ein echtes Brett werden wird.
Nur hat das mit Turing vermutlich nichts zu tun, Volta ist imo Tensor Cores Power für Deep Learning.

Unnu schrieb:
Und falls HBM irgendwann mal dort ankommt, wo er seit Anbeginn hätte sein sollen.
Scher zu sagen ob HBM jetzt bei großer Verfügbarkeit von GDDR6 im Gamingbereichen überhaupt noch gebraucht wird. Ich glaube das nicht.

Unnu schrieb:
Jedoch, man stelle sich mal eine RX 580 mit 304 oder 320bit Anbindung vor.
Bringt nix - weil zu teuer für die angepeilten Preissegmente und 8 GB VRAM dort eigentlich reichen, man denke an Tonga 320+bit der nie erschien, aber seitens AMD existent war. Man fand schlichtweg nach eigenen Marktanalysen keinen Käufer dafür.

Den GPU fehlt es nicht an Bandbreite, es fehlt hardwarenahe Optimierung, die sich kaum ein Entwickler antun will weil es Mehrarbeit bedeutet, in Spielebereichen schon gar nicht.

Hier nochmal Intel zu Mesh: https://www.intel.com/content/www/us/en/products/docs/processors/xeon/mesh-architecture-video.html

Datacenterkonnektivität heißt noch lange nicht das es überall schnell sein muss. Muss man mal abwarten was Intels 8 Core jetzt bringt. Vermutlich immer noch mit Ringbus.
 
  • Gefällt mir
Reaktionen: Unnu
donend schrieb:
ich glaube nicht das AMD Highend-/ der Enthusiastgaming damit anpeilt

Eventuell nicht mehr wie früher im Gaming, wohl auch nicht mehr mit gleichem Fokus, ja...aber für den professionellen Markt dicke Chips releasen werden sie imho sehr wohl.

Man darf nicht vergessen, dass AMD, z.B. mit Radeon Instinct, ebenfalls sehr groß in den Compute- und vor allem Deep-Learning-Markt einsteigen will.

Und potentiell kann AMD das auch sehr gut, bei Compute-Anwendungen (abgesehen von Neuerungen wie Tensor-Cores) zählt die Rohleistung viel mehr als bei Spielen und die Rohleistung war bei AMD ja meist höher als bei NVIDIA.



donend schrieb:
Nur hat das mit Turing vermutlich nichts zu tun, Volta ist imo Tensor Cores Power für Deep Learning

Das würde ich daraus nicht ableiten. NVIDIA hat ja seit Pascal mit "Datacenter first" angefangen und dann mit Volta erstmalig in ihrer Geschichte "Datacenter only". Den Gaming-Markt nehmen sie ja nebenbei seitdem mit - warum auch nicht? Den Fokus aber haben sie komplett von Gaming weg zu den professionellen Segmenten geschoben.

Nichtsdestoweniger wollen sie zukünftig aber sicherlich weiterhin das Gaming-Segment, des Umsatzes wegen, mitnehmen. D.h. (wie ja voraussichtlich in einigen Monaten) wird es mal eine neue GPU geben müssen.

Da sie aber sehr viel in HPC stecken und eben wegen der um Größenordnungen höheren Marge dort den Fokus auch komplett auf HPC gesetzt haben, werden die imho kaum explizit für Gaming neu entwickeln.

D.h. ich könnte mir sehr gut vorstellen, dass sie für Gaming schlicht "umbauen und weiterverwenden", was jetzt bei HPC neues vom Band fällt.

Ganz konkret also einfach bei Volta die Tensor-Cores streichen und die HPC-Optimierungen aus der Architektur rausnehmen, dann vielleicht noch ein, zwei Änderungen einbauen, die für Gaming bekanntermaßen gut funktionieren, und "fertig ist Turing".

...sodass man zumindest einigermaßen die Größenordnung an Leistung da schon ablesen kann.


So stark wie sie ihren Fokus geändert haben und dort - erstmals mit Volta - nur für den professionellen Bereich eine Generation releasen, kann ich mir nicht vorstellen, dass sie für das in der Marge viel schwächere Gaminggeschäft dann ganz neue Chips entwickeln.
Schon alleine aus wirtschaftlichen Gründen wäre es doch viel effizienter, aus Volta die HPC-Neuerungen zu streichen um aus der kastrierten Variante dann einen Gaming-Chip zu machen.



donend schrieb:
Datacenterkonnektivität heißt noch lange nicht das es überall schnell sein muss. Muss man mal abwarten was Intels 8 Core jetzt bringt. Vermutlich immer noch mit Ringbus.

Hmm...ich glaube eher, dass Intel jetzt auch seinen Fokus vollends auf GPU & FPGA setzt was Datacenter angeht. Die haben ja nicht umsonst für mittlerweile fast 50(!) Milliarden jede Menge Unternehmen aus dem Bereich AI aufgekauft.
Und deren neue GPUs sollen ja genau Beschleuniger für HPC, speziell Deep Learning, werden. Denke eher das sie da weitermachen werden und dort ihren Fokus setzen.

Das CPU-Geschäft werden die imho einfach weiterhin wie gehabt abgrasen -> ordentlich Xeons verkaufen und für Endkunden genau dann was ändern, wenn AMD sie zum Handeln zwingt (wie jetzt mit Ryzen).
 
Unnu schrieb:
Korrekt. Meine Meinung. Und die sagt aus, dass auch Bulldozer nicht so schlecht war wie er immer gemacht wurde. ...
Bulldozer ist und war schlecht, richtig schlecht. Exorbitanter Stromverbrauch bei relativ wenig Performance.
Die Zeiten sind Geschichte und dank ZEN haben sie den "blauen" Mitbewerber Feuer unterm Hintern gemacht, so das der sogar teilweise panisch reagierte. "OMG Konkurrenz, wir müssen launchen, egal wie..." Ja, Konkurrenzkampf = gut für uns Verbraucher^^.
ZEN2 könnte dann seit gefühlt 20 Jahren bei mir Intel als "Sockelplatzhalter" CPU-seitig ablösen. Schaun mer mal :D.
donend schrieb:
...es ist trotzdem kein allgemeiner Zustand und liegt dann an der guten Serienstreuung (Asic-Güte) und dem bißchen Glück beim Kauf, kann damit auch ganz anders aussehen. Von "Stockboosttakt" kann man deshalb nicht reden, der BT wird auch nicht garantiert....
What?
Klar ist das "allgemeiner Zustand". (Fast) JEDE 1080Ti boostet irgendwo um 1900 MHz (+/- ~80MHz) und dümpelt nicht bei NVs garantierten bzw. konservativ angesetzten Minimalboosttakt (belüftetes Gehäuse wie von NV empfohlen vorrausgesetzt!) herum. Meine Quelle? U.a. 1080Ti Sammelthreads (z.b. im Luxx, seit Erstellung dessen krauche ich da rum^^), Bekannte und Testberichte.
 
Die arme Vega. Und wahrscheinlich zum selben Stromverbrauch.
 
@donend: Ich muss mal den Artikel rauskramen wenn ich Zeit finde.
Jupp, meinte Turing.
Ich wäre schon zufrieden, wenn ich 'ne WQHD taugliche CPU für um die 400 bekommen könnte.
Bzgl. HBM: Mag schon sein, soweit ich weiß war GDDRX nvidia Exklusiv, oder war das Fehlinformation? Da musste AMD ja was anderes nehmen. Dumm nur, dass da dann nicht das rauskam was erwartet wurde.
Bzgl. RX580: Sag ich ja: Wahrscheinlich zu teuer. Aber geil wär's scho.
Weiß nicht. Auch wenn 'se HW-nah programmieren, also DX12 oder Vulcan einsetzen fliegt die GPU auch nicht soo doll. Ich bleibe dabei. Denen fehlt Bandbreite. Schon GDDR5X würde was bringen. Was sie nicht dürfen / können.
 
Zurück
Oben