News AMD gibt (halben) Startschuss für Retail-Desktop-„Trinity“

Volker schrieb:
20 Prozent werden es jedoch niemals, das wird nichtmal zweistellig. Und betrachtest du das ganze dann mal auf Augenhöhe mit gleichem Takt, dann sieht es für die Piledriver so aus wie für Bulldozer - Llano ist schneller bei gleichem Takt. Wenn das NDA um ist, gibs mehr.

Es ist ja wirklich putzig wenn sich Tester schon im Vorhinein über Benchmarkwerte auslassen und die wie immer etwas tendenziösen Senf dazu geben.
Cinebench und das "bei gleichem Takt Märchen" müssen selbstverständlich immer mit von der Partie sein, was ist mit dem X264HD Benchmark, oder mit Truecrypt, oder Winzip per IGP, pder Paint.net?

Wichtig ist nur Cinebench R11.5, klar. Absolut veraltet in seiner derzeitigen Form und auf Intel Prozessoren optimiert.

Sontin schrieb:
Grafikkarten sind jedoch Add-In Boards. Meisten haben diese Leute also eine CPU zu Hause. Die Aufrüstung auf eine GT640 kostet z.B. "nur" 78€, der A10-5800K dagegen wohl 120€ und ist dann auch noch deutlich langsamer.

Solche Vergliche sind doch stark manipuliert.
Ich kann mit vielen Szenarien irgend ein Produkt pauschal als schlecht oder unnötig darstellen.
So weit ist die AMD IGP auch nicht von Nvidias GT 640 entfernt.

Gegner von Trinity ist Intels i3. Trinity kann man noch overclocken, hat die deutlich stärkere IGP und ist zumindest bei Spielen effizienzmäßig auf Augenhöhe, Idle ist amn vll sogar besser.

Nachteil, geringere Single Threadperformance und Stromverbrauch in CPU lastigen Szenarien.
Kann ja jeder für sich entscheiden was ihm lieber ist.
 
Laut AMD ist nur der Grafikteil von Trinity interessant, jedoch ist dieser nichtmal auf der Höhe einer 75€ 28nm Grafikkarte.

Der CPU-Teil ist doch vollkommen belanglos, da er auf dem Niveau von CPUs ist, die schon seit Jahren verkauft werden.

Daher stellt sich hier also klar die Frage, wer sich für 120€ einen 5800 kaufen sollte, wenn er für 45€ weniger die deutlich bessere Alternative findet? Und wem die CPU-Leistung sowieso egal ist, der kommt auch ziemlich gut mit einer 50€ SB-2-Kern-CPU über die Runden.
 
Sontin
Das ist die typische Argumentation, die man schon damals bei Llano einführung versuchte durchzudrücken.
Klar ich gebe dir Recht die Alternative auf einen SB-2 kerner Pentium und dgpu zu greifen ist legitim.

Jetzt aber zu meiner bereits erwähnten Vermutung, die noch nicht wiederlegt worden ist.
Es steht nirgendwo beschrieben mit welcher CPU die 640 gt getestet worden ist. Das heißt der Unterschied kann auch dadurch gegeben sein, dass ein i7 verwedet worden ist.
Auf Computerbase schreibt man ja auch zum Vergleich bsp 5800k igp oder 5800k+640gt usw... Diese Beschreibung fehlt mir völlig und leider konnte ich kein Test-Setup ect finden.

Was mir noch aufgefallen ist
50120.png

und
http://www.techpowerup.com/reviews/Zotac/GeForce_GT_640/20.html
sc2_1280_800.gif

vs
sc2_1920_1200.gif


Somit kann der Eindruck aufgrund der Auflösung schon deutlich täuschen. Naja ich bin gespannt wenn man ordentliche Test zu Gesicht bekommen wird.

Deine Argumentation einen SB Pentium und eine 640 gt ist legitim, und jedem das seine. Aber ich bezweifle, dass es billiger kommt, oder dass bsp so eine Kombination deutlich besser ist in einem HTPC.
Bin mal gespannt auf Tests mit auch mit weiteren Anwendungen als das bloße gaming.

https://www.computerbase.de/2011-08/test-amd-a6-3650-vs-intel-core-i3-2100/12/
Naja ein Pentium wird nicht wesentlich effizienter sein als ein IB, besonders was dem Verbrauch angeht, denn verglichen zum Trinity, kann dieser nicht die dgpu größtenteils deaktivieren.
http://images.anandtech.com/graphs/graph6332/50196.png

http://images.anandtech.com/graphs/graph6332/50176.png
hier muss man zwar der 640 gt geschlagen geben, aber dass Metro die CPU gut auslasten würde, und der 640 dank IB eventuell besser dasteht, kann nicht abwegig sein.
Ich für mein Teil erhoffe mir dadurch von CB nähere, bessere Angaben, Vergleichsergebnisse. Am Besten von Games die sowohl CPU als auch GPU lastig sind.

Was man aber übrigens als positiv werten kann
http://ht4u.net/reviews/2011/performance_vergleich_grafikkarten_quartal_2_2011/index17.php
Total War: Shogun 2 ist als DirectX-9- oder DirectX-11-Titel einzsetzen. Es wird ein integrierter Benchmark für GPU und CPU geboten, wobei insbesondere die GPU-Benchmarks ihre Tücken haben. Im Falle von höchsten Details klebt das Spiel sich an den vorhandenen Speicherausbau der Grafikkarte – will heißen, dass eine Karte mit 2 GByte Speicher einen Benchmark noch durchführt, wohingegen ein 1-GByte-Modell abbricht.

http://www.anandtech.com/show/6332/amd-trinity-a10-5800k-a8-5600k-review-part-1/3
Für das, schlägt sich Trinity, trotz sagen wir "nachteiliger" Speicheranbindung, ziemlich gut, verglichen zur 640 gt.

Wenn ich so die Tests anschaue, und die 6670 mit der 640 gt vergleiche, würde ich sagen die HD7660 landet sehr nahe an der 6670, und würde diese mal gleich schnell und in schlechten Szenarien der 440 gt vergleichen.
Wenn der Prozessor als 115 euro kostet (bester fall, wahrscheinlich anfangs eher 130 euro ?) würde dir
http://geizhals.at/?cat=gra16_512&xf=1439_GT+640&sort=p weniger 80 Euro! genau 35 euro (besten fall 50) übrig bleiben.
http://geizhals.at/de/?cat=cpu1155&sort=p&xf=25_2~1133_Celeron+Dual-Core~1133_Celeron#xf_top
 
Sontin schrieb:
Der CPU-Teil ist doch vollkommen belanglos, da er auf dem Niveau von CPUs ist, die schon seit Jahren verkauft werden.

Kommt drauf an, immerhin bekommt man AVX, AES und FMA (wenn Haswell kommt, dürfte die Unterstützung von FMA recht schnell gehen).
Alles Sachen die ein 50€ SB-2-Kern nicht hat.
Und gegenüber Llano kommt zu den oben genannten noch Support von SSE4.1, SSE4.2, CLMUL und XOP hinzu.

Es wird also durchaus mehr geboten als das Niveau von CPUs, die schon seit Jahren verkauft werden. Wenn man aber Benchmarks nutzt, die auch schon seit Jahren genutzt werden (wie Cinebench R11.5 (aktuelle Version ist Cinema 4D R14, wo ein K15 beim rendern deutlich besser abschneidet als nen K10 im Vergleich zu R11.5). Dann wirkt es so als ob sich nichts gebessert hat.
 
Komisch, wie über Cinebench hergezogen wird, weil er aufgrund unbestritten einseitiger Optimierung oder schlicht weil er eher auf FPU-Leistung setzt, als auf Integer, die starken Seiten der Intel-CPUs zeigt, aber wenn ein Programm wie z.B WinRAR aufgrund extrem schlechter Programmierung Intel-CPUs mit Hyperthreading krass benachteiligt, und so Bulldozer auf Augenhöhe der dicksten i7 gerückt wird, ist das in Orndung und es wird immer wieder gerne als Beispiel für "gut optimierte" Software genommen.

winrar_result.png


Wenn man in Windows Coreparking abschaltet, so dass WinRAR HT nicht mehr ignoriert, ist es schnell wieder vorbei, mit dem Glänzen der Bulldozer dank "optimierter Software".

winrar_results.png


Benchmarks und auch reale Anwendungen werden nunmal immer nur einen Teil des gesamten Bildes darstellen. Perfekt für alle CPUs optimierte Benchmarks gibt es nicht und selbst wenn es sie gäbe, hätte sie nichts mit der Realität der allesamt mehr oder weniger schlecht optimierten Anwendungen zu tun.
 
Herdware
WinRAR ist für mich momentan sowieso eigenartig... Denn vorhin haben wir ja auch gemerkt, dass Trinity 4.11 schneller ist als Llano. Volker meinte aber bei 4.20 ist das nicht mehr so.
Soviel ich weiß ist doch 4.0 noch nicht für Bulldozer optimiert oder ? soviel also dazu.
 
Herdware schrieb:
Komisch, wie über Cinebench hergezogen wird, weil er aufgrund unbestritten einseitiger Optimierung oder schlicht weil er eher auf FPU-Leistung setzt, als auf Integer, die starken Seiten der Intel-CPUs zeigt....

Es ging gar nicht um den Vergleich mit Intel! Es ging generell um das Alter des Benchmarks und Leistungsunterschiede zw. AMD Generationen. So ein Benchmark ist ja nur interessant wenn er ein realistisches Bild wiederspiegelt, was bei Cinebench aber nicht gegeben ist. Bei Cinebench 11.5 ist nen FX um 14% schneller als nen X6. Lässt man dieselben Prozessoren aber etwas mit Cinema 4D R13 (aktuelle Version die es beim Bulldozer-Launch gab) rendern braucht der X6 40% länger! Das sind signifikante Unterschiede, die das Gesamtbild verzerren.
 
Morgen ist es dann soweit?

Gibt es schon Infos über die Verfügbarkeit von Mini-ITX Mainboards? Wollte langsam einen Mini zusammen kaufen und wegen der Grafikperformance und hoffentlich Zukunftssicherheit von FM2 einen Trinity haben. Bei keinem Hersteller (Gigabyte, AsRock, Asus) sind Mini-ITX Boards zu sehen ... damit vergibt man doch bei FM2 und APUs gute Chancen in dem Segment was zu verkaufen.

Ansich ist Trinity doch ganz ordentlich, ich kann auf jeden Fall 2-3 Minuten länger warten, bis was großes entpackt ist (kommt ja vielleicht 1x im Jahr vor) solange ich wenigstens auch mal ein Ründchen PES/Fifa am TV daddeln kann (hab und will keine Konsole ;))
 
Zuletzt bearbeitet:
Da kommt bestimmt noch etwas in diesem Jahr.
 
Das Jahr ist aber noch 90 Tage ... wenn die erst in 89 Tagen kommen, muss ich doch auf Intel zurück greifen und PCI-E Karte und anderes Gehäuse und und und ... :p

Naja, die Woche mal abwarten. MSI hat wohl schon ein Board angekündigt. Vielleict hab(en) ich(wir) Glück und es kommt gleich zum Release ;)

APU ohne mITX Boards ist doch einfach nur ein schlechter Scherz. Die geringe Auswahl bei FM1 kann ich ja nachvollziehen, das ist ein bereits begrabener Sockel. Aber FM2 muss man doch in alle Marktsegmente pushen!

EDIT:
@held2000: Danke für den Link!
 
Zuletzt bearbeitet:
MAx FX! schrieb:
Morgen ist es dann soweit?

Gibt es schon Infos über die Verfügbarkeit von Mini-ITX Mainboards?

Ansich ist Trinity doch ganz ordentlich, ich kann auf jeden Fall 2-3 Minuten länger warten, bis was großes entpackt ist (kommt ja vielleicht 1x im Jahr vor) solange ich wenigstens auch mal ein Ründchen PES/Fifa am TV daddeln kann (hab und will keine Konsole ;))

ITX ...Für Llano gibt es ITX Board_s ..sehe da für den Sockel FM2 kein Hindernisse für ein kleines Board.

Packer... wie wäre es mit Open CL.... Beschleunigung

http://www.tomshardware.de/a10-5800k-a8-5600k-a6-5400k,testberichte-241043-19.html


AMDs Desktop-Trinity kommt am 2. Oktober
http://www.3dcenter.org/news/amds-desktop-trinity-kommt-am-2-oktober

#
 
Zuletzt bearbeitet:
Da ist noch keine Retail Mainboards gibt, werden wohl zuerst wieder an die OEMs ausgeliefert. Aldi PCs sind aber hier nicht beliebt.
 
Reicht so ein Trinity für DVB-T an einem 37"? Wenn ja, welcher wäre denn zu empfehlen?
 
Herdware schrieb:
Komisch, wie über Cinebench hergezogen wird, weil er aufgrund unbestritten einseitiger Optimierung oder schlicht weil er eher auf FPU-Leistung setzt, als auf Integer, die starken Seiten der Intel-CPUs zeigt, ...

Fairerweise solltest du dazu sagen, dass Cinebench schon Jahre bevor es überhaupt den FX (der versucht, Integer Kerne als vollwertige Kerne zu verkaufen - LOL) gab, in Tests benutzt wurde. Es ist jetzt nicht so, dass man erst seit dem Erscheinen des FX auf die Idee gekommen wäre, Cinebench als einen Bench von vielen zu nutzen, um AMD einen reinzuwürgen.

Deshalb würde ich das eher als historische Kontinuität denn als Intel Übervorteilung betrachten.

Warum soll man es Cinebench auch vorwerfen, dass AMD versucht halbe Kerne als ganze Kerne zu verkaufen, die in den Benchmarks dann aber nur die Leistung eines halben Kerns bringen?

Aber ich will kein Streit vom Zaum brechen. Wir alle wissen: wenn die GPU limitiert, sind alle CPUs in Spielen gleich schnell...
 
Zuletzt bearbeitet:
O._.O schrieb:
Warum soll man es Cinebench auch vorwerfen, dass AMD versucht halbe Kerne als ganze Kerne zu verkaufen, die in den Benchmarks dann aber nur die Leistung eines halben Kerns bringen?

Weil Cinebench R11.5, basierend auf Cinema 4D R11.5 schon 3 Versionen hinterher hängt. Und ein FX im Cinema 4D R13 bzw. R14 deutlich besser abschneidet als nen X6 im Vergleich zu der alten R11.5 Version, trotz den "halben Kernen". Und wenn ich plane einen Rechner zum rendern anzuschaffen, dann nutze ich auch aktuelle Software und nicht 3 Jahre alte. Nur dann komm ich wenn ich R11.5 als Vergleichsgrundlage nutze zum Schluss, dass ein Bulldozer kaum besser ist als ein X6, was schlicht falsch ist, da bei R13 ein FX-8150 40% schneller ist als nen X6.
 
Zurück
Oben