News AMDs „Trinity“-APU kommt zur „Mitte des Jahres“

Krautmaster schrieb:
soweit ich weiß spricht man bei beiden von Piledriver-Kernen ...

Wobei das Relativ ist, natürlich basiert beides auf BD Kernen und die Änderungen werden sich in Grenzen halten.

Korrekt.

AMD müsste die Architektur komplett über den Haufen werfen und bei 0 anfangen um eine Aussicht auf eine höhere IPC auf SB Niveau zu haben.

BDs Verhältnis von Performance zu Watt ist im Server Sandys mindestens ebenbürtig. Das zählt mehr als die IPC eines Cores.

Trinitry und Bulldozer Nachfolger werden natürlich nicht identische Kerne haben, aber sich beide zur aktuellen geringfügig abgrenzen. Was die Optimierung bringt wird sich zeigen. Ich erwarte bei beidem keine Wunder.


Sehe ich genau so.

In meinen Augen krankt die Architektur in der Basis.

Da krankt bisher nichts. BD für den Server hat einen guten Start hingelegt. BDs Leistungswerte für die APU sind noch offen (die großmäuligen Versprechen der AMD-Lügenabteilung glaube ich schon seit BD1 nicht mehr). BD für den HighDesktop ist grottig, aber das ist ein dermaßen kleiner Bereich das es unangemessen wäre an ihm die ganze Architektur zu bewerten.
 
Ralf555 schrieb:
Wir haben gerade von der CPU Performance gesprochen, Du kommst mit Verbrauch, der gar nicht zur Debatte stand.
Ich dachte halt, nachdem Multimedia @ Tablets sowie DX11 @ Ive-Brigde (="Grafik-Qualität") sowie leichte & dünne Tabelts (auch wegen kleinen Akkus) das ganz Große Thema auf der CES 2012 war/ist, musste ich mal diese CPU-Performance-only-Diskussion zurechtbiegen.

Da sollte man unabhängige Tests abwarten bevor man mit Herstellerangaben rumhantiert.
Warum gilt das dann auch nicht für dich?

Immerhin ist die Akku-Zeit das, was bei den frühzeitigen Llano-Ankündigungen AFAIK als einziges eingehalten wurde.
12 Stunden überrascht mich sehr. Ich dachte nach 8 Stunden @ Llano aufgrund des Northbridge-Wegfalls, kaum noch was.
Und die +50% überraschen mich jetzt verdammt. Ich hätte so mit 9 Stunden gerechnet und schon garnicht >10 Stunden.
Einen optimistischen großen Sprung hätte ich von APU auf SoC (AFAIK Trinity-Nachfolger) erwartet.

Ivy Bridge kommt in 22nm, eine verbesserte Effizienz ist zu erwarten. Die Vorzeichen stehen hier noch schlechter als bei Llano. Trinity kann eh nur gegen die 35W Dualcore Ivys antreten.
Das ist eben falle Komplett falsch.
Trinity-Quad kann dann gegen 17 & 35W-Dual-Core Ive-Bridge CPU-Performance-technisch antreten.

Verbesserte Effizienz?
Eigentlich sollte nach dem Tablet-Boom & CES 2012 klar sein, dass die Leute mehr auf Mobilität & Multimedia stehen, während CPU-Performance relativ weiter anbedeutung verliert.
Nicht umsonst ist der Ive-Brigde-Nachfolger auch nur ein Dual-Core sowie ein SoC (länger Akku-Zeit)

Tja, jetzt muss nur ein Quad-Trinity kommen. Wenn nicht, dann sieht die Welt anders aus.

Krautmaster schrieb:
Ich erwarte bei beidem keine Wunder. In meinen Augen krankt die Architektur in der Basis.
Wenn die +50% Akku-Zeit durch die Architektur erreicht wurden, kann man das als kleines Wunder bezeichnen. Llano konnte AFAIK nur +23& erreichen, obwohl die Northbridge als dezentierte Einheit wegfiel.

[Angenommen = Irgendwelche Werte # Anfang]
Warum sollte Ive-Bridge überhaupt besser sein, wenn die CPU-Efficienz/Performance zwar um 20% besser ist, aber AMDs Trinity in Office (Akku-Idle) 20% länger hält sowie DVD/BD-Filme 20% länger geschaut werden kann sowie im Internet 20% länger gesurft werden kann sowie 20% mehr Games-fps gespielt werden kann.
[Angenommen = Irgendwelche Werte # Ende]

Und tut man auf einem 13"-17W-TDP-iGPU-128GB-SSD-Ultrabook 3D-Simulationen durchführen oder Terabytweise Filme decodieren?
Eh kaum einer

Wenn, dann funktionieren die 3D-Siumlationen bei AMD-iGPU wahrscheinlich eh besser, wenn wenn wenn wenn AMD einen Trinity-Quad sowie iGPU-non-teildeaktiviert rausbringt.

Dazu wird ja OpenCL auch immer mehr in den Programmen umgesetzt.

Off-Topic:
Der Trinity-Nachfolger wird auch schon verdammt interessant, da er ein SoC mit GCN-iGPU wird.
AMD braucht jetzt bis Mitte 2012 zum AMD Fusion Developer Summit 2012 Zeit, um AVX & FM4 (CPU-Teil) sowie C++ & ganze OpenCL 1.2-Featues (GPU-Teil) nativ (also ohne Extensions) in AMD-Fusion-Catalyst-Grafik-Treiber zu integrieren.
 
aylano
Bitte nicht soviel Worte xD Die leute hier sind Balken gewohnt xD
Kleiner Spaß am Rande.
Ich sehes es so. Früher, wurde man als Nerd angesehen, wenn man sich in gewissen sachen auskennt. Heut zu tage, gibt es immer mehr Leute die sich mit der virtuellen Welt auseinander setzten. Social Network ist hier ein Begriff. Es sind nicht nur mehr die Nerds die einkaufen. Auch nicht nur die Gamer, es werden immer mehr die ottos, die auch multimedia wollen, und nicht nur office...
Zwar hat Intel n guten Namen, doch dank den guten Grafikkarten wird AMD immer bekannter. Sie stehen für Erschwinglichkeit, Effizienz, und Performancestärke.
Falls Trinity ein besseres Gesamtpaket ist, dabei aber günstiger ist, spricht nichts dagegen, AMD zu kaufen, da ist mehr oder weniger egal welche Architektur drinnen steckt.
Weiteres glaube ich gibt es auch ein Art Grenze. Wenn ein Notebook 5 std Akku laufzeit hat, ist das wahrscheinlich für 90 % der Leute ausreichend. Denn viele sind nicht solange unterwegs mit dem notebook oder sitzen gar 5 std am stück vor dem kasterl.

Übrigens, 12 std ist sicherlich idle. Eventuell kann man dann mit einem core und einem nicht deaktivierten teil der igp wirklich lange Filme schauen und Surfen.
 
Zuletzt bearbeitet:
aylano schrieb:
12 Stunden überrascht mich sehr.

Ohne genauere Angaben wertlos.

aylano schrieb:
Und die +50% überraschen mich jetzt verdammt.

Ohne Angaben auf welches Modell das sich genau bezieht, ebenfalls wertlos. Zumal sich das auf die GPU bezieht. Die 50% sollten es aber schon sein, um sich ein Polster zu schaffen. AMD hat nicht differenziert, welcher Trinity 50% mehr GPU Power bekommt. Das kann genauso gut der A4 sein. Interessanter wäre es beim A8 Topmodell gegen Topmodell.
aylano schrieb:
Das ist eben falle Komplett falsch.
Trinity-Quad kann dann gegen 17 & 35W-Dual-Core Ive-Bridge CPU-Performance-technisch antreten.

Nein, das ist nicht falsch. Trinity kann maximal mit den Dualcore Modellen der 35W Klasse konkurrieren, mehr ist nicht drin. Wobei Trinity immer noch deutlich das das Nachsehen haben wird im CPU Bereich.

aylano schrieb:
Nicht umsonst ist der Ive-Brigde-Nachfolger auch nur ein Dual-Core sowie ein SoC (länger Akku-Zeit)

Haswell kommt mit 2 und 4 Kernen. Der SoC kommt nur bei den 15W ULV Modellen zum Einsatz.

aylano schrieb:
Off-Topic:
Der Trinity-Nachfolger wird auch schon verdammt interessant, da er ein SoC mit GCN-iGPU wird.

Dieser muss sich Haswell stellen. Meist ist immer dann vom Nachfolger die Rede, wenn das kommende oder aktuelle Produkt nichts taugt.
 
Ralf555
Wieso wird dann sooft von IB und Harswell gesprochen, hat SB nichts getaugt ?? irwie eine unlogische aber sehr provozierende aussage, findest du nicht ???

Kann mich gut erinnern, mal gelesen zu haben, dass AMD sehr an SoC arbeitet. 22nm wird sicherlich einen geringeren Verbrauch haben (CPU). Wenn man aber schafft, die GPU immer mehr einzubinden, könnte man den Vorteil schnell wettmachen, denn die GPU ist meist effizienter und schneller. Somit würde ich nicht immer so starr in die Zukunft sehen.
Also ich bin gespannt, wenn AMD FX auf den Markt bringt, dessen FPU leistung mehr einer Grafikkarte ähnelt, und man auf SoC getrimmt hat. Bulldozer hat ja ein hohen Verbrauch, weil vieles noch auf den Boards ist, oder verwundert es keinen, dass das Asus Board bei den test satte 40 watt mehr gezogen hat, als die Intel Asus boards.
Passendes chinesisches Sprichwort, falls wer Zen mag.
Alles ändert sich, nur das Prinzip der Wandlung nicht

Da ich gern Kitchen Nightmare schaue, wenn man eine gute Küche hat, und Jahre lang nichts am Konzept ändert, und sich nicht dem Markt anpasst, kann es sein, dass viele Kunden bald beim Geschäft vorbei laufen. Deshalb setzt man immer mehr auf Multimedia, günstige Gesamtpakete für die Massen.

Wenn die AMD Trinity Ultrabooks ähnliche Leistung aber um mehrere hunderte weniger auf den Markt bringt, und der Kunde merkt keinen Unterschied, wieso das teuere unbedingt kaufen ?? Weil damals noch Leistung gebraucht wurde, und teuere Produkte nun mal besser waren ?

Glaubt echt wer, jemand fragt welche Hardware ein Smartphone hat ?? die nehmen das was inn ist oder sich n guten Eindruck gemacht haben. Das Galaxy SII verkauft sich gut, weil es flacher ist als das Iphone 4s und scheinbar gleiches kann und dabei günstiger ist (Zumindestens mit Vertrag).
 
Zuletzt bearbeitet:
pipip schrieb:
Ralf555
Wieso wird dann sooft von IB und Harswell gesprochen, hat SB nichts getaugt ?? irwie eine unlogische aber sehr provozierende aussage, findest du nicht ???

In den entsprechenden Threads wird davon gesprochen oder wenn der Kontext passt. Bei aylano passt das überhaupt nicht. Er fabuliert von Trinity und bringt urplötzlich den Nachfolger ins Spiel, der schon jetzt in den Olymp gehoben wird mit Aussagen wie verdammt interessant, obwohl quasi noch gar nichts bekannt ist. IB kannst Du rausnehmen, das wäre analog zu Trinity. Trinity und Ivy Bridge kommen als nächstes, zu einer GCN APU wäre Haswell passend.
 
Ralf555
Muss ich dir rechtgeben, gleichen mit gleichen Vergleichen.
Ehrlich gesagt aber momentan egal ob VLIW4 oder GCN, denn die Software ist eh noch nicht so weit um nutzen zu haben. Somit kann AMD bei der nächsten Generation was neues vorweisen.
Bulldozer wäre (zBsp) wohl möglich mit Win8 und bessere Fertigung viel besser angekommen.

Btw wette ich, dass die meisten SB notebook die verkauft werden, i3 oder Pentium sind. Hab leider keine Zahlen, aber vom Preisgefüge ein logisches Konstrukt.
Somit reicht es dass Trinity eine Alternative zu den 17W und 35 W bereitstellen kann.
Wenn man ein kleinerer Player ist, sollte man dort ein Produkt anbieten, wo es sinnvoll ist.
 
Zuletzt bearbeitet:
pipip schrieb:
aylano
Bitte nicht soviel Worte xD Die leute hier sind Balken gewohnt xD
Kleiner Spaß am Rande.
Der war gut.:)
Wobei Quotes auch sowas sind wie Balken und so versuche ich es mit vieln Quotes nachzugestalten.:cool_alt:

Weiteres glaube ich gibt es auch ein Art Grenze. Wenn ein Notebook 5 std Akku laufzeit hat, ist das wahrscheinlich für 90 % der Leute ausreichend. Denn viele sind nicht solange unterwegs mit dem notebook oder sitzen gar 5 std am stück vor dem kasterl.
Ich bin nicht der Meinung.
Akku-Zeit kann man nicht genug krieg.
Zwar mag man vielleicht mit 5 Stunden auskommen, aber dann gehts sich auch nur mehr ein Film von 2-3 Stunden und sonst nichts aus und das wäre viel IMO zu wenig.

Gerade Ultrabooks haben nur 5 Stunden.
Ich finde 12 Stunden wichtig. Da man 8 Stunden Tippen kann, sowie noch Akku-Zeitreserven für Höhere Auslastungen (Kurzvideos, Simulation, Game usw) hat.

Übrigens, 12 std ist sicherlich idle. Eventuell kann man dann mit einem core und einem nicht deaktivierten teil der igp wirklich lange Filme schauen und Surfen.
Siehe letzte Folien.

Ralf555 schrieb:
Ohne genauere Angaben wertlos.
Es steht in 1) "Batterie life calculations are based on 62Wh battery-pack at 98 Utilization"
Ist zwar Punkt 1 und nicht 5, aber es hört sich für alle Tests an.

AMD nutzt für solche Angaben schon seit Jahren 57-62Wh-Akkus und die Angaben wurden immer eingehalten.
Und zwar mit Notebooks mit onbaord-GPUs bzw. iGPUs und mit gutstromsparoptimierten Komponenten/Konfigurationen.
Bei Notebook-Check konnte der bestoptimierte die Angaben noch so 20-25% überbieten, während nicht-stromoptimierte natürlich deutlich drunter waren. Aber das ist bei Intel genauso.

Ohne Angaben auf welches Modell das sich genau bezieht, ebenfalls wertlos. Zumal sich das auf die GPU bezieht. Die 50% sollten es aber schon sein, um sich ein Polster zu schaffen. AMD hat nicht differenziert, welcher Trinity 50% mehr GPU Power bekommt. Das kann genauso gut der A4 sein. Interessanter wäre es beim A8 Topmodell gegen Topmodell.
Wenn ich im Satz davor nur Akku-Zeit spreche und im Satz danach, sowie im ganzen Absatz es um Akku-Zeit geht, dann sollte man irgendwie mitbekommen, dass der eine Satz mit einer Zahl ohne erwähnung von Zeit oder Akku eventuell auch um Akku-Zeit handelt.


Nein, das ist nicht falsch. Trinity kann maximal mit den Dualcore Modellen der 35W Klasse konkurrieren, mehr ist nicht drin. Wobei Trinity immer noch deutlich das das Nachsehen haben wird im CPU Bereich.
Ohne Argument ist eine Aussage wertlos.
Vorallem, wenn man es nochmal wiederholt.
Warum sollte Trinity nicht gegen Ivebridge @ 17-TDP konkurrieren können, wenn ersteres mit Quad daherkommt und zweiteres mit Dual-Core?
Der Quad kann mit etwas geringerem Takt auch leichter / tiefer gevoltet werden, während höhere Takt etwas mehr Spannung brauchen und somit früher an die TDP-Grenzen kommen könnte könnte könnte (=Theorie ; Praxis sehen wir später)

Mit dieser Art (Quad-Core vs. Dual-Core @ 25 & 35W-TDP) konnte AMD schon eine ähnlich gute Effizienz & Performance erreichen, obwohl sie genauso eine Fertigungsstruktur (1 Fullnode) sowie Fertigungs-Technologie (3D) hinten nach war.

Dieser muss sich Haswell stellen. Meist ist immer dann vom Nachfolger die Rede, wenn das kommende oder aktuelle Produkt nichts taugt.
Dann muss ja Intel immer schlechte Produkte haben, wenn sie ihre übernächsten Produkte auf den Roadmaps zeigen.

Erstens, war @ CES 2012 nie die Rede vom Trinity-Nachfolger.
Zweitens, ist es logisch, dass die nächste APU immer die aktuelle GPU-Technologie bekommt.
Drittens, wird Haswell erst so richtig interessant, wenn Intels MIC in die iGPU eingeführt wird.

Intel soll erst mit Ive-Bridge sowohl DX11 als auch OpenCL bei iGPUs (bis jetzt wird nur die CPU angesprochen) eingeführt werden.

AMD ist halt momentan die einzige Firma, die eine führende CPU und GPU-Technologie hat. Und je mehr die CPU & GPU in Fusion zusammenwächst sowie immer mehr Programme OpenCL nutzen, desto besser wird die Gesamtperformance.
PS: Mit "führende" ist auch Platz 2 gemeint, da es ja mit ARM & MIPS & Co noch andere CPU- sowie GPU-Technologien (PowerVP & Mali & Co) gibt.

2012 ist für Intel bzw. x86 (somit auch AMD) sowieso ein ziemlich entscheidendes Jahr. Denn dann sieht man, welchen Einfluss ARM (unter anderem auch wegen Windows 8) auf den Billig-Notebook & -Desktop markt hat, sowie die Leistung von Intels Larrabee dann tatsächlich ist. Und Nvidias Fusion-Konkurrenz a la Denver kommt ja dann --- öh --- okay AFAIK nicht 2012 aber immerhin auch 2013.

Ralf555 schrieb:
In den entsprechenden Threads wird davon gesprochen oder wenn der Kontext passt. Bei aylano passt das überhaupt nicht. Er fabuliert von Trinity und bringt urplötzlich den Nachfolger ins Spiel, der schon jetzt in den Olymp gehoben wird mit Aussagen wie verdammt interessant, obwohl quasi noch gar nichts bekannt ist. IB kannst Du rausnehmen, das wäre analog zu Trinity. Trinity und Ivy Bridge kommen als nächstes, zu einer GCN APU wäre Haswell passend.
Ich wäre vorsichtig, wenn man den Sinn einiger !!! Textpassagen nicht richtig lesen konnte.
Ich schrieb, dass der Trinity interessant wird und SoC & GCN wurde schon bekannt gegeben.
Das sind 2 bedeutende Schritte.
Erstens, ein SoC (wie übrigens Intel)
Zweitens, integration von GCN, was eben seit ATI-Kauft entwickelt wurde.
Ich finde beides sehr interessante Technologie. Ersteres im Bezug auf Akku-Zeit.

Ob der Trinity-Nachfolger besser als Haswell wird, hast du dir dazugedichtet. Vorallem schrieb ich nicht umsonst Off-Topic.
Mit interessant nahm ich Bezug auf die Technologie!!!
Wie sich beides dann auf Akku & Performance/Effizienz auswirkt sowie Haswell wird, weiß ich nicht und deshalb sagte ich auch nichts dazu.
 
Zuletzt bearbeitet:
Daedal schrieb:
Und auf Welche Basis hat sich diese Erwartung gestützt? :confused_alt:

Fertigung von 40nm auf 28nm, aber bin mir gerade nit sicher, war der GPU-teil auch schon 32nm !? xD dann wären die 50% wieder klar ...
 
Kenneth Coldy schrieb:
Da krankt bisher nichts. BD für den Server hat einen guten Start hingelegt. BDs Leistungswerte für die APU sind noch offen (die großmäuligen Versprechen der AMD-Lügenabteilung glaube ich schon seit BD1 nicht mehr). BD für den HighDesktop ist grottig, aber das ist ein dermaßen kleiner Bereich das es unangemessen wäre an ihm die ganze Architektur zu bewerten.

DIe Architektur krankt schon. Nicht umsonst hat S|A 2 lange Artikel drüber verfasst was beim Bulldozer nicht gut konstruiert wurde.

http://semiaccurate.com/2011/10/17/why-did-bulldozer-underwhelm/
http://semiaccurate.com/2011/10/17/bulldozer-doesnt-have-just-a-single-problem/

Die Leistung der APU kann man ein Stück von den kleinen FX4xxx ableiten. Ein klein wenig weniger Takt (2 - max. 3 GHz) und dann ca. 5-10 % drauf rechnen. Jedenfalls sollten sich die APUs in diesem Rahmmen bwewegen.
 
Kenneth Coldy schrieb:
BDs Verhältnis von Performance zu Watt ist im Server Sandys mindestens ebenbürtig. Das zählt mehr als die IPC eines Cores.
...
Da krankt bisher nichts. BD für den Server hat einen guten Start hingelegt. BDs Leistungswerte für die APU sind noch offen (die großmäuligen Versprechen der AMD-Lügenabteilung glaube ich schon seit BD1 nicht mehr). BD für den HighDesktop ist grottig, aber das ist ein dermaßen kleiner Bereich das es unangemessen wäre an ihm die ganze Architektur zu bewerten.

ich finde das muss man in Relation sehen. Schon die 16C Opterons in 45nm (!) waren bezüglich Energiebilanz den Intels High End Xeons überlegen.

Bulldozer hält mit 2x330mm² in 32nm und 16C bezüglich Leistung mit, und verbraucht weniger als die Intels, dennoch gilt auch bei Servern, dass der Unterschied zu alten 45nm Chips aus dem gleichen Haus kaum vorhanden ist, trotz 32nm kann man sich kaum verbessern.

Sowohl im Desktop als auch im Server Segment stinkt Bulldozer gegen die Vorgängerarchitektur ab. Bulldozer in größerer Fertigung wie ursprünglich geplant, hätte so gar nicht funktioniert. Desweiteren finde ich es auch nicht begrüßenswert wenn man 2 DIE + 16 Kerne braucht und denn bei SPEC (was float oder int) zu gewinnen, sicher, die Preis/Leistung ist auch top... nur kann sich von bester Preis/Leistung kaum ein Hersteller was kaufen, eher ist beste Preis/Leistung ein Produkt aus Nachfrage, Angebot und Leistung.

Was wie ich finde BD das Genick bricht ist die Tatsache, bei Trinity sieht mans ganz gut, dass 2 Module kaum weniger Platz brauchen als 4 echte K10 Kerne, und das ohne L3.
Dazu das Sheduler Problem, BD erfordert eine hohe Intelligenz beim verteilen der Jobs, manche profitieren von einem Turbo, der schnell 30% mehr Leistung betragen kann, manche laufen getrennt auf 2 Modulen viel schneller, da sie dann einen kompletten Kern mit Float für sich haben.
AMD hat in der Entwicklung festgestellt, dass im Optimum die Leistung durch diese Modulbauweise sehr gut ist, die Realität aber zeigt, dass sich offensichtlich CMT und Turbo oft im Weg stehen, der Scheduler nur raten kann was nun besser ist, vermutlich auch schwer bezüglich Float und Intel lastigen Jobs zu unterschieden.

edit:

Verteil ich 2 Float-lastigen Threads nun auf 2 Module (jeder Thread hat eine eigene Float Einheit zur Verfügung), oder auf 1 Modul, und nehme z.T. deutlich höheren Takt durch Turbo mit? Beides bringt ein gutes Plus, beides lässt sich aber schwer/garnicht vereinen.

Es gibt wohl keine deterministisch Entscheidungsgrundlage die man in einen Scheduler programmieren könnte. "Mal so Mal so" ...

@aylano

von Akkulaufzeiten anhand von Herstellerfolien auf die Laufzeit und den Verbrauch zu schließen... es gibt wohl kaum etwas gewagteres :D

Dazu muss man hoffen, dass die FM2 Plattform als Plattform nochmals sparsamer ausfällt als FM1. Die CPU verbrauchen idle doch heute fast nichts mehr. Der Rest vom Board + Display etc brauchen da schon mehr, sind also maßgeblicher für solche idle Laufzeitangaben.

Genauso Laufzeit unter Last. Wenn die CPU ne niedrige TDP und Leistung hat ist es klar dass die Last-Laufzeit länger ist, für dieselben Aufgaben ist die CPU aber auch länger unter Last. natürlich läuft ein 35 oder gar 45W Modell @ Vollast weniger lang bei selbem Akku.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
...
Genauso Laufzeit unter Last. Wenn die CPU ne niedrige TDP und Leistung hat ist es klar dass die Last-Laufzeit länger ist, für dieselben Aufgaben ist die CPU aber auch länger unter Last. natürlich läuft ein 35 oder gar 45W Modell @ Vollast weniger lang bei selbem Akku.

Das ist ein wichtiger Punkt, der oft übersehen wird:
Höhere Rechenleistung kann Energie sparen.

Wenn CPU A z.B. eine Website in 1 Sekunde aufbaut und CPU B in 0,4 Sekunden, dann kann CPU B dabei unter Last ruhig doppelt so viel verbrauchen wie A und die Akkulaufzeit ist unterm Strich trotzdem besser, denn sie ist ja mehr als doppelt so schnell mit der Aufgabe fertig und kann sich viel früher wieder "schlafen legen".

In den TDP-Werten oder auch real gemessenen Lastverbräuchen spiegelt sich das aber nicht wieder.

Auch typische Benchmarkprogramme können diesen Effekt normalerweise nicht gut zeigen, denn die sind ja gerade dazu gemacht, eine CPU konstant und dauerhaft unter Volast zu halten. In der Realität ist eine Rechenaufgabe aber in der Regel keine Endlosschleife, sondern ist irgendwann abgearbeitet.
 
Zuletzt bearbeitet:
jap, wobei man dann auch mehr Webseiten läd und bessere Usabillity erfährt :p

Ganz interessant zum neuen HotFix für BD von gesten:

http://www.pcgameshardware.de/aid,8...s-7-zum-Download-Download-des-Tages/CPU/Test/

Verdeutlicht nochmal AMDs Zwiespalt bei der Modulbauweise.

Das KB2646060-v3-Update bringt Win7 bei, dass der Bulldozer FX mit Modulen arbeitet und legt eine Lastverteilung an, wie sie auch einem Intel-Quadcore mit SMT verwendet wird: Die ersten vier Threads werden auf je ein Modul gelegt und können so die kompletten Ressourcen (L1-Instruction- und L2-Cache, Frontend) einer solchen Compute Unit nutzen, der Turbo reicht aber nicht so hoch, wie er könnte. Erst wenn weitere Threads hinzukommen, werden dieses zusätzlich auf den zweiten Integer-Cluster eines Moduls gelegt. Das KB2645594-Update verhindert, dass ungenutzte Kerne (zu früh) in den C6-Modus geschickt werden, obwohl ein Thread diesen gerade zugewiesen werden soll - denn das "Parken" sowie Aufwecken kostet Zeit und damit Leistung.

Damit macht das Hotfix-Update im Übrigen nicht das, was AMD zum Launch vorsah: Hier wurde noch angegeben, dass in einem Vier-Thread-Fall nur zwei Module rechnen und nicht wie es das KB2646060-v3-Update vorsieht, alle vier Module mit vollen Ressourcen. Wie sich das in der Praxis auswirkt, werden wir im Laufe des Tages antesten (der FX-8150 läuft sich gerade warm) - AMD spricht nur noch von mageren 1 bis 2 Prozent, was schon an Messungenauigkeit grenzt.

Scheint als hat sich AMD nun dafür entschieden erst immer 1 Thread auf 1 Modul zu legen bis diese "voll" sind, erst danach wird dann auch CMT bedient indem ein 2. Thread zusätzlich auf die Module gepackt wird.

Eig müsste man Float- und Int-Lastig eben bei dieser Vorgehensweise unterschieden, scheint aber nicht möglich zu sein (der Scheduler kann schlecht raten was der Fall ist)

Ursprünglich wollte man Module immer voll belegen, damit der Turbo maximal zündet.

P.S.: Genau das meine ich mit die Architektur kränkelt in der Basis. Die Leistungsdichte fällt nur unter Wegfall von L3 und bei Auslastung des ganzen Chips dank CMT "okay-sehr gut" aus, bei Halblasten kämpft AMD mit der Threadverteilung und das Zusammenspiel CMT / Turbo kann nur begrenzt hinhauen.
Ich denke damit kämpft man bereits seit 3 Jahren - und versucht das irgendwie zu optimieren und hat darauf hin auch BD verschoben der mal für 2009 angekündigt war.

Eventuell gelingt es den Turbo auch zu zünden, wenn ein Modul nur halb ausgelastet ist. Das wäre schon begrüßenswert. Nur was ist halb ausgelastet?

Stand heute sind die Spec Werte für Server gut... warum?`Sie betrachten immer den Maximalfall, mal arbeiten alle Float ungestört, mal alle 8 IntKerne (ein Schedulling / Turbo / CMT Problem gibt es praktisch bei diesen Benchmarks nicht). Ich denke bei einer Mischung und/oder Halblast, sähe auch im Server Umfeld BD noch viel schlechter aus.

@Floletni

wie sich das Fehlen des L3 auswirkt ist für mich auch noch großes Fragezeichen.
Ergänzung ()

http://www.tweakpc.de/hardware/tests/cpu/amd_bulldozer_fx_patch/s01.php

hier gibst recht viele Benchmarks. 0-3 % trifft wohl ganz gut zu.

Ich denke das + in Windows 8 kommt eher durch generelle Kernel Optimierungen, weniger durch einen Scheduler. Das zerstört etwas die Hoffnung auf Software-Seitige Leistungssteigerungen für Bulldozer Module, leider =/

Interessant wäre noch ob Intel ebenfalls davon profitiert.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
@aylano

von Akkulaufzeiten anhand von Herstellerfolien auf die Laufzeit und den Verbrauch zu schließen... es gibt wohl kaum etwas gewagteres :D
Erstens, was ist der Unterschied zwischen Akku-Zeit & Laufzeit bei selber Tätigkeit?j
Zweitens, und was hast am Energiegesetz nicht verstanden?

Übrigens, AMD hat alle seine Akku-Angaben bisher erfüllt hat.
Das ging vom 4,5 Stunden Puma bis so 5,5 h Tigres zu 6,5 h Danube sowie 8h Llano sowie 10h-Bobcat

Nur damit es klar ist, eine 50% ist ein Megasprung.
Auch wenn wenn wenn davon 25% reine Lüge ist, wären +25% noch immer der größte Sprung in den letzten 5 Jahren, wenn nicht länger.

Dazu muss man hoffen, dass die FM2 Plattform als Plattform nochmals sparsamer ausfällt als FM1. Die CPU verbrauchen idle doch heute fast nichts mehr. Der Rest vom Board + Display etc brauchen da schon mehr, sind also maßgeblicher für solche idle Laufzeitangaben.
AMD hat mit jeder Generation längere Akku-Zeit erreicht.
Dieses Plattform-Problem wennschon nur Intel. Siehe Westmere.

Ich bin selber Ratlos, wie AMD +50% zusammenbringen kann. Deshalb ist es für mich so eine Überrachung.
Aber +50% kann kaum nur von Komponenten-Optimierungen erreicht werden.
Wie viel die -50% wert sind, hängt vorallem davon ab, was Ive-Bridge zusammenbringt und das wissen wir genau erst dann wenn beide am Markt sind.

Genauso Laufzeit unter Last. Wenn die CPU ne niedrige TDP und Leistung hat ist es klar dass die Last-Laufzeit länger ist, für dieselben Aufgaben ist die CPU aber auch länger unter Last. natürlich läuft ein 35 oder gar 45W Modell @ Vollast weniger lang bei selbem Akku.
Ich verstehe nicht, welchen Bezug das auf meinen Inhalt haben soll.

35W-TDP sind nur mit CPU-Voll-Lasten zu erreichen.
Ich sprach von Idle-/Office/Video/Internet-Surfen-Akku zeit.
In der Theorie sollte das so sein, wie du es sagst, daber es erklärt nicht, warum Fusion-Notebook unter volllast längere Akku-Zeiten haben, als sie eigentlich haben sollten.

Die einzige Erklärung ist, AMD kann mit Turbo-Core den TDP-Spielraum noch nicht ganz ausreizen, während Intel das viel besser macht, weil er teilweise mehr Stromverbraucht als er TDP-Watt-Angaben hat.

@Server
 
@aylano

es ging darum, dass ich nicht von Zahlen auf einer AMD Folie auf die Laufzeit nachher im Notebook schließe. Was hat das mit dem Energiegesetz (lol, welchem Energiegesetz) zu tun?

Das hat mit dem "Folien von Hersteller"-Gesetz zu tun, ganz einfach :D

Les doch mal die Footnotes. 12,5 h bei einem C-60 und einem 62,16 WH Akku. Schöne Angaben, alles toll...

Was aber bei Note 5 -> Trinity-> 12h + zum Einsatz kam ist vollkommen offen. Dazu Labor, vermutlich TFT komplett abgeklemmt, Wlan etc aus...

Außerdem sehe ich keinen Bezug zu Llano.

Wie gesagt, Trinity als auch Llano dürften Idle kaum was verbrauchen, das reißt eher die Plattform raus.

Woher kommen denn deine 50% ?

Edit:

Ändert nicht dran, dass 12h ein schöner Wert sind, sofern er reicht wird.

Edit:

7-1080.151030046.jpg



hast du dich auf diesen Wert bezogen? 10:28 für Llano?
 
Zuletzt bearbeitet:
Vorstellung Ivy Bridge von Intel:

http://www.golem.de/1201/89009.html



Vorstellung Trinity APU von AMD:

http://www.golem.de/1201/89010.html


Prozessorleistung ist halt nicht immer das wichtigste ;)

Wer viel Prozessor Leistung braucht und damit meine ich reine Prozzi Leistung wird mit Intel besser fahren. Sobald man allerdings nur ans spielen denkt sollte man sich für eine APU von AMD entscheiden.

Testets einfach: Versucht mal mit einer Intel HD 3000 mal das spiel the whitcher nur zu starten....das geht nicht...obwohl die Leistung der HD3000 theoretisch sogar für minimalste einstellungen reichen dürfte. aber Whitcher meldet dass es keine Grafik findet mit der das spiel spielbar wäre.

Dagegen kannste Whitcher sogar mit der 18 Watt zacate starten und in minmalen details durchspielen.Mit Llano gehts erstrecht zu spielen auf kleinen details.

Intel hat einfach mit seiner X86 Struktur für GPU noch echte treiberprobleme und mit DX11 wird sich das verschlimmern und nicht verbessern wenns mit Dx10 noch netmal gescheit klappt.

Dieser Golem Bereicht veranschaulicht das nur im Ansatz dass Intel da wirklcih Probs noch hat.

Also das bessere allround paket hat auf jedenfall AMD.

Und wer Gamer Enthusiast ist wird sowieso immer eine dedizierte Karte drin haben...alle gelegenheitszocker dürften mit 3500+ Vantage ergebnis was trinity schaffen wird dicke zufrieden sein.

Ich jedenfalls bin vielmehr genervt wenn irgendein game ruckelt....mich nervt es weit weniger wenn ich mal 2 sekunden auf den prozzi warten muß...zumal der bei mir zu 99% eh in warteschlange immer ist...trotz SSD.

Von daher bin ich klar für trinity
chen
 
Zuletzt bearbeitet:
Intel hat mit Sicherheit noch bei Spielen Treiberprobleme, das wird auch auf absehbare Zeit so bleiben.

Der Golem Bericht... naja basierend auf dem Video Präsi Fail.

Anandtech hat sich ans Notebook gesetzt und dann mal live gezockt.

http://www.anandtech.com/show/5359/intel-confirms-working-dx11-on-ivy-bridge

Yesterday we reported Intel ran a video of a DX11 title instead of running the actual game itself on a live Ivy Bridge notebook during Mooly Eden's press conference. After the press conference Intel let me know that the demo was a late addition to the presentation and they didn't have time to set it up live but insisted that it worked. I believed Intel (I spent a lot of time with Ivy Bridge at the end of last year and saw no reason to believe that DX11 functionality was broken) but I needed definitive proof that there wasn't some issue that Intel was trying to deliberately hide. Intel promptly invited me to check out the demo live on an Ivy Bridge notebook which I just finished doing.

Um das zu belegen, zeigte das Unternehmen Golem.de ein Ivy-Bridge-Ultrabook, bei dem es sich um das von Eden verwendete Exemplar gehandelt haben soll. Darauf konnten wir das Spiel selbst ein paar Minuten lang ausprobieren und auch mit den Grafikeinstellungen experimentieren.

Bei der Detaileinstellung "Medium" und ohne Anti-Aliasing lief das Spiel zwar nicht wirklich flüssig, war aber gut spielbar. Das Geschwindigkeitsgefühl war gut, für ein paar Runden unterwegs taugt die Ivy-Bridge-Grafik wohl durchaus. Bildfehler waren auch nicht auszumachen

ganz so merd siehts also nicht aus. Dennoch bin ich mir sicher, dass AMD und Nvidia natürlich Längen voraus sind was die Spieleunterstützung angeht.

@chendal

joa, wer sein Notebook wirklich bewusst zum Spielen einsetzen will, dem würde ich auch zu ner APU oder ner Intel CPU + weitere GPU raten. Ich denke nicht das IB daran viel ändert, lasse mich aber gern überraschen. Ich hab ne AMD GPU im Notebook, aber nie daran gespielt :D
Heute würde ich mir eine SB / IB iGPU vorziehen.
 
Zuletzt bearbeitet:
chendal schrieb:
...
Intel hat einfach mit seiner X86 Struktur für GPU noch echte treiberprobleme und mit DX11 wird sich das verschlimmern und nicht verbessern wenns mit Dx10 noch netmal gescheit klappt.
...

Intel nutzt kein x86 für GPUs. Das Larrabee-Projekt wurde schon längst wieder eingestampft. Eventuell wird das Konzept irgendwann nochmal für spezielle-GPGPU-Anwendungen wieder aufgegriffen, aber die aktuellen HD-GPUs von Intel sind ganz konventionelle spezialisierte GPUs, wie bei AMD oder Nvidia auch.

Es stimmt natürlich, dass Intels GPU viel weniger zum Spielen geeignet sind, als die von AMD oder Nvidia. Allerdings scheint ein sehr großer Teil des Marktes darauf auch keinerlei Wert zu legen. Schließlich war Intel schon immer auch der größte GPU-Hersteller und das schon zu Zeiten, als deren unsägliche GMA-Chipsatz-Krücken noch sehr viel spieleuntauglicher waren, als die modernen HD-GPUs.

Außerdem bin ich der Meinung, dass man eine schnellere CPU eigentlich immer gebrauchen kann, während bei sehr vielen Anwendungen eine schnellere GPU einfach gar keine Wirkung mehr zeigt.
Ein FullHD-Video läuft auf einer kleinen HD-GPU exakt genauso, wie auf einer viel stärkeren APU oder dedizierten GPU. Mehr als die im Video vorgegebene Framerate ist einfach nicht drin.
Eine Excel-Tabelle durchrechnen, einen Effektfilter über ein Bild laufen zu lassen oder das Rendern einer Website usw. wird durch mehr CPU-Power aber immer noch etwas schneller.

AMDs Hoffnung liegt darin, dass für sowas in Zukunft verstärkt auch die GPUs genutzt werden und zumindest bei Browser zeichnet sich das ja so langsam schon ab. Aber in den praxisnahen Benchmarks sieht man davon bisher noch herzlich wenig. Da drehen Intels CPUs immer noch Kreise um AMDs APUs.

Vielleicht ändert sich das in ein paar Jahren.

Bis dahin sind die APUs nur etwas für die Marktnische zwischen Leuten, die (fast) gar nicht spielen und mit den Intel-GPUs vollauf bedient sind und anspruchsvolleren Spielern, die zu einer mehrfach leistungsstärkeren dedizierten GPU greifen.
 
Ja wer gerne spielt wird vermutlich nachwievor einen intel prozzi haben mit dedizierte GPU die eignen schnellen Speicher mitbringt. das ist immernoch das beste.

Trinity kommt nun zum erstenmal in die Region wo man sich überlegen kann: wieviel grafikleistung brauch ich eigentlich wirklich ? Denn nachwievor wird trinitys Grafik den arbeitsspeicher mitnutzen und daher langsamer sein als viele dedizierte grafiken.

Aber wenn jemand sagt ich will keine dedizierte grafik...aus was für gründen auch immer - dem würde ich eher zu trinity raten. so war das gemeint.

für Kunde hat Trinity den Hauptvorteil dass ein gesamtsystem billiger werden sollte weil insgesamt ja nur ein chip auf dem board sitzt.

Hat man Intelprozzi mit hd3000...oder halt 4000 bei ivy...+ dedizierte Grafik (ich sprech jetzt mal von notebooks) dann haste schon 2 chips unterzubringen auf relativ wenig platz.

@herdware: danke für die info :) dachte die nutzen noch x86 für GPU..und deinen restlichen ausführungen stimme ich genauso zu. gibt noch wenig anwendungsbereiche wo eine apu ihr volles potential entfalten kann. und meist merkt man die mehrleistung einer gpu nicht...das stimmt schon. Betrifft eigentlich wirklich nur 3d anwendungen momentan wo die APU von AMD ihr stärkeres potential hat.

Wenn ich jetzt ein kleines Zockerlaptop möchte was trotzdem eine gute Laufzeit hat dann käme für mich z.b. nur das hier in Frage: http://www.dell.com/de/p/alienware-...d=137596&acd=fc8551e136d421f03e8f91e8283f9766

Und da kann Trinity eigentlich nur über den Preis Punkten....oder den Stromverbrauch. Mit Leistung kommt Trinity jetzt schon nicht gegen an. Die 35Watt TDP dürfte im gesamtpaket bei Trinity (mit Display, Platte, usw..) unter Last bei um die 50 Watt liegen...ähnlich wie beim Dell Vostro 3555 denk ich mal mit A8-3500er Llano.
http://www.dell.com/de/unternehmen/p/vostro-3550/pd.aspx?c=de&cs=debsdt1&l=de&s=bsd&~ck=mn
Das kommt in der c´t Nr. 26 Seite 71 auf ca. 50 Watt Last.

Aber selbst das wären grademal 10 Watt Differenz zu einer guten Intel + GPU Kombi wie beim alienware. Gut das alienware kommt halt etwas teurer. also bleibt als hautpunterschied für mich Stromverbrauch und Preis...wenn man weiß wieviel leistung man will. Wobei dann auch viel auf das jeweilige modell ankommt, akkugröße usw...wegen der laufzeit.
 
Zuletzt bearbeitet:
Zurück
Oben