News AMDs „Trinity“-Vorstellung bereits am 15. Mai?

x-polo schrieb:
Wenn nach den ersten Benches geht dann ist Trinity bzw. A10-5800K mit "Piledriver" CPU-Teil ein Flop und GPU-Teil (HD7660) Top.

Der A10-5800K ist rund 15% schneller als ein FX-4100, bei fast gleicher TDP, was will man mehr? Mehr als ein Plus von 15% war für Piledriver nicht vorgesehen. Wenn der Test stimmt, hat man das Ziel erreicht.
 
Matzegr
Und noch besser sieht es aus wenn man bedenkt dass die 65 watt tdp Version 400/200 Mhz weniger hat xD aber das hab ich schon erwähnt. Also ich würde ned von Trinity auf Vishera schließen ^^
Aber momentan was mich sehr interessiert ist eben der neue Taktgeber, ist dann immerhin doch was neues bei den x86 :D
 
Zuletzt bearbeitet: (o0 200 mhz sinds beim turbo)
Ein_Freund schrieb:
Man könnt mal, auch so drehen, wenn ich einen Intel hab der den ganzen Tag Idlet, was immerhin öfter vorkommt als würde der CPU auf 100% laufen hät ich mir einen Amd kaufen sollen der verbraucht idle 4 Watt weniger:rolleyes: und eine extra Graka macht im Idle auch nochmal 10 Watt o Schreck da bin ich doch fast bei Vollast A8:p$

Dazu müsste man jetzt aber wissen auf welchen Mainboards und so weiter. Denn an anderer Stelle liest man anderes, da braucht der Intel weniger. Auf die 3-5 Watt sollte man sich jetzt eben nicht festnageln. Auf den doppelten Stromverbrauch unter Last schon, besonders beim Gesamtsystem.

Caanon, leider genehmigt sich die CPU bei zusätzlicher Grafiklast nochmal eine Ecke mehr. Tlw. deutlich über TDP.

Und was das Undervolting-Argument angeht: Toll. Ich kann also als Endnutzer bei meiner CPU 50% des verbrauchs einsparen, ohne Einbußen. Stell dir mal vor ein PKW-Hersteller würde SOWAS liefern. Braucht 15 L/100km, aber wenn du genug Luft in die Reifen tust nurnoch 7,5 L/100km. Würdest du dann sagen, der Hersteller baut ein "tolles Auto"? Zumal die Konkurrenz von Werk aus ein bisschen schneller fährt und nur 5,5 L/100km braucht?

Sorry, aber wer angesichts dieser Daten behauptet dass die CPU im Llano kein völliger verhau sei, ist völlig verblendet. Denn selbst undervolted braucht er noch jenseits 50W, ein gleich schneller Pentium G840 braucht (default) ca. 30W. Noch dazu kostet der Pentium gerade mal 60€.
Und zum "richtigen Spielen" sind beide zu langsam, von der GPU her. Lt. CB-Test liegt man in 1440*900 mit niedrigen Details und ohne AA/AF in der Region 40 FPS beim Spitzenmodell, was gerade noch akzeptabel ist. Beim A6 dagegen um die 30, und das wird schon "sehr fad". Also ein echter Ersatz, auch für eine low-midrange-Karte (Hd6570 zum Beispiel) sind selbst die A8-Llanos nicht - und die Karten kosten keine 50€. Mit einer HD6670 für 60€ kann man dann über korrektes Spielen schon nachdenken. Ein G840 + HD6670 kosten 120€ zusammen, 20€ mehr als der Llano, dafür liefern sie fast die doppelte Leistung in Spielen.

mfg
 
@Matzegr
Na ja sind 11% Trinity fehlt ja der L3 Cache,mit Flop meinte Ich eher Llano vs. Trinity (Piledriver-Kern) 1Ghz mehr Takt für um 10% besserer Leistung.

Wenn Vishera 15% mehr Leistung rausholt als die 1.Bulli-Generation, bekommt man dann in etwa gleich/etwas höhere IPC eines K10 (Phenoms II).Da brechen bei mir keine Lobeshymnen aus.
 
x-polo schrieb:
@Matzegr
Na ja sind 11% Trinity fehlt ja der L3 Cache,mit Flop meinte Ich eher Llano vs. Trinity (Piledriver-Kern) 1Ghz mehr Takt für um 10% besserer Leistung.

Die höhere Taktrate ist doch irrelevant. Trinity liefert bei gleicher TDP 10% mehr Leistung beim CPU Teil und 50% mehr beim GPU Teil. Dass man bei Trinity höhere Taktraten braucht ist einfach nur logisch, schließlich sind die 4 "Kerne" beim Trinity kleiner als die 4 Llano Kerne.
 
KainerM schrieb:
Caanon, leider genehmigt sich die CPU bei zusätzlicher Grafiklast nochmal eine Ecke mehr. Tlw. deutlich über TDP.
Tja, dass sollte auch höchstens kurzzeitig passieren.
Man kann den Turbo ja sowas wie thermische Trägheit nutzen lassen. Hauptsache das Silizium geht unter Vollast und über ein paar Minuten gemittelt nur unwesentlich über die TDP.

Aber bis jetzt habe ich noch keinen Test von Llano mit sowas wie Prime 95+Furmark gesehen, du?
Würde mich wundern wenn bei Standardeinstellungen, 100W TDP und eben über ein paar Minuten gemittelt mehr als so 105W bis 110W rauskommen. Nicht für das gesamte System sondern für den Chip selbst versteht sich. Dann wäre es wirklich unschön.
 
Also das gesamte System von meinem Office-Rechner (A8-3820 mit 65W TDP, nen A75 Mobo, 8gb RAM und ne 2,5" HDD) zieht unter P95 130W. Furmark 135W und beides zusammen 140W.
 
KainerM schrieb:
Naja, 50% schneller als Llano wär noch immer nicht schnell. Die CPU von denen ist ja oberlahm, vor allem in Relation zur TDP.

Deine Propaganda kannste stecken lassen, aber was anderes ist man von dir eh nicht gewohnt, echt traurig.

Iarn schrieb:
noay, wieso sollte ein Trinity angenehmer für Office sein als ein niedrig getakteter i3?
Die reine CPU Leistung des i3 ist immer noch höher.

Interessiert wen?? Zum Word tippen kann ich auch n Atom nehmen. Vollkommen Wurst...

KainerM schrieb:
http://ht4u.net/reviews/2011/amd_a8_3870k_llano_apu/index10.php
88W bei reiner CPU-Last. Dabei 50% weniger Leistung als ein Sandy Bridge Prozessor, der weniger Strom verbraucht. Für den A6 schauts noch wesentlich schlechter aus.

Dafür kostet der 2500K aber auch das doppelte, vom Mainboard zu schweigen. Und? Ein 911S mit 400PS fährt auch schneller als Audi TT von mir aus mit 200PS. Zielgruppe und so, aber das wirst du nie begreifen können.

RuhmWolf schrieb:
AMD wird bei den 17W-Modellen in jeder Disziplin (CPU-, GPU-Performance und Effizienz) hinter Intel liegen

Deine Glaskugel möcht ich haben. GPU-mäßig ist AMD jetzt schon deutlich vorne und das wird nicht schlechter werden mit Trinity

Ein_Freund schrieb:

Seh ich auch so.


Wird ne tolle APU die mit Sicherheit ihre Käufer finden wird, vor allem im Notebook. Werd mir auch nur noch ein Trinity-Notebook holen (bzw. Nachfolger), wenn der Rest stimmt (Display usw. ist immer das größte Problem).
 
jumijumi schrieb:
Also das gesamte System von meinem Office-Rechner (A8-3820 mit 65W TDP, nen A75 Mobo, 8gb RAM und ne 2,5" HDD) zieht unter P95 130W. Furmark 135W und beides zusammen 140W.

NT? Anzahl Belegter RAM Slots?, wenn no name NT völlig normal.
 
KainerM
Ein Llano Board brauch 7,4 watt omg die 3 watt wirst verkraften, dafür ist die Ausstattung vieler Llano Boards um wenig Geld Welten besser...


Zitat von RuhmWolf
AMD wird bei den 17W-Modellen in jeder Disziplin (CPU-, GPU-Performance und Effizienz) hinter Intel liegen
Das 17 watt Modell soll ein A8 sein, und das 25 watt modell soll ein A10 sein.
Beide sind der HD 4000 überlegen. Die HD 4000 wird ca den A6 erreichen...
 
Zuletzt bearbeitet:
KainerM schrieb:
Ein i3-2100 liefert durchschnittlich eine leicht bessere (CPU-) Performance, verbraucht aber nur etwa ein DRITTEL an Strom!

Naja, du übertreibst und dramatisierst den Verbrauch des Llano Prozessors etwas.
Idle ist sehr gut, genauso ist die Spieleeffizienz des Llanos im Vergleich zum Sandy nicht schlechter.
Teillastszenarien gar nicht mal erwähnt.
Nichtsdestotrotz hast du recht, dass bei der reinen CPU Betrachtung unter Vollast AMD deutlich nachbessern muss, soviel ist klar.

Allerdings sieht man das Potenzial bei "Undervolting", was da drinnen ist. Insofern schiebe ich die Ineffizienz als Allererstes mal auf den Fertigungsprozess.
Und was das Undervolting-Argument angeht:

Das Undervolting Argument zieht auf jeden Fall, da prozentual eben sehr viel drinnen ist.
Warum AMD solch hohe Spannungen anlegen lässt liegt wohl an der marge.

Und zum "richtigen Spielen" sind beide zu langsam, von der GPU her.

Zwischen den genannten Prozessoren ist der AMD mindestens gleichschnell, wenn nicht schneller, zudem ist die GPU wohl runde 3x so schnell wie die des Pentiums.

Man kann sich alles etwas für jeden Hersteller argumentativ hinbiegen.
Die Argumente die du aber versuchst auszuführen haben sehr wenig Gehalt.
Insofern ist der Aufschrei von "Kaoznake"" Propaganda"! sicherlich nicht komplett unbegründet.
Ergänzung ()

Ein G840 + HD6670 kosten 120€ zusammen, 20€ mehr als der Llano, dafür liefern sie fast die doppelte Leistung in Spielen.
ess

Aber dann die HD 6670mit GDDR5 bitte, kostet 70 Euro, somit sind wir bei 30 Euro mehr wie der Llano Prozessor bei 50% mehr Spieleleistung und natürlich dem Nachteil der schlechteren Effizienz, vor allem im Idle und unter Teillast, auch was Spiele angeht.
 
Zuletzt bearbeitet:
Effizienter als der Llano mit Stars CPU-Kernen..., da kann ich leider nicht dran glauben. Eine Verbesserung würde mich stark überraschen. Wenn ich mir die Uneffizienz der Bulldozer-Cpu so anschau, naja. Mal schaun.
Die Stars Kerne noch mehr optimieren und diese als Cpu-Part nehemn würde mich mehr freuen. Aber gut irgendwann ist wohl die Architektur nicht mehr optimierbar. Ich bin gespannt!

mfG
 
Ist doch auch gut so! AMD im GPU teil besser und Intel bei der CPU besser. Das ergibt dann je nach Anwender die richtige CPU für jeden.
Ich lege Wert auf die CPU und die HD2000 macht jetzt schon das, was ich von der GPU erwarte. Wer aber an seinem Notebook oder Desktop spielen möchte und keine extra Grafikkarte steckt, ist doch bei AMD gut versorgt. Zum Internet und Office Kram reicht doch auf jeden Fall auch eine AMD CPU.

Der hier genannte Vergleich vom L2 Cache mit dem L3 Cache von Intel hinkt aber gewaltig. Klar hat Intel weniger L2 Cache, was aber in einem extrem größerem L3 Cache resultiert.
Der A8-3870K hat 4 x 1Mb L2 Cache. Also 1MB je Kern.
Der i7-3770K hat 4x 256KB L2 Cache und 8Gb L3 Cache, der ja allen Kernen zur Verfügung steht.
Werde den Verdacht nicht los, dass AMD den L3 Cache zu Gunsten der TDP gestrichen hat.
 
Der Vergleich L2/L3 ist sehr wohl zulässig:

Die Latenzen des Sandy Bridge L3-Caches ist dreimal schneller als die des Bulldozer L3-Caches. Der L3 des Bulldozer verhält sich - aus Intels Sicht - eher wie ein L4. Dafür sind die L2-Caches AMDs größer und das besondere ist, zumindest beim Phenom: Trotz der Größe ist er so schnell wie das kleinere Intel-Pendant. Am L3 wird es gewiss nicht beim AMD scheitern.
 
MikelMolto
Nimm aber als vergleich eher den i3, denn der ist eher die Konkurrenz als der i7.
Denn der hat nur einen 3MB Cache (wobei ja IB der i3 etwas mehr haben soll 4 glaube ich)
Und ja ein modul hat 2 cores und 2 MB cache.

L3 Cache zu Gunsten der TDP gestrichen hat
Zu Gunsten der TDP sicher auch, denk aber in erster Linie damit die Die-Fläche kleiner ist oder ?
 
Zuletzt bearbeitet:
Zurück
Oben