News AMD R-Series auf Basis von „Trinity“ enthüllt

AMD R-Series auf Basis von „Trinity“ enthüllt

Ou Mann, da mischt schon VW bei AMD mit ^^ (zb. Golf R )

Klingt alles schön und toll, muss aber dementsprechend was leisten. Grafiklastig sicher, Cpulastin ... mal abwarten.
 
Erscheinen am 15ten auch die 17 und 25 Watt Trinity APUs? Wann kann man mit den ersten Ultrathins mit solch einer APU rechnen?
 
Mal so ganz nebenbei: Weiß jemand, wo man solche Embedded-Boards als Privatperson herbekommt? Ich bin besonders an den kleineren Formfaktoren interessiert (Pico-ATX, EPIC), wegen mir darf da auch noch ein Embedded-Äquivalent eines E-350 draufsitzen.
 
HPC Master
Ja, das Video kenne ich, und von der "APU" die er redet, enspricht am ehesten Llano. Doch um korrekt zu sein ist Llano noch keine richtige APU.... Und deshalb ist noch nicht der Unterschied für 0815 User vorhanden.
Vom HSA-Programm war zu der Zeit noch nicht mal die Rede... Somit ist das jemand, der die APU aus Intel sicht betrachtet, eine CPU+igp und nicht als Einheit CPU+ Co-prozessor/Teil des Prozessor.
Aber Intel findet die igp ja so unnütze, so dass man die igp bei IB und Haswell hochpimpt.
Denn eine APU soll nämlich nicht nur eine CPU + igp sein.
Aber das ist genau die Ansicht einer APU die du vertrittst, genau das Missverständnis.

Frage, wieso verwendest du eigentlich eine NV-Karte zur Beschleunigung ?? Brauchst das Teil somit doch nur für die Bildausgabe.

Accelerated steht für beschleunigt.
Das heißt eine APU wird aufgaben einer CPU weiterhin übernehmen, und die igp wird nicht nur dazu da sein ein Bild auszugeben. Sondern sie ist dazu da, um Anwendungen wo die CPU lahmt zu beschleunigen.
Sobald gpu compute context switching und CPU und GPU Register und Adressraum völlig Teilen, wird kein Unterschied mehr zwischen CPU und GPU gemacht.
Die igp wird dann quasi zum instruction set.

Vllt hätte man es lieber ACPU nennen sollen xD
 
Zuletzt bearbeitet:
pipip schrieb:
KainerM
http://www.amd.com/uk/products/embedded/apu/Pages/embedded-apu.aspx#/56927
Damit du dir mal unter APU und mögliche Einsätze sehen kannst.

Und bitte höre damit auf, ist kein quadcore, mit ja 2 cores und FPU ist kacke. Dann begründe das doch mal lieber... was ist ein core ?

Zu 1.: Toll. Das ist ja mal ein richtig mieses Marketing-Video. Das ist so wie diese tollen Videos aus Fahrzeug-Rohbaustraßen, wo die Funken spritzen. Denn da drinnen wird genau nichts gesagt. "Capable of transfering MILLIONS of Bytes every Second". Toll. Das schafft jeder Microcontroller. DirectX11 capable graphics. Für Embedded. Machine Vision - daran wird bei uns mit einem singlecore-Atom gearbeitet, das reicht auch. HTML5-web-content loads WAY FASTER !!!!. Auch wieder: Embedded!!! Der, der für dieses Schundvideo verantwortlich ist, gehört sofort gefeuert. Null Aussage, außer einigen falschen. Übrigens ist die Aussage vom fehlenden Flaschenhals durch das zusammenwohnen der GPU und CPU eine Lüge; der Flaschenhals ist der Speicher - und da müssen sich jetzt zwei Einheiten eine Verbindung teilen. Eine gleich schnelle GPU mit der gleichen CPU ist wesentlich schneller als die angeblich schnellere APU.

Und zum Thema Quadcore: Bleiben wir einfach bei den Fakten: ES IST KEIN QUADCORE! Ein Modul hat quasi ALLES nur einmal, außer der Integer-Einheit. Ein Rechenkern ("Core") besteht aber aus SO VIEL MEHR als der Integer-Einheit. Und genau da liegt das Problem des Bulldozer: Wenn die zwei "Kerne" auf einem Modul nicht gleiche Aufgaben bearbeiten, dann bricht die Leistung auf die Hälfte ein. Ironischer Weise ist das genau der Fall, in dem Intels Hyperthreading glänzt: Wenn zwei logische Kerne auf einem physikalischen Kern gleiche Aufgaben abarbeiten müssen, bringt es keine Mehrleistung. Aber wenn unterschiedliche Aufgaben anfallen, die unterschiedliche Hardwareeinheiten nutzen, dann kann die Leistung deutlich höher ausfallen. Das Resultat ist einfach: Während Intels HT mit sehr wenig Hardwareaufwand die Auslastung der einzelnen Kerne verbessert, reduziert AMDs Modulbauweise diese (wenn man die "2 Kerne pro Modul"-Aussage glaubt) sogar noch. Denn die Sprungvorhersage und solche Feinheiten sind eben nur einmal pro Modul vorhanden - und genau diese "Feinheiten" sind das, wo die Rechenleistung heute noch gesteigert wird. Und zwar ohne die Leistungsaufnahme großartig zu steigern.

Und der Term "APU" ist halt auch nur Marketing. Intel macht letzten Endes genau das gleiche.

mfg
 
KainerM schrieb:
Aber es ist und bleibt eine nicht-Fisch-nicht-Fleisch-Lösung. Intels Grafik ist für alles außer Spielen schnell genug, und für Spiele DEUTLICH zu langsam.

Das ist nicht korrekt. Selbst mit Intels HD 4000 lassen sich viele Top-Spiele auf geringen oder sogar mittleren Einstellungen spielen, mit AMD´s integrierten Lösungen kann man noch mehr Eye Candy dazu einstellen.
Ich spiele selbst auf einem A4-3300 Anno1404 auf niedrigen Einstellungen mit mittlerer Textur Einstellungen.
Ich verstehe nicht worauf du hinauswillst, deine Aussage ist nicht nachvollziehbar.

Und gerade im Mobilbereich würde ich eine starke CPU-Performance höher Werten. Und vor allem im Embedded Bereich ist die GPU VÖLLIG egal. Mit denen wird nicht gespielt.

Deine Argumente sind wirklich nur begrenzt nachvollziehbar und sehr pro Intel.
Warum denkst du denn warum AMD im Embedded Markt auf APU´s setzt, doch bestimmt nicht um damit im "embedded Markt" Spiele zu spielen. :D

Meiner Meinung nach steht und fällt dieses ganze APU-Konzept mit den CPU-Kernen;

Warum soll ein "Konzept" fallen, wenn im Gegesantz zu Intel weniger CPU Leistung zur Verfügung steht?
Wenn dann wird eben abgewogen werden müssen, ob man mehr GPU, oder eben mehr CPU Performance für nötig hält, aber fallen tut da nichts, wie soll das auch logisch nachvollziehbar sein?

also zwei Integerkerne pro Modul. Die gezeigten "Quads" sind also eher Dualcores.

Nein, es sind Module die die Effizienz erhöhen sollen, gegenüber einem Dual Core Design.
AMD schafft es damit ca 80% der Leistung eines bisher bekannten Dualcores zu erreichen, wenn die IPC gesteigert wird- was mit Trinity das Ziel sein wird- hat man das ganze sogar relativ gut durchgesetzt und man erreicht fast die alte IPC pro Thread. Aber das Design lässt sich wohl höher takten.

KainerM schrieb:
Bleiben wir einfach bei den Fakten: ES IST KEIN QUADCORE! Ein Modul hat quasi ALLES nur einmal, außer der Integer-Einheit.

Naja, du hast es ja so dargestellt, dass dieses Design sehr schlecht ist und die APU kaputtmacht, insofern ist dein progressives Hinweisen auf das falsche Quad Core Design nochmal lächerlicher im Bezug auf die nichtfunktionalität des APU Designs.

Übrigens besitzt das Modul mit Nichten alles einmal, sondern L2, sowie L1 Cache ist doppelt vorhanden, sowie auch ein paar andere Redundanzen.

Ein Rechenkern ("Core") besteht aber aus SO VIEL MEHR als der Integer-Einheit.

Ja die FPU. Die hat AMD "aufgebohrt" und die gibts nurnoch einmal, statt 2mal, ansonsten...

Wenn die zwei "Kerne" auf einem Modul nicht gleiche Aufgaben bearbeiten, dann bricht die Leistung auf die Hälfte ein. Ironischer Weise ist das genau der Fall, in dem Intels Hyperthreading glänzt:

Nein, das ist pauschaler und kompletter Müll den du da redest.
Bei Gleitkommaberechnungen kann sich AMD kaum vom Phenom II absetzen, da AMD pro Modul nurnoch eine FPU zur Verfügung hat und demstsprechend bei Benchmarks wie Cinebench nicht von der gesteigerten Integer-Performance profitieren kann.

Das hat mit CMT vs. SMT nichts zu tun und lässt sich schon gar nicht pauschal auf irgendwelche Aufgaben projezieren.
 
Zuletzt bearbeitet:
Wintel schrieb:
Es geht ja nicht immer darum einen "Rückstand" wettzumachen, sondern vor allem darum konkurrenzfähige Produkte auf den Markt zu bringen die in dem ein oder anderen Szenrario Vorteile gegenüber dem Produkt des Konkurrenten haben.
Das schafft AMD im Augenblick ganz gut.
Desweiteren bleibt auch noch der Preis.

Wie du sagst- aufgrund von 50% im CPU Markt- voll auf APU´s zu setzen und den CPU Markt komplett fallen zu lassen ist - angesichts des derzeitigen Kerngeschäfts und der Umsätze die AMD fährt- eigentlich absolut gefährlich und für mich nicht nachvollziehbar, wie du darauf kommst, eine APU benötigt schließlichauch einen starken CPU Teil und der muss natürlich genauso weiterentwickelt werden.

Aufgrund der besseren Fertigung ( an der haperte es enorm bei Llano und Bulldozer 1.0) von Trinity und Vishera, wird man mit hoher Wahrscheinlichkeit wieder näher ( was CPU Performance angeht) auf Intel aufschließen.

Nur irgendwann muß man Kosten/Nutzen (in dem Fall R&D, Marketing, Vertrieb, Personal) gegen den Nutzten sehen. Ich denke wenn sich AMD voll auf APU konzentrieren würde wären sie bis Llano gut aufgestellt und alles darüber sollten sie in den Wind schießen. Man kann im "unteren" Bereich massiv mehr umsetzen als im Bereich > Llano. Klar der Serverbereich sollte behalten werden da stehen sie ja technologisch gesehen Top da aber performance und Highend Desktop sollten sie Intel überlassen. Wenn sie Glück haben gibts dann für Intel auch irgendwann Probleme mit der Kontrollbehörde.
 
KainerM schrieb:
Der, der für dieses Schundvideo verantwortlich ist, gehört sofort gefeuert. Null Aussage, außer einigen falschen.
Gehts auch etwas sachlicher?
Das Video soll zeigen worin die Ziele von einer APU liegen sollen.
Klar sind werbevideos nicht immer komplett realistisch, aber gleich von Schundvideo reden? Nana.. wer wird denn.

terraconz schrieb:
Nur irgendwann muß man Kosten/Nutzen (in dem Fall R&D, Marketing, Vertrieb, Personal) gegen den Nutzten sehen.

Klar muss man das, allerding sieht es Margen und Einnahmemäßig für AMD in letzter Zeit deutlich besser als in den vergangenen 5 Jahren aus, insofern wird AMD wohl jetzt mit neuer Führung genau da weitermachen.
Mit dem Fokus sicherlich mehr auf APU, aber keinesfalls komplett, AMD muss -so denke ich- in allen Bereichen zumindest noch konkurrenzfähig vertreten sein.

Deine Ansicht finde ich sehr abenteuerlich, aber gut, jedem das seine.

KainerM schrieb:
Eine gleich schnelle GPU mit der gleichen CPU ist wesentlich schneller als die angeblich schnellere APU.

Jetzt vielleicht noch, aber es geht ja irgendwann mal darum GPU und CPU Aufgaben gemeinsam durch GPU und CPU abzuarbeiten.
Es gibt ja auch schon Ansätze wie "stacked memory", die die Bandbreite deutlich erhöhen für die integrierte GPU.

KainerM schrieb:
DirectX11 capable graphics. Für Embedded. Machine Vision - daran wird bei uns mit einem singlecore-Atom gearbeitet, das reicht auch.

Du willst jetzt eure Bedürfnisse als pauschale Grundlage nehmen und sagen, der Atom reicht auch aus, um der APU den Nutzen abzusprechen?
Geht es noch lächerlicher, oder lieferst du auch nachvollziebare Argumente?

Übrigens ist die Aussage vom fehlenden Flaschenhals durch das zusammenwohnen der GPU und CPU eine Lüge;

Jaja.. das wird laut meiner Auffassung im Video so auch gar nicht behauptet, wenn ja, bitte gib mal den Zeitpunkt an.
Es wird von einem effizienteren Datenverkehr zwischen GPU und CPU gesprochen, das ist völlig legitim.
 
Zuletzt bearbeitet:
Das Video ist :lol: . Ist mein Englisch so schlecht oder hat er ernsthaft gesagt, dass es besser wäre das zusätzliche Geld in eine bessere Grafikkarte zu stecken, denn dann hätte man mehr davon? Soweit ich weiß ist AMD meistens deutlich billiger als das Intelgegenstück. Wenn man ähnlich teure Produkte gegeneinander antreten lassen würde dann hätte AMD die APU + einen stärkeren dedizierten Grafikchip auf seiner Seite. :volllol: Und gleichwohl hat auch Intel einen Onboardgrafikchip der vom externen Speicher gebremst wird. ( Beweis: https://www.computerbase.de/2012-05/test-welchen-ram-fuer-intel-ivy-bridge/ )

ES IST KEIN QUADCORE! Ein Modul hat quasi ALLES nur einmal, außer der Integer-Einheit
Das ist Definitionssache. AMD definiert einen Kern halt anders als Intel.
Wenn die zwei "Kerne" auf einem Modul nicht gleiche Aufgaben bearbeiten, dann bricht die Leistung auf die Hälfte ein.
Falsch und die Begründung lieferst du sogar noch selbst.
Ein Modul hat quasi ALLES nur einmal, außer der Integer-Einheit.
Die FPU und das Rechenwerk gibt es einmal. Wenn ein Integerkern nichts zu tun hat, dann bricht die Leistung um weniger als die Hälfte ein. Ist ja auch logisch der Teil der APU und des Rechenwerks, das vorher den zweiten Integerkern befeuert hat steht dann dem ersten Integerkern voll zur Verfügung.

Wenn der zweite Integerkern nicht genutzt wird, dann taktet der erste Kern hoch. Wenn man zwei Module hat mit jeweils einen hochgetakteten ersten Kern, dann kann AMD bei Singlecore oder dualcore Anwendungen punkten.
Denn die Sprungvorhersage und solche Feinheiten sind eben nur einmal pro Modul vorhanden - und genau diese "Feinheiten" sind das, wo die Rechenleistung heute noch gesteigert wird. Und zwar ohne die Leistungsaufnahme großartig zu steigern.
Falsch, eine Integereinheit macht nur zirca 10% des Strombedarfs eines Prozessors aus. Sprich ein Modul braucht nur 10% mehr Strom als ein Singlecore. Im besten Fall steigert der zweite Integerkern die Leistung des ganzen Moduls um 80%. 80% mehr Leistung gegen einen um 10% gesteigerten Strombedarf. Ich klaue mir mal dein Fazit da es hier genau passt.

und genau diese "Feinheiten" sind das, wo die Rechenleistung heute noch gesteigert wird. Und zwar ohne die Leistungsaufnahme großartig zu steigern.
 
pipip schrieb:
HPC Master
Ja, das Video kenne ich, und von der "APU" die er redet, enspricht am ehesten Llano. Doch um korrekt zu sein ist Llano noch keine richtige APU.... Und deshalb ist noch nicht der Unterschied für 0815 User vorhanden.
Vom HSA-Programm war zu der Zeit noch nicht mal die Rede... Somit ist das jemand, der die APU aus Intel sicht betrachtet, eine CPU+igp und nicht als Einheit CPU+ Co-prozessor/Teil des Prozessor.
Aber Intel findet die igp ja so unnütze, so dass man die igp bei IB und Haswell hochpimpt.
Denn eine APU soll nämlich nicht nur eine CPU + igp sein.
Aber das ist genau die Ansicht einer APU die du vertrittst, genau das Missverständnis.

Frage, wieso verwendest du eigentlich eine NV-Karte zur Beschleunigung ?? Brauchst das Teil somit doch nur für die Bildausgabe.

Accelerated steht für beschleunigt.
Das heißt eine APU wird aufgaben einer CPU weiterhin übernehmen, und die igp wird nicht nur dazu da sein ein Bild auszugeben. Sondern sie ist dazu da, um Anwendungen wo die CPU lahmt zu beschleunigen.
Sobald gpu compute context switching und CPU und GPU Register und Adressraum völlig Teilen, wird kein Unterschied mehr zwischen CPU und GPU gemacht.
Die igp wird dann quasi zum instruction set.

Vllt hätte man es lieber ACPU nennen sollen xD
Tja, dann kann man AMD lediglich den Vorwurf machen, warum Llano schon als APU vermarktet wird, im Prinzip aber garkeine ist. ;)

Ist letztlich aber völlig egal. Am Ende wird entscheidend sein, wer mit der "echten Fusion" als erstes auf den Markt kommt. Mit Haswell wohl noch nicht, aber allerspätestens mit Skylake wird Intel vermutlich auch Teile ihrer MIC-Forschung / LRB* als Grafikeinheit ins Package einfließen lassen und ggf. direkt x86-Code ausführen können.
 
Simon
Bin der gleichen Überzeugung. Die jzigen Igps die Intel integriert sind für mich nur Alibi teile. Denk auch dass man dieses ManyCore Konzept aufgreifen wird.

Die Frage ist nur, was ist effizienter ^^ Falls es die AMD APU ist, wäre es für Intel auch egal, immerhin können sie vieles mit der Fertigung kompensieren.
 
@pipip

Ein deutlicher Schritt Richtung "Fusion" ist Intels AVX bzw. erst AVX2 (technisch sehr interessant) in Haswell. Die "Fusion" ist letztendlich nichts weiter als ein Prozessor, der einen Kompromiss aus geringer Latenz und hohem Durchsatz darstellt. Für Intel ist es sinnvoller, die CPUs dahingehend zu verändern, dass sie Aufgaben einer GPU übernehmen.

Und das Wort "Kompromiss" sollte man bei dieser Sache nicht vergessen...

Warum sind die jetzigen IGPs Alibiteile? In meinem Notebook, welches mir mein Arbeitgeber stellt, ist eine HD3000 drin und die reicht für alle Arbeiten... von Exel über Minitab bis zu den verschiedenen Entwicklungsumgebungen. Für CAD gibt es CAD-Workstations.

PS: AVX 1&2 kommen aus dem LRB-Projekt.
 
Zuletzt bearbeitet:
Warum sind die jetzigen IGPs Alibiteile?
=>
die CPUs dahingehend zu verändern, dass sie Aufgaben einer GPU übernehmen.

Was damit meinte, es kann sehr gut sein dass die IGPs momentan Platzhalter sind bei Intel.
Hab ja nicht gesagt dass die schlecht sind^^
 
Zuletzt bearbeitet:
Also bei nem Lappi ist die Cpu performence was Mansche Spiele angeht meist aureichend,nur die Grafik hatte nie genug Power,das find ich das schon echt Lobenswertwas AMD grad so bringt..
 
Solange die APU so wenig verbraucht wie drauf steht und die erwartete Leistung liefert ist es mir vollkommen egal wie viele Kerne die hat.

Erscheint am 15ten auch die 17Watt Version?
Wann kann man mit den ersten Lowvoltage Ultrathins rechnen?
 
Wintel schrieb:
....


Klar muss man das, allerding sieht es Margen und Einnahmemäßig für AMD in letzter Zeit deutlich besser als in den vergangenen 5 Jahren aus, insofern wird AMD wohl jetzt mit neuer Führung genau da weitermachen.
Mit dem Fokus sicherlich mehr auf APU, aber keinesfalls komplett, AMD muss -so denke ich- in allen Bereichen zumindest noch konkurrenzfähig vertreten sein.

Deine Ansicht finde ich sehr abenteuerlich, aber gut, jedem das seine.
......

Was ist daran abenteuerlich wenn man die Reißleine zieht in einem Feld das seit Jahren nur rote Zahlen schreibt und sich dafür auf ein Feld mit sehr guten Zukunftsaussichten konzentriert? Das ist ein völlig normaler Vorgang in der Wirtschaft. Mir erscheint es eher abenteuerlich weiterhin Milliarden in R&D und Marketing zu pumpen um halbwegs hinter Intel her hecheln zu können als die Milliarden in ein Gebiet zu investieren wo man noch wirklich was erreichen kann.
 
terraconz
Frage, AMD will sich ja auf CLOUD, Mobility konzentrieren. Eigentlich waren es 3 unterpunkte egal.
Die FX Modelle kommen ja von den gleichen Masken wie die Opterons.
Woher weißt du dass sich die Dinger nicht verkaufen ?? hast du zahlen ? Allein in meinen Freundeskreis haben 6 Leute einen FX...
Was soll AMD mit den DIEs machen die sich nicht als Server verkaufen lassen ?? Wegschmeißen.
Theoretisch lässt AMD ja nur Masken für Notebook und Server produzieren (wenn man es aus strategischen Sichtpunkt sieht)
Nur ein Teil der vllt manche Spezifikationen nicht einhält werden dann noch mal am Desktop vermarktet wo es dann weniger ein Problem ist.
 
Tja... CPU-power intressiert doch keine Sau mehr ...das ist realität .Jeder CPU ist ausreichend Heute
Aber Grafik ??? Da sieht die Welt ganz anders aus ...und da ist AMD spitze :-)

CPU verkommt zu einer schnöden Chipsatz ..und mehr nicht ...
 
Zurück
Oben