News Weitere Details zu AMDs „Kabini“ sickern durch

@Elkinator

Na ja, ein i5 3317u @1,7 (Turbo SingleCore bis Ghz 2,6 Ghz) Dualcore ist im Cinebench R10 (Multicore) so schnell wie ein Phenom X4 @2,3 Ghz. Ein E-1800 hat nicht einmal ein drittel der Leistung (in diesem Fall). Mit 4 Kernen wäre er bei knapp über der Hälfte... noch etwas mehr IPC dazu. Die Leistung wäre dann nicht schlecht, aber die Intel ULV solltest du nicht unterschätzen. Und bei einer CPU ist eben geringe Latenz sehr wichtig.
 
Zuletzt bearbeitet:
2L84H8 schrieb:
Das ist mir bewusst. Ich wollte damit nur aussagen, dass es für OpenCL eben bereits auch leistungsfähigere Alternativen in Form von Grakas gibt. AMD möchte mit den Trinitys und OpenCL-Software zu den intel-CPUs aufschliessen. Das geht im Prinzip. Nur läuft OpenCL halt nicht nur auf den APUs sondern auch auf anderer Grafikhardware.

Wie hier aber auch schon gesagt wurde frisst bei solchen Karten der Datentransfer zwischen Haupt- und GPU-Speicher alle Vorteile wieder auf. Auf der APU läuft das durch die MMU als Zerocopy. Für Kurze Berechnungen mittels OpenCL sind die APUs im Vorteil.



2L84H8 schrieb:
OpenCL-Software ist es so ziemlich egal, wo sie drauf läuft. Daneben sieht eine APU (leistungsmässig) im Moment SEHR mickrig aus. OpenCL ist eben OPEN und nicht auf irgendwelche Hardware bzw. .... Deshalb ja auch die Entwicklung von OpenCL als gemeinsamen Standard für alle Hersteller.

OpenCL, ist wie OpenGL, Plattform unabhängig aber Hardware abhängig. Ein OpenCL Kernel, der auf AMD Karten extrem schnell ist kann auf einer Nvidia GPU sogar langsamer sein als die CPU. Bei OpenGL fällt es über die Jahre nicht so auf aber bei OpenCL ist der unterschied schon noch extrem. Du musst deswegen oft die Arbeit mehrmals machen um auf jeder Hardware das bestmögliche Ergebnis zu erzielen.
 
Zuletzt bearbeitet:
wie schaut es bei cinebench aus wenn man beim i3 sse4 und avx (falls das genutzt wird) nicht verwendet?
kabini ist dem phenom bei den befehlssätzen ja überlegen.
 
calluna schrieb:
@Elkinator

Na ja, ein i5 3317u @1,7 (Turbo SingleCore bis Ghz 2,6 Ghz) Dualcore ist im Cinebench R10 (Multicore) so schnell wie ein Phenom X4 @2,3 Ghz. Ein E-1800 hat nicht einmal ein drittel der Leistung (in diesem Fall).

Erstens ist Cinebench kein Masstab. Da es rein auf der FPU läuft und welche Software ausser Games
nutzen schon hauptsächlich FPU? So gut wie nichts!
Daher ist es mir unbegreiflich dass dieser Schwachsinnsbench immer noch als Leistungsmesser herangenommen wird. Denn wer eine Stromspar CPU sucht, der braucht kaum was zum Gamen.

Und zweitens du glaubst ja wohl nicht ernsthaft, dass ein Singlecore stromspar Sandy ohne seine Befehlssätzerweiterungen wie SSE 4.1, 4.2 oder AVX auch nur einen Hauch von Chance gegen einen Phenom Quad hat? :lol:

Vergleich das Ganze mit einem Llano der ähnlich aufgebaut ist wie der Phenom, ohne L3 aber mit SIMD Erweiterungen und der Sandy wird verhungern.

Diese Befehlssätze und noch mehr wird auch Kabini unterstützen.
 
Zuletzt bearbeitet:
Simon schrieb:
Der Vergleich mit den 15W-Haswells zieht allerdings nur bedingt, da selbst ein Quad-Core-Kabini auf 2,0 GHz in der CPU-Performance völlig chancenlos gegen einen Dual-Core (oder im Zweifelfall gar Single-Core) Haswell sein wird.
Nö, es ist nicht chancenlos.
Die Diskussion der Post-PC-Ära bekräftigt eben, dass die CPU-Performance für die meisten mehr als ausreichend ist, was eben die CPU-Only-Denker nicht verstehen.
Der Erfolg der Tablets bzw Misserfolg von Netbooks zeigt eben, dass Akku-Zeiten bzw. Grafik-Qualität/Leistung für die Masse sehr wichtige Kriteriums sind, die hier nur als nebenbei-Feature angeheftet wird und nicht als Performance. Und genau das könnten (SoC9 bzw. sind (DX11.1) die Stärken von Kabini.

Ich selbst hatte vor Paar Monaten ein Core i5-Ive-Bridge-Notebooks mit mainstream GPU + Win7 + Win8, Bluethoot 4.0 und 2 USB 3.0 Buisness-Book um 600$ gekauft, weil a) es in der Aktion paar Hundert Euro billiger war als wenn ich es Sonst kauft und b) ich Maximal 500-600 Euro ausgeben wollte.
Ich musste ziemlich lachen, als dieses Intel-Notebook langsamer Windows startete als mein voriges 2.PC = Notebook (Single-Core-K8/Puma-WinXP), welches von mir Software-Optimiert war. AutoCAD und Photoshop konnte ich genauso arbeiten, auch wenn man ab einer bestimmten Größen bzw. Fortschritt einer monatenlangen Arbeit dann die CPU-Grenzen spürte, aber man noch arbeiten konnte.

Falls der Kabini 2,0 Ghz-Quad haben sollte, wäre er sicher auch in Single-Thread etwas bis nicht unerheblich schneller als mein altes 2. Notebook. Das Problem ist eher, dass die Masse grundsätzlich NICHT (immer wieder) mit Profi-Programmen arbeiten muss.

Selbst bei WinRAR sehe ich die CPU-Performance bei weiten nicht so wichtig, weil die Verwaltung und Übertragung (USB) bzw. die HDD einen viel größeren Anteil an Zeit verbrauchen, weshalb ich mit CPU-Schwache CPUs recht leicht auskommen kann und solche grundsätzlich habe.

Solange die meisten Notebooks noch mit HDD ausgestattet sind, ist in Alltag für die Masse der CPU-Unterschied kaum/nichteinmal zu spüren. Nicht umsonst haben alle Tablets eine SSD.

Der Vergleich mit den 15W-Haswells zieht allerdings nur bedingt, da selbst ein Quad-Core-Kabini auf 2,0 GHz in der CPU-Performance völlig chancenlos gegen einen Dual-Core ...
Chancenlos wird aber auch der Preis des Kabini sein.
Wir warten schon seit 2 Jahren auf den Ultrabook-Durchbruch. Damals noch mit 1000$-Ultrabooks, was nicht im Markt angenommen wurde, aber in Zukunft vielleicht mit 500-750$ Ultrabooks.

Ich fand es witzig, wie viele Haswell wegen S0ix verherrlichten, aber das SoC bei Kabini schon fast nicht zur Kenntnis nehmen, obwohl mit SoC viel mehr Stromspartechniken möglich sind. Dazu hat Kabini nur Single-Channel, sodass es keine Überraschung wäre, wenn Kabini bessere Idle-Akku-Zeiten hätte wie ein Haswell-15W-MCP-Dual-Channel. So wie halt Netbooks immer schon bessere Akku-Zeiten hatten als Normale Notebooks.

Mit dem was man jetzt schon über Kabini weiß, wird Kabini noch immer ziemlich unterschätzt. Mit einem möglichen 18W-2,0Ghz-Quad und möglichen 128 Shader wäre die Unterschätzung noch viel größer.

Edit: Schon wieder habe ich HSA vergessen.
Und mit APP 2.8 (CodeXL 1.0) hat sich die OpenCL-Software-Entwicklung seit Dez 2012 wieder deutlich verbessert, sodass man die ersten Software-Ergebnisse daraus schon mit der HSA-Hardware-Einführung erwarten kann. Natürlich kann man mit einer Intel-CPU und Nvidia-GPU genauso gegen eine AMD-APU @ OpenCL konkurrieren, wie es hier im Thread schon gesagt wurde. Aber warum immer dann die Kosten bzw. Euro-pro-Leistung immer dann keine Rolle spielen, wenn AMD vorne liegt, ist mir halt immer "ein Rätsel".

PS: Lustig, wie Kabini, welches eigentlich ein Low-End-Produkt ist, mit einem 15W-Haswell-Top-Produkt schlechtgeredet wird.
 
Zuletzt bearbeitet:
@modena.ch

1. Die gute Leistung bei Sandy Bridge liegt nicht einfach an den Befehlssätzen, sondern am gesamten Design, vor allem am Frontend (mit solchen technischen Details solltest du dich erst einmal befassen!).

2. Dementsprechend wird bei Cinebench auch nicht einfach nur die Leistungsfähigkeit der FPU-Ausführungseinheiten gemessen, da diese Ausführungseinheiten nur ein Teil der 14 stufigen Pipeline sind. (Davon abgesehen: nicht nur Games profitieren davon... du hast sehr simple Vorstellungen.)

3. AVX findet bisher kaum Anwendung. Und die Leistungsvorteile durch AVX sind von der Implementierung abhängig. (Zumal ich von Cinebench R 10 gesprochen habe, nicht von R 11.5)

Und ich glaube nichts, es gibt Dinge, die lassen sich messen.

@aylano

Versuch mal etwas sachlicher zu sein. Zum Beispiel sollte dir dein Sachverstand sagen, dass die Dauer des Bootvorganges nicht nur von der CPU abhängig ist.

PS: Wer redet hier Kabini schlecht? Ich finde, es gibt hier einige Leute, die eine etwas seltsame Wahrnehmung haben (und zu viel in irgendetwas hineindeuten, was nicht gesagt wurde), was sich auch in der Sprache niederschlägt. Zum Beispiel benutzt du Worte wie "verherrlicht" - in Zusammenhängen, in denen das eher seltsam ist.

PPS: Euro-Pro-Leistung spielt immer dann eine Rolle, wenn jemand Wert darauf legt.
 
Zuletzt bearbeitet:
bei cinebench war es früher aber jedenfalls so das bei einer amd cpu nicht alle verfügbaren befehlssätze benutzt wurden, bei dem benchmark schneiden amd cpus immer deutlich schlechter ab als bei anderen benchmarks.
 
@Elkinator

Wann ist Früher? Der CR10 war nur ein Beispiel. Bei CR11.5 sieht es nicht anders aus, oder Sysmark 2012, Spiele (die ich übrigens für gute Benchmarks halte, da Spiele - je nach Spiel - eine Sammlung an verschiedenen Problemen sind, die eine CPU unterschiedlich fordern). Sicher gibt es einzelne Fälle, bei denen die Leistung deutlich besser ist.

Damit wir uns nicht falsch verstehen: Ich finde, die Leistung ist für dieses Produkt und bestimmte Anwendungsfälle gut. Man sollte eben wissen, was man benötigt.

Ansonsten... für die "Masse" gilt: Markenpflege ist wichtiger als technische Überlegenheit. Das hat man bei AMD bis heute nicht begriffen.
 
Zuletzt bearbeitet:
am besten ist wenn amn einfach abwartet wie hoch kabini getaktet wird und ob das mit 15% mehr IPC stimmt.
aber ich glaube schon das es möglich wäre, dass ein quad mit 2ghz gegen einen haswell mit 2x 1,5ghz halbwegs gut mithalten kann.
 
@calluna

Erwiesenermasen wird Cinebench (auch die 10 und 11) vor allem auf der FPU ausgeführt.
Und wie schon gesagt, dass machen eigentlich nur Games so. Alles Andere eher weniger.

Weiterhin Cinebench 10 profitert deutlichst von SEE 4.1 und 4.2 und das kann der Phenom schlicht nicht.

Also so oder so, Cinebench ist eine denkbar schlechte Wahl um Prozessoren miteinander zu vergleichen
und in diesem Fall ist wegen der fehlenden SIMD Befehle beim Phenom eine doppelt schlechte Wahl.

Zusätzlich weiss ich sehr gut ,dass bei Sandy vor allem der Frontend deutlich verbreitert wurde.
Und weiss auch wie der Leistungszuwachs zum Vorgänger aussieht.


Aber je nach Software (ein paar unterstützte Threds und vielleicht noch nicht SIMD ab 4.1)
sieht ein Sandy Singlecore ganz klar und logischerweise kein Land gegen einen nativen Quad.
Auch wenn der eine nicht sooo hohe IPC hat.

Von dem her, schon Brazos schlägt sich gut als HTPC Proz oder auch in Netbooks und im schlimmsten Fall
in einem kleinen Bürorechner. Wenn Kabini bei gleicher TDP noch 10% mehr IPC bekommt und noch etwas mehr Takt,
doppelt soviel Cache und dazu noch doppelt soviele Kerne langt das lockerkinderleicht für HTPC bis zu Officekiste.

Und wir sollten uns bewusst sein, das sind preislich mit ATOM vergleichbare Prozessoren und ein LowPower
Sandy/Ivy/Haswell kostet ein Vielfaches. Daher ist der Vergleich schon mal nicht so fair.

Sandy/Ivy/Haswell dürfte etwas mehr Leistung bieten als selbst der Quad Kabini.
Aber wozu? In dem Bereich ist mir die GPU viel wichtiger.
 
Zuletzt bearbeitet:
2L84H8 schrieb:
Ich kann mich auch noch gut an Matrox erinnern. Die waren mal (unter Windows) für einen sehr guten Treiber und exzellenten Support bekannt. Zeitweise gab es auch einen recht guten Open-Source-Treiber für Linux. Damals hat manch einer auch über die Hardware-Leistung hinweggeschaut, weil der Treiber eben einfach top war. Das ist aber schon lange Geschichte und Matrox ist völlig in der Bedeutungslosigkeit verschwunden. Nicht nur wegen der überhaupt nicht mehr konkurrenzfähigen Hardware, sondern auch, weil der Treibersupport mittlerweile schon fast legendär MIES ist.

Es zählen eben nicht immer nur "harte" Fakten (=>HW), sondern auch die "weichen" Faktoren (=>SW).

Ja gerade am Beispiel Matrox kann man sehr gut erkennen wie wichtig offene Treiber sind, habe mir mal 1-2 so karten bei Ebay geholt wo die schon eigentlich nicht mehr so aktuell waren, aber gut das waren sie wohl auch zu dem Zeitpunkt nicht als sie raus kamen ^^. Wobei war immerhin schon pci-e glaub... auf jeden fall gabs da ja so berichte das die 2d-bildqualität da wohl besser sein solle und dazu waren sie halt passiv und relativ stromsparend...

aber zurück zum treiber, das Problem war das es zwar eine art von Opensource Treiber gab, aber damit nur sehr basale Features liefen... für diesen opensource Treiber gab es aber eine Art closedsource Bibliothek, genannt HAL also "Hardware Abstraction Layer", wenn man die mit benutzt hatte, bekam z.B. so Features wie das über den DVI Ausgang ein Bild kam.

Nun hatte meine version der karte nur 2x DVI ausgang habe sie extra dafür gewählt für ein Dualhead setup. Nun hatte aber wohl Matrox keine Lust mehr für die Karten support zu geben... das Problem dann war das mit neueren Kerneln und Xservern dieses ganze Konstrukt nimmer lief.

Es wurde dann noch versucht quasi diesen Treiber mit dem HAL Zeug von einem 3. zu portieren auf neuere Kernel und XServer versionen. Aber weil der Treiber eben nicht wirklich opensource war wurde er nie so richtig weder in Kernel noch in Xorg integriert.

Daher lief es dann irgendwann darauf hinaus, entweder ich bleibe ewig bei der gleichen Distributions-version stehen oder ich bekomme kein Bild mehr. Ja und neue Features und 3d Desktop (was von der Hardware her machbar gewesen wäre), wurde aus diesem Grund natürlich auch nie integriert... da dies dank des halb closedsource treibers und den fehlenden offenen spezificationen der Karte nur mti erheblichem Aufwand gelungen wäre (Nouvou).



Das Problem bei Intel ist aber das eben nicht alle gpus von denen dieses Hardware-encoding unterstützen... und ich müsste das nochmal genauer nachschauen aber etwas in nem ähnlichen Preisrahmen und eventuell auch stromverbrauchsrahmen wie die Zacate Systeme das dieses Feature unterstützt gibts soweit ich weiß von Intel nicht.

Daher hoffe ich momentan primär auf Arm systeme zumal Android und Arm von der Technik her eh am interessantesten sind 2-3 Tage laufzeit sind halt selbst mit nem Intel Atom noch in weiter ferne...
 
calluna schrieb:
Na ja, ein i5 3317u @1,7 (Turbo SingleCore bis Ghz 2,6 Ghz) Dualcore ist im Cinebench R10 (Multicore) so schnell wie ein Phenom X4 @2,3 Ghz. Ein E-1800 hat nicht einmal ein drittel der Leistung (in diesem Fall). Mit 4 Kernen wäre er bei knapp über der Hälfte... noch etwas mehr IPC dazu.

1. Cinebench R10 (dessen Softwarebasis 2006 aktuell war) sowie R11.5 (2009) wurden für die damals aktuellen Architekturen von Intel optimiert - ausschließlich. D.h. diese Programme sind für Vergleiche zw. Intel- und AMD-Prozessoren vollkommen ungeeignet.

2. Jaguar verfügt über zwei 128bit Pipelines in der FPU, Bobcat nur über zwei 64bit Pipelines. Den Rest kannst Du Dir nach ein wenig Recherche selbst zusammenreimen.

3. Sysmark hat eigentlich jede Relevanz verloren. Darf ich Dich daran erinnern, dass AMD, VIA und Nvidia nahezu zeitgleich und unabhängig voneinander das Bapco-Konsortium verlassen haben. Die Auswahl der integrierten Benchmarkprogramme (nachlesbar auf der Homepage) für die aktuelle Version von Sysmark 2012 erscheint mir wie ein Witz.

4. Ich möchte Dir nicht zu nahe treten, aber Spiele als gute Benchmarks zu bezeichnen, ist nicht nur gewagt, sondern naiv. Die Relevanz eines Benchmarks steht oder fällt mit dem Grad der Softwareoptimierung sowie der Wahl des Compilers (geeignet/ungeeignet). Gute Benchmarks wären bspw. die der SPEC, oder andere geeignete quelloffene Testprogramme, aber keine Spiele.
 
calluna schrieb:
@aylano

Versuch mal etwas sachlicher zu sein. Zum Beispiel sollte dir dein Sachverstand sagen, dass die Dauer des Bootvorganges nicht nur von der CPU abhängig ist.
Wer Sachverstand hätte, hätte auch den Zusammenhand zwischen den von mir öfters erwähnten HDD und Bootvorgang verstanden.
Und dann noch den Oberlehrer zu spielen und anderen zu erklären, dass die HDD neben CPU eine wesentliche Rolle ist, ist nicht nur lächlich sondern überheblich.

Viele vergessen mit ihren Balkenvergleichen die Realität. Und die lautet, dass die meisten Notebooks noch immer mit HDD ausgeliefert werden. Für die Masse bringt eben der achsotolle-CPU-Vorsprung nicht, wenn bei der Masse die HDD limitiert.

Deshalb musste ich ja so lachen, wie langsam ein aktueller üblicher Ive-Bridge-Notebook mit üblichen Software-Müll ist, während hier "Experten" mit ihren CPU-Performance-Balken und Teeny-Progammen eine völlig andere Welt beschreiben. Das Know-How der eigenen Software-Optimierung und SSD-Aufrüstung haben die aller wenigsten. Und schon gar nicht jene, denen ich eine CPU, GPU sowie Intel & AMD erklären muss.

Genau an dieser Problematik ist übridgens die momentane PC-Flaute und zweijährige Ultrabook-Flaute und somit die gerade eben enstandene Post-PC-Ära-Diskussion zu erklären.

PS: Wer redet hier Kabini schlecht? Ich finde, es gibt hier einige Leute, die eine etwas seltsame Wahrnehmung haben (und zu viel in irgendetwas hineindeuten, was nicht gesagt wurde),
Lass dir vielleicht von jemand anderen erklären, wie Kabini z.B. in meinem Zitat schlechtgeredet wurde.
Es gibt ja nicht umsonst den Spruch: "Wer es nicht versteht, der (be)lehrt es"

was sich auch in der Sprache niederschlägt. Zum Beispiel benutzt du Worte wie "verherrlicht" - in Zusammenhängen, in denen das eher seltsam ist.
Und was ist jetzt daran so seltsam, wenn ich dieses Wort selten benutze?
Seltsam ist eher, wenn Leute den Zitat-Inhalt inhaltlich völlig anders verstehen und anderen die Welt erklären.

Elkinator schrieb:
am besten ist wenn amn einfach abwartet wie hoch kabini getaktet wird und ob das mit 15% mehr IPC stimmt.
aber ich glaube schon das es möglich wäre, dass ein quad mit 2ghz gegen einen haswell mit 2x 1,5ghz halbwegs gut mithalten kann.
Man könnte es sich schnell überschlagmäßig ausrechnen.

Bobcat hat 0,18 Multi-Chinebenche 11.5-Punkte pro Ghz (=Bobcat-Core-Leistung)
Bobcat-Core-Leistung * Kernen-Anzahl * Ghz * Jaguar-IPC-Steigerung
0.18 * 4,0 * 2,0 * 1,15 = 1,66 Multi-Punkte

Ive-Bridge hat 0,55 Multi-Chinebenche 11.5-Punkte pro Ghz (=Ivebridge-Core-Leistung)
Ivebridge-Core-Leistung * Kernen-Anzahl * Ghz * Hasswell-IPC-Steigerung
0.55 * 2,0 * 1,5 * e = 1,65*e Multi-Punkte

Dein Glaube belügt dich nicht.
Ich weiß nicht, wie du auf 2x1,5 Ghz kommst, aber gegen so einen Hassewell würde Kabini @ Multi-Thread gefährlich nahe kommen, falls dieser in 2,0Ghz-Quad-From kommen sollter. Der Unterschied würde dann die IPC-Hassell-Steigerung entsprechen.

HSA wird ja nicht nur wegen Performancesteigerungen interessant, sondern auch im Bezug auf Stromspar-Potentiale (Weniger Einheiten & kürzere Verbindungswege) sowie Stromspartechniken (Abschaltung von weiteren Einheiten).
Bei Trinity sah man schon in vielen Test, umwieviel besser dieser Postiv bewertet wurde, nur weil es mit so +20% längeren Akku-Zeiten auf Intels Niveau aufschließen konnte, während die CPU-Performance & Effizienz daumen mal Pi gleich geblieben ist.

Einen neuen Schub der HSA-Entwicklung wird sicher durch APP 2.8 und CodeXL 1.0 seit Dez 2012 bekommen haben, auch wenn es einige Seiten nicht wert war darüber zu schreiben.
 
Zuletzt bearbeitet:
nille02 schrieb:
Wie hier aber auch schon gesagt wurde frisst bei solchen Karten der Datentransfer zwischen Haupt- und GPU-Speicher alle Vorteile wieder auf. Auf der APU läuft das durch die MMU als Zerocopy. Für Kurze Berechnungen mittels OpenCL sind die APUs im Vorteil.

OpenCL, ist wie OpenGL, Plattform unabhängig aber Hardware abhängig. Ein OpenCL Kernel, der auf AMD Karten extrem schnell ist kann auf einer Nvidia GPU sogar langsamer sein als die CPU. Bei OpenGL fällt es über die Jahre nicht so auf aber bei OpenCL ist der unterschied schon noch extrem. Du musst deswegen oft die Arbeit mehrmals machen um auf jeder Hardware das bestmögliche Ergebnis zu erzielen.

Als ich in einem anderen Thread mal gesagt hatte, dass gewisse Games auf bestimmte Hardware optimiert sind bzw. eben auf AMD bzw. NVidia besser laufen und vice versa, da hat man mich fast in der Luft zerrissen.

Du hast aber nicht unrecht. Häufig liegen die entscheidenden Unterschiede in der Programmierung. Dass sowohl AMD wie auch Nvidia exzellte Grafik-Hardware bauen können, ist sowieso unbetritten.

Ein paar Post weiter habe ich noch die Frage gestellt, wie es denn bei der HSA-Programmierung mit C++ aussieht. Man soll ja angeblich schon mit Trinity die HSA-Architektur mit C++ nutzen können. Frage mich halt, wie universell solcher Code ist bzw. ob solcher C++ Code einfach nur für die HSA-Architektur taugt.

Da Du ja anscheinend das eine oder andere über HSA, OpenCL und GPGPU weisst, wäre es evtl. eine gute Sache, wenn Du mal dazu bzw. zu den Unterschieden in der Programmierung einen Thread startest. Würde mich auf jeden Fall freuen (und mich beteiligen). Hab bisher hier noch keinen Thread dazu gefunden. Du meisten auf CB sind nach wie vor an der Gaming-Performance interessiert und das spielt OpenCL im Moment noch keine wirkliche Rolle.

aylano schrieb:
Edit: Schon wieder habe ich HSA vergessen.
Und mit APP 2.8 (CodeXL 1.0) hat sich die OpenCL-Software-Entwicklung seit Dez 2012 wieder deutlich verbessert, sodass man die ersten Software-Ergebnisse daraus schon mit der HSA-Hardware-Einführung erwarten kann. Natürlich kann man mit einer Intel-CPU und Nvidia-GPU genauso gegen eine AMD-APU @ OpenCL konkurrieren, wie es hier im Thread schon gesagt wurde. Aber warum immer dann die Kosten bzw. Euro-pro-Leistung immer dann keine Rolle spielen, wenn AMD vorne liegt, ist mir halt immer "ein Rätsel".

PS: Lustig, wie Kabini, welches eigentlich ein Low-End-Produkt ist, mit einem 15W-Haswell-Top-Produkt schlechtgeredet wird.

Ich hätte mir sicher keinen A10-5700 geholt, wenn mich das Produkt nicht überzeugt hätte. Gerade bei den Budget-Produkten bietet AMD einfach das "komplettere" Paket. Nur schon die AES-NI-Unterstützung der Trinitys war ein wichtiger Grund für mich. Bei intel bekommt man bis und mit i3 nur stark kastrierte Funktionaliät. Soweit mir bisher bekannt, soll ja auch Kabini bzw. allen kleinen APUs mit Piledriver-Kernen alle bisher üblichen Befehlsatzerweiterungen unterstützen.

Mir ging es bei den Aussagen zur OpenCL-Leistung vor allem um die effektive Leistung, sprich dass z.B. eine GK110-GPU (oder auch deutlich "kleinere" diskrete GPUs) halt mehr auf die Strasse bringt als die bisher beste APU. Bei den APUs ist es im Moment ja vor allem die Chipfläche, der Fertigungsprozess und die Leistungsaufnahme, welche die Leistung limitiert. Man darf auch nicht vergessen, dass die aktuellen APUs im Budget-Bereich angesiedelt sind. Dafür und für den Preis ist die Leistung dann wirklich sehr beachtlich. Genau deswegen hab ich ja jetzt ne A10-5700 APU (und bin sehr zufrieden damit).

blackiwid schrieb:
Ja gerade am Beispiel Matrox kann man sehr gut erkennen wie wichtig offene Treiber sind, habe mir mal 1-2 so karten bei Ebay geholt wo die schon eigentlich nicht mehr so aktuell waren, aber gut das waren sie wohl auch zu dem Zeitpunkt nicht als sie raus kamen ^^. Wobei war immerhin schon pci-e glaub... auf jeden fall gabs da ja so berichte das die 2d-bildqualität da wohl besser sein solle und dazu waren sie halt passiv und relativ stromsparend...

aber zurück zum treiber, das Problem war das es zwar eine art von Opensource Treiber gab, aber damit nur sehr basale Features liefen... für diesen opensource Treiber gab es aber eine Art closedsource Bibliothek, genannt HAL also "Hardware Abstraction Layer", wenn man die mit benutzt hatte, bekam z.B. so Features wie das über den DVI Ausgang ein Bild kam.

Also manchmal schiessen sich die Hersteller schon selber ins Knie. Der damalige Open-Source-Treiber für (alte) Matrox-Karten war nach heutigen Massstäben wirklich nicht so gut. Aber damals war er vergleichsweise interessant. Matrox hätte das Projekt viel besser unterstützen sollen. Später gab es ab den Parhelias überhaupt keine Open-Source-Treiber mehr, dafür dann aber immer bessere Treiber für die Konkurrenz.

Wenn Matrox sich wirklich zu offenen Treibern bekannt hätte, dann wäre die Firma heute noch (trotz lahmer HW) im Open-Source-Bereich beliebt. Zudem würden sich dann die alten Produkte unter Linux fast wie "von allein" supporten, sprich Matrox müsste es nicht selber machen und ein paar Enthusiasten erledigen den Job umsonst.

Ich sehe gerade bei gewissen Audio-Treibern, wie wichtig und gut Open-Source-Treiber sein können. Ich kann bspw. diverse ältere (und klanglich sehr gute!) Audio-Karten problemlos unter Linux betreiben, da es für die verwendeten Audio-Chips schon lange gute Open-Source-Treiber gibt. Unter Windows gab es für gewisse Karten nie anständige Treiber bzw. der Support wurde früh eingestellt. Dieselbe (sehr gute) Hardware wird mir unter Linux weiterhin sehr gute Dienste leisten. Ich hab grad heute wieder für einen Pappenstiel eine ältere Soundkarte der gehobenen Klasse ersteigert und werde sie noch heute abholen.. Das Ding hat wechselbare Opamps und hat mal ein kleines Vermögen gekostet. Betrieb unter Linux sollte kein Problem sein.
 
@aylano

Ich habe nichts von einer HDD geschrieben, sondern von "...nicht nur von der CPU". Das MB etc. spielt da ebenso mit hinein.

Ich musste noch nie über solche Dinge lachen. Anscheinend nimmst du das alles etwas zu ernst.

@Fantasio

Ich habe keinen Bobcat mit irgendetwas verglichen.

Ob Sysmark irgendeine Relevanz hat, ist mir egal. Meine Aufzählung ist nicht vollständig, sondern nur beispielhaft, ebenso ist Cinebench nur ein Beispiel, doch wie sieht es bei 3dsmax / POV-Ray etc. aus? Nicht viel anders. Sicher, das ist für so eine CPU ohnehin ohne Relevanz, aber es war auch nur ein Beispiel in meiner Antwort an Elkinator, der gerne die Leistung einer 4 Kern Kabini CPU zu einem Haswell ULV Prozessor einschätzen würde.

Zu 4.: Sicher ist das gewagt, aber es ist ein gewisser Anwendungsfall, der durch normale Benchmarks nicht erfasst wird. Ich habe aber auch nicht gesagt, dass man allein darauf basierend etwas vergleichen soll. Ich persönlich finde das aber interessant, weil es ein bestimmter Anwendungsfall ist der eine CPU ganz anders fordert als andere Anwendungen.

@modena

Fast nur Spiele? In meinem Berufsumfeld (Ingenieur) gibt es sehr viele fließkommaintensive Anwendungen. Wer sich mit Bild/Video/Audio-Verarbeitung oder eben Rendering / 3D Modellierung befasst, hat ebenso einen Nutzen davon.

Und wie gesagt... die FP-Ausführungseinheiten sind nur ein Teil der 14 stufigen Pipeline. Allgemeine Stärken und Schwächen einer Architektur zeigen sich hier ebenso wie bei reiner Nutzung der Integer-Ausführungseinheiten.
 
Zuletzt bearbeitet:
PPS: Euro-Pro-Leistung spielt immer dann eine Rolle, wenn jemand Wert darauf legt.
Same Game mit Verbrauch in Last-Szenarien, besonders wenn es dann um Prozessoren geht, die für gewisse Anwendungen gar nicht gedacht sind.
Aber sicherlich lustig zu sehen, wenn man einem normal-User sagt, er sollte das Notebook nehmen weil rendern schneller und effizienter verläuft, dafür aber gleich mal paar 100 euro mehr hinblättern. Natürlich wird man aber dann länger erklären müssen was das überhaupt ist und ob das für die Person wirklich wichtig ist :D

Aber um es noch mal bewusst zu machen, wir reden von einem quasi 1 dollar Chip (Relation zu den INTEL oder AMD ULVs) der den Käufer trotzdem die ganze Palette anbietet. Sogar die Intel User sollten sich freuen, denn wenn so ein Chip die Ultrathin-like Notebooks wesentlich billiger macht und zu einem Verkaufsschlager wird wie sein Vorgänger, muss Intel auch dementsprechend reagieren. Damals als der e 350 auf den markt kam, wurden die ATOM Chips schlaghaftig um die Hälfte billiger.
Weiteres möchte ich erwähnen das Bobcat der meist abgesetzte Prozessor von AMD ist (soviel ich weiß)

Markenpflege ist wichtiger als technische Überlegenheit
Das trifft leider sogar für Klopapier zu :/
Vllt sollte ich im herbst Blätter einsammeln gehen und das dann beim Supermarkt als Bio-Toilettenpapier verkaufen :D Das könnte ich dann mit BIO und Recycling vermarkten :D

Mir ging es bei den Aussagen zur OpenCL-Leistung vor allem um die effektive Leistung, sprich dass z.B. eine GK110-GPU (oder auch deutlich "kleinere" diskrete GPUs) halt mehr auf die Strasse bringt als die bisher beste APU

A10 5800k => 246 mm² in 32nm SoI (726 GFLOPS)
GK110 => 550 mm² in 28nm Bulk (GK110 i.e. Tesla K20 brings over 1.5TFLOPS )

Übrigens Kaveri hätte angeblich die erste APU mit 1 TFLOPS sein sollen, mal sehen was Richland so erreicht. Trotzdem der Vergleich hingt wahrlich (da man das nicht 1 zu 1 vergleichen kann) und sollte eher nur zeigen wie ungenau und unpassend das ganze ist.

Fast nur Spiele? In meinem Berufsumfeld (Ingenieur) gibt es sehr viele fließkommaintensive Anwendungen.
Dir ist schon klar, dass wir hier von einem günstigen Prozessor für die Masse sprechen ? der übrigens (höchstwahrscheinlich) billig sein wird.

FP-Ausführungseinheiten sind nur ein Teil der 14 stufigen Pipeline
FPU kann auch sehr bei der Aufgabenverteilung mitspielen, muss aber nicht.
Naja man kann sich nur freuen wenn HSA an Anwendung findet, denn die igp in form von GCN sollte mächtiger sein als die FPU.
 
Zuletzt bearbeitet:
@pipip

Dir ist schon klar, dass wir hier von einem günstigen Prozessor für die Masse sprechen ?

Ich habe aber nicht von einem bestimmten Prozessor gesprochen. Die Aussage von Modena war, dass FP Leistung hauptsächlich nur bei Spielen wichtig ist. Darauf habe ich geantwortet. Davon abgesehen habe ich selbst geschrieben (indirekt beim Thema Cinebench / 3dsmax), dass es für diese CPU nicht relevant ist.

Naja man kann sich nur freuen wenn HSA an Anwendung findet, denn die igp in form von GCN sollte mächtiger sein als die FPU.

Das ist vom Anwendungsfall abhängig. Deswegen ist deine Aussage so allgemein falsch. HSA ermöglicht es, eine IGP etwas unkomplizierter dann einzusetzen, wenn es sinnvoll ist. HSA ändert aber nichts Grundsätzliches an der "Natur" einer IGPU, denn das kann sich negativ auf das auswirken, wofür die IGPU nun einmal primär gedacht ist...

Würden wir hier von Autos reden, wäre eine CPU ein Sportwagen und eine GPU ein Schwerlasttransporter. ;-)
 
Zuletzt bearbeitet:
Nee ich war der Meinung das Cinebench fast nur auf der FPU läuft und das
ist eigentlich nicht mal bei Games der Fall. Und so extrem wie Cinebench macht das auch
keine Video/Audio/Renderingsoftware. Darauf wollte ich hinaus.

Wobei da noch bei halbwegs aktueller Software eh ein guter Teil über die SIMD Befehle abgewickelt
wird. Und somit auch hier die FPU-Leistung wieder nicht soooo extrem relevant ist.
Wobei wir noch gar nicht wissen, wie hoch die FPU Leistung der zukünftigen Jaguar Cores sein wird.

Und bei derartiger Software ist sowohl ein ULV Sandy/Ivy/Haswell wie auch Brazos oder Kabini der
völlig falsche Chip für den Workload.
 
Zuletzt bearbeitet:
Zurück
Oben