News Weitere Details zu AMDs „Kabini“ sickern durch

2L84H8 schrieb:
Mir ging es bei den Aussagen zur OpenCL-Leistung vor allem um die effektive Leistung, sprich dass z.B. eine GK110-GPU (oder auch deutlich "kleinere" diskrete GPUs) halt mehr auf die Strasse bringt als die bisher beste APU. Bei den APUs ist es im Moment ja vor allem die Chipfläche, der Fertigungsprozess und die Leistungsaufnahme, welche die Leistung limitiert.
Du hast da einen Gedankenfehler.
APU kann und wird nie gegen GK110 konkurrieren. (Na ja, vielleicht erst wenn eine oder zwei CU einmal zwischen zwei Integer-Cores und um einem FPU liegt und somit die iGPU im CPU-Core fusioniert ist. Aber sowweit will ich noch nicht denken)
Bei HSA-APUs sind die Wege zwischen iCPU und iGPUs wesentlich kleiner als CPU und dGPUs.
Dieses ZeroCopy hat schon jemand angesprochen und dies ist durch Unifed-Memory-Controller möglich, wo die Daten direkt genommen werden können, anstatt die Umwege über CPU-Memory-Controller und/oder GPU-Memory-Controller. Genau diese Nachteile der momentanen Umwege fressen die Vorteile fast vollständig weg.

Der Vorteil des eine, ist das Problem des anderen. Und diese GPGPU-Performance bekommt man bei AMD & Intel "gratis" im Low-End & Mainstream-Bereich, während Nvidia damit den überwiegenden Teil im Profi-Markt macht.
Natürlich hat Intel jetzt genauso "APU bzw. HSA". Aber wenn sich OpenCL & HSA das mehr und mehr durchsetzt, dann fällt eben der CPU-Anteil in Computing Performance, sodass diejenigen davon Porfitieren, die in CPU hinten sind und in GPUs vorne sind.

Da eben fast der gesamte Smarthphone & Tablet-Markt, der momentan sogar der Richtungsgebende Markt ist, in der HSA-Foundation sitzt und Intel (Integer+FPU+Larrabee) & Nvidia selber vollständig OpenCL unterstützen, ist eine breite OpenCL-Durchsetzung nur die logische Folge bzw. eine Frage der Zeit.

Das interessante ist beim Kabini, dass dieser mit einer Bandbreite von Low-End-Desktop/Low-End-Notebook - Ultrabooks - Netbooks bis Tablets sowie ein großteils des Embedded-Markt eine enorme Breite hat.

calluna schrieb:
Anscheinend nimmst du das alles etwas zu ernst.
Ich wüsste nicht, warum ich meine Ernsthaftigkeit auf dein Niveau runterschrauben muss (= größere Fehler-Toleranz), damit deine Falsch-Aussage wieder in Ordnung ist. Dass du mit Mainboard keine Konkreten sachen ansprichst, zeigt nur, dass du dich irgendwie aus der Falschaussage rausreden willst, um wieder "Ernstgenommen" zu werden. Aber da ist dir leider ein Fehler unterlaufen. Denn das neue Notebook mit UEFI & Voreinstellung hat einen wesentliche schnelleren Win-Boot beginn, als das Alte Board, welches eben im Gesamten (BIOS, Win-Boot, Programm-Ladung) schneller ist. Sowas kann man halt nur wissen, wenn man entsprechendes Wissen darüber hat.

Nur zur Info.
Auch mein Atom-Netbook mit SSD (SATA 1) startet wesentlich schneller.
Mit diesem Software-Optimierten-BIOS-Netbook-WinXP mit integrierten HSPDA bin ich sogar schneller im Internet bevor das neu gekaufter Buisness-Ive-Bridge-Notebook mit üblichen Software-Mülls den Win-Boot und der Progamm-Ladung abgeschlossen hat.

Die Schwäche des Atom-Netbooks war nie die CPU-Performance. Sondern primär die Multi-Media-Fähigkeiten (Grafik & Video). Deshalb sind ja aktuelle Tablets mit daumen-mal-pi ähnlicher Single-Core-Atom-Leistung aber mit wesentlicher besserer Multimedia-Fähigkeiten und SSD so verdammt beliebt.

calluna schrieb:
Ich musste noch nie über solche Dinge lachen.
Mein Beileid.
 
Zuletzt bearbeitet:
@aylano

Welche falsche Aussage? Die hier... "dass die Dauer des Bootvorganges nicht nur von der CPU abhängig ist."? Ich habe keine falsche Aussage getroffen, sondern dich höchstens missverstanden.

aylano schrieb:
Ich musste ziemlich lachen, als dieses Intel-Notebook langsamer Windows startete als mein voriges 2.PC = Notebook (Single-Core-K8/Puma-WinXP), welches von mir Software-Optimiert war.

aylano schrieb:
Deshalb musste ich ja so lachen, wie langsam ein aktueller üblicher Ive-Bridge-Notebook mit üblichen Software-Müll ist

Und was sagt das über die Leistungsfähigkeit der CPU aus? Immerhin musstest du ja "lachen", weil das Notebook nicht schneller gebootet hat, als dein Altes. Aber was willst du damit sagen? Das dein altes Notebook ebenso gut noch zu gebrauchen ist und für den Bootvorgang Optimierungen am Betriebssystem (z.B. Superfetch aus) wichtiger sind als eine schnelle CPU? Ich hatte deinen Beitrag Anfangs anders aufgefasst.
 
aylano
Das interessante ist beim Kabini, dass dieser mit einer Bandbreite von Low-End-Desktop/Low-End-Notebook - Ultrabooks - Netbooks bis Tablets sowie ein großteils des Embedded-Markt eine enorme Breite hat.
Ich weiß dass man mir für die Aussage auf die Finger hauen wird, aber ich denke dass der 25 watt tdp Kabini genauso in Notebooks, sogar in 17 Zöller sehen werden. Obwohl die Performance schon sehr beschränkt ist, hat man hier auch Brazos 1.0 und 2.0 gesehen, und diese 15-17 Zöller bsp HP 635 ect wurden nicht selten verkauft.
Stichwort HP-Cashback Aktionen ect.
 
so langsam wird der kabini quad ja sicher nicht sein, wenn jemand ein notebook nur für einfache officearbeiten und internetsurfen verwendet reicht ein kabini in einem 15-17" gerät mit 1920x1080/1200er auflösung.
 
calluna schrieb:
Ich habe keinen Bobcat mit irgendetwas verglichen.

Hast Du nicht?

Na ja, ein i5 3317u @1,7 (Turbo SingleCore bis Ghz 2,6 Ghz) Dualcore ist im Cinebench R10 (Multicore) so schnell wie ein Phenom X4 @2,3 Ghz. Ein E-1800 hat nicht einmal ein drittel der Leistung (in diesem Fall). Mit 4 Kernen wäre er bei knapp über der Hälfte... noch etwas mehr IPC dazu.

Der E2-1800 verfügt über die Bobcat-Architektur. Möchte man die Rechenleistung eines 4K-Kabini mittels CB R10 abschätzen, so muss man auch beachten, dass die FPU des Jaguar pro Kern nun den doppelten Durchsatz ggü. Bobcat bietet. Darum ging es mir.

Es ist mir schon bewusst, dass Deine Aufzählung bzgl. der Benchmarks beispielhaft ist, aber es sind die schlechteren Beispiele. Den perfekten Benchmark wird es sicher nicht geben, aber ein Großteil der Testprogramme ist mehr oder weniger Murks und lässt tlw. keine ableitbaren Erkenntnisse bzgl. der tatsächlichen Rechenleistung einer Architektur zu, besonders dann, wenn die Software nicht alle Funktionen der Hardware nutzt (egal ob die Ursache im Bereich der Codeoptimierung oder der Wahl des Compilers liegt).
 
Elkinator schrieb:

mag sein hatte eine G550 Dual-DVI irgendwo liegt die wohl sogar noch rum... hmm darf ja keine verkaufangebote machen sonst krieg ich heir ne verwarnung daher lass ichs ^^.

Aber da ist es auf jeden fall so... das es zwar einen opensoruce treiber gab, der auch ohne den unfreien teil (die hal-lib) prinzipiel lief... aber bestimmte features z.B. Ausgabe über DVI statt über D-Sub gehen nur in verbindung mit dem opensource Treiber + der geschlossenen HAL. Das heißt übersetzt ab einem bestimten zeitlichen Punkt... wenn ich eine neue Distribution benutzen wollte... blieb der Bildschirm nach dem booten schwarz oder der Xserver crashte...

Hab die karte auch primär wegen dem Opensource Treiber gekauft und den hardware-specs natürlich... war aber im Grunde ein wenig ne Verarsche... es ist schwer für einen Kunden vorm Kauf raus zu finden welchen Teil der opensource treiber so funktioniert und welche eine closed-source HAL laden muss um zu funktionieren...
 
da ich mit linux, bsd,... nie zu tun hatte kenne ich diese probleme zum glück nicht:)

wenn du die G550 nicht brauchst macht verkaufen bei ebay aber sinn, matrox ist beim wiederverkaufswert ja fast wie apple^^
 
calluna schrieb:
@Blackiwid
Also ich habe ein Tablet wegen dem Formfaktor gekauft und weil es für bestimmte Verwendungszwecke bequem ist.

@Terraconz

Office ist eben alles, was im Büro erledigt werden kann... es gibt da also sehr viele Anwendungsprofile. Zum Glück kann die Hardware entsprechend der Aufgaben gewählt werden.

hmm dann hattest davor kein Netbook oder kein Subnotebook... sehe nämlich speziel beim ersten keine großen Unterschiede im Einsatzzweck... wie gesagt sag ja auch nciht das es keine Kunden gibt die wegen dem Formfaktor sich sowas lieber kaufen... aber ich denke das es eine Minderheit ist.

Mein daheim werden doch sich die meisten zumindest in Zukunft irgend ein android gerät für den TV kaufen oder sie nehmen halt das handy oder so ein tablet und schließen das an den tv an (android hdmi sticks gibts ja auch sonst noch)... dafür braucht mans nicht wirklich... ok es mag vielleicht ein stück weit einfacher sein wenn man was nach schlägt und jemandem anderne zeigen will ihm ein tablet zu geben als das netbook zu ihm hin zu drehen... allerdings überschneidet sich das dann schon wieder mit dem handy.

Ich denke das wenn es keine tablets gäbe aber dafür massenhaft netbooks mit arm prozi und android drauf raus gekommen wäre für gute preise und 2tage akkulaufzeiten sie fast genauso erfolgreich gewesen wären. mit hohen high-def auflösugnen auch... das gabs bei den netbooks ja auch (fast?) nie...

Selbst mein subnotebook thinkpad hat ja noch nicht mal full-hd auflösung...

oder andersrum... wenn nur intel-tablets raus gekommen wären mit windows 8 hättest dann auch zu gegriffen... also zu den heutigen preisen ^^

ich glaub schon das es auch leute gibt die das tablet format mögen... ich glaube aber mitlerweile das dies nicht der hauptgrund für tablets ist... es ist das nicht-windows-os, android nervt deutlich weniger rum... bei software-installationen fehlenden viren etc... treiber-geschichten... datenbackup wegen cloud....

udn wegen der hardware-basis.... billig + hohe akkulaufzeiten + dünn + keine lüfter... die intel dinger sind glaub meist auch noch dicker obwohl sie mehr kosten und haben sogar teilweise staubsauger verbaut..... sowas käm mir nie ins haus... aber gut finden sicher auch welche gut... jeder wie er will...

ich fands nur halt spannend da ich mir bisher nicht erklären konnte wie die auf so wahnwitzige ideen kommen könnten das der netbookmarkt tot ist wegen tablets oder so... weil es gibt sicher genauso viele leute die eine art von laptop von der bedienung her besser finden wie welche die tablets besser finden... aber da man A aus nem tablet einfach ein notebook basteln kann und B man eben ein im vergleich zu windows tolles android hat das auch für noobs stressfrei funtzt und eben traumkombinationen aus laufzeiten-preise-stille.... bekommt. Was man im Netbook markt nicht bekommt... da es nur ne hand voll überteuerter android notebooks gibt.
 
pipip schrieb:
A10 5800k => 246 mm² in 32nm SoI (726 GFLOPS)
GK110 => 550 mm² in 28nm Bulk (GK110 i.e. Tesla K20 brings over 1.5TFLOPS ).

Eben. Dem ist nichts hinzufügen. Ich war ja auch nicht der, welcher davon geschwafelt hat, dass die APU so superwundertoll ist bei der OpenCL-Leistung (genau das ist sie eben nicht). Die APUs sind im Budget-Segment angesiedelt und KEIN VERGLEICH zu professionellen OpenCL-Lösungen. Genau von dem habe ich ja in den letzten Posts geschrieben.

Man sollte dann noch einbeziehen, dass die meisten APU-User keinen ECC-Speicher nutzen (gewisse Boards erlauben das zwar) und das die DP-Leistung (Doube Precision) bei den APUs irgendwo zwischen nicht existent und mager ist, während man bei den professionellen OpenCL-Lösungen eben genau auf DP für wissenschaftliche und technische Anwendung wert legt und ECC absolut Pflicht ist. Es sind eben zwei total andere Anwendungsgebiete.

aylano schrieb:
Du hast da einen Gedankenfehler.
APU kann und wird nie gegen GK110 konkurrieren.

Nope. Wir sind uns da sogar sehr einig. Den Vergleich zwischen GK110 und APU habe ich ja nur aufgestellt, weil wieder jemand behauptet hat, dass die APUs bei der Leistung so viel besser wären (was sie eben nicht sind). Wie schon mehrfach gesagt, sind APUs für das LowCost-Segment gedacht. Die Performance und der Preis ist entsprechend. Das ist auch nicht negativ gemeint. Das Preis-/Leistungsverhältnis ist sogar sehr gut.

Meine Post waren als u.a. Antwort hierauf gedacht:

Wie hier aber auch schon gesagt wurde frisst bei solchen Karten der Datentransfer zwischen Haupt- und GPU-Speicher alle Vorteile wieder auf. Auf der APU läuft das durch die MMU als Zerocopy. Für Kurze Berechnungen mittels OpenCL sind die APUs im Vorteil.

Die APUs sind noch lange nicht im "Vorteil". Schon gar nicht gegen eine GK110.


Im aktuellen c't ist übrigens ein wunderschöner Artikel über aktuelle Hardware für professionelle OpenCL-Anwendungen.

Dort steht in etwa das, was ich auch schon anderswo gepostet habe. Z.B., dass AMD bei den Treibern sehr viel Potential verschenkt und dass die Hardware deshalb unter ihrem Potential läuft. Sogar intel hat im Moment Vorteile gegenüber AMD bei OpenCL. Das liegt aber nicht wirklich an besserer HW von intel. Nach wie vor ist gegen GK110-Tesla-Karten kein Kraut gewachsen. GK110 liefert die beste Leistung bei DP und die HW wird auch softwareseitig besser unterstützt als die Konkurrenz-Lösungen. Viele bestehende GPGPU-Anwendungen laufen gar noch nicht auf OpenCL, sondern immer noch auf CUDA. Es wird noch etwas Zeit brauchen bis CUDA ganz verschwindet. Gemäss c't ist die HW von allen drei Konkurrenten (NVidia, AMD, intel) recht nahe beisammen. Alle Lösungen haben Vor- und Nachteile. intel liefert die XeonPhi allerdings zum Kampfpreis und kann beim Energieverbrauch punkten.

Nachzulesen in c't 02/13 (S. 76-81).

Beim Test waren die Tesla K20, die FirePro W9000 und die XeonPhi 5110P vertreten.

Da es langsam aber sicher off-topic ist/wird, schlage ich nochmals vor, dass wir für solche Diskussionen einen eigenen Thread ins Auge fassen.

Obwohl wir manchmal dasselbe meinen und ein bisschen aneinander vorbei reden, sind wir uns bei den APUs ja einigermassen einig. Was die ganze OpenCL-Geschichte angeht, steht die Entwicklung ja noch ziemlich am Anfang. Bei normaler Anwendungsoftware ist OpenCL noch nahezu bedeutungslos. Handbrake ist auch noch nicht in der angepassten Version für OpenCL verfügbar, jedenfalls nicht als "stable" Version.

Ich stehe übrigens nach wie vor dazu: Die APUs sind "nice". Und bieten ein sehr gutes Preis-/Leistungsverhältnis. Aber wie jetzt schon mehrfach erwähnt sind und bleiben die APUs vorderhand im Budget-Segment. Es sind keine High-End-Lösungen. Sogar die Mittelklasse ist noch ein Stockwerk darüber. Das ist keine Kritik an AMD. Wenn ich die Trinity-APUs nicht gut finden würde, dann hätte ich mir sicher keine gekauft. Wenn ich wirklich Leistung brauche, dann gibt es bei mir aber intel-CPUs und zumindest unter Linux Grakas von NVidia. Dies vor allem wg. dem besseren Closed-Source-Treiber.
 
Zuletzt bearbeitet:
2L84H8
Aber das ist kein Problem, denn die APU soll ja nicht die dgpu ablösen, im Gegenteil steht sogar im letzten Stadium etwas von extended to dgpu.
Es ist sicher nicht AMDs Ziel seine Grafikarten durch eine APU zu ersetzten sondern auch diverse Kombinationen anzubieten (so habe ich es zu mindestens verstanden).
Man sollte aber wenn man schon solche Grafikkarten Vergleiche bringt bedenken, dass AMD auch eine Firma besitzt die Microserver anbietet. Ein solcher Server mit vielen APUs würde somit die Rechnepower vieler CPUs und gpus verbinden, das aber wesentlich platzsparender vllt effizienter. Mal sehen was möglich ist, aber man muss nur bedenken, früher haben sie ihre Server mit Atoms ausgestattet, ein Kabini bsp wäre eine Verbesserung.

Und ja man ist am Anfang, aber Kabini ist in meinen Augen verglichen zu den anderen CHIPs in seiner Klasse eine Granate. Auf die ATOM mit der igp, die der IB gleicht, darf man ja noch warten (soll ja in 22 nm Ende des Jahres ? nächstes Jahr ?) kommen. Doch fraglich ob der Atom Chip dann genauso viele Instruction Sets und co anbieten wird. Die Grafikperformance sollte aber schlechter ausfallen, wenn Kabini eine HD 4000 erreichen sollte.
 
Zuletzt bearbeitet:
^^ Dem kann ich durchaus zustimmen. Die APUs haben schon ihren Platz. Und bei kleinen Kisten oder eben Micro-Servern sind die Dinger fast schon konkurrenzlos.

Bei den APUs habe ich mich auch schon gefragt, warum das Angebot an mITX-Boards vergleichsweise schlecht ist. Gerade dort wären die APUs in ihrem Element. mATX- und ATX-Boards gibt in fast jeder erdenklichen Form, aber bei mITX ist mir bisher nur ein Board von ASRock und eines von MSI bekannt. In einem anderen Thread hat jemand davon berichtet, dass das MSI bisher nicht so toll ist. Er hat ziemliche Probleme damit. Von ASUS und Gigabyte wäre es auch schön, wenn sie da mal was rausbringen würden. Die bisher erschienenen FM2-Platinen für mITX waren auch nicht so besonders ausgestattet.

Nachtrag:

Was die Atoms angeht: Hab mir ziemlich genau bei der Einführung der ersten Atoms zwei DG945GCLF-Boards von intel mit Atom 230 gekauft. Das eine hab ich dann verschenkt, das andere wird inkl. drumherum bald rausgeschmissen, weil ich selber keine Verwendung dafür habe. Dazu habe ich noch zwei ASRock ION330 mit Atom 330 CPUs. Die werde ich wegen ihrer "Knuffigkeit" behalten (und weil sie total stabil mit 2GHz OC'ed laufen). Nach dem Atom 330 ist eigentlich kaum mehr was gegangen und das mit den PowerVR-Grafikkernen war ja wohl ein evolutionärer Rückschritt.

Wieder mal ein Punkt, wo intel TOTAL versagt hat. Das bisher peinlichste war aber sicher der (T)Itanium (=> von "Titanic"). Mann, bin ich FROH, dass AMD uns AMD64 beschert hat. Darf mir eine Welt mit (T)Itanium-Architektur gar nicht vorstellen (:kotz:).

Neben dem (T)Itanium war sogar der Nulldozer ein voller Erfolg. Intel hat mit dem Itanium zusammen mit HP zig Milliarden verbraten.

Ganz süss waren auch die allerersten Pentiums mit 60 und 66MHz Takt. Die wurden so heiss, dass gewisse Exemplare inkl. Prozessorsockel durch das Board "geschmolzen" sind.
 
Zuletzt bearbeitet:
Von dem, was Itanium ist, und was er leisten kann, hast du jedenfalls schon mal keine Ahnung.
Wenn sich alle Itanium CPUs, die im Einsatz sind über Nacht in Luft auflösen würden, würdest du blöd aus der Wäsche gucken, wenn der weltweite Kapitalverkehr zusammenbricht.

E:
Man sollte ihn aber trotzdem nicht so geringschätzen, wie hier getan. Außerdem setzt sich nicht immer das bessere durch. Betamax...
Itanium ist eine reine 64Bit Architektur ohne die Rattenschwänze von x86 - es sollte mit dem alten brechen. Und hätte es auch gekonnt. Hat er nur eben nicht. Warum das nun so ist, müsste man genauer beleuchten.
 
Zuletzt bearbeitet:
der itanium ist trotzdem keine sehr brauchbare architektur, nicht ohne grund hat er sich am servermarkt nicht durchsetzen können.
 
calluna schrieb:
@aylano
Welche falsche Aussage? Die hier... "dass die Dauer des Bootvorganges nicht nur von der CPU abhängig ist."? Ich habe keine falsche Aussage getroffen, sondern dich höchstens missverstanden.
Wenn man eine andere Aussage ohne Begründung in Frage stellt, dann hat es grundsätzlich was mit provozieren/stören und nicht mit diskutieren zu tun. Und genau das passt zu deinen "nicht ganz so ernsten Aussagen".
Und du kannst drei mal raten, wie Richtig deine weiteren Aussagen waren, die auf deine Missinterpretation basieren.

Und was sagt das über die Leistungsfähigkeit der CPU aus? Immerhin musstest du ja "lachen", weil das Notebook nicht schneller gebootet hat, als dein Altes. Aber was willst du damit sagen? Das dein altes Notebook ebenso gut noch zu gebrauchen ist und für den Bootvorgang Optimierungen am Betriebssystem (z.B. Superfetch aus) wichtiger sind als eine schnelle CPU? Ich hatte deinen Beitrag Anfangs anders aufgefasst.
Nochmal für dich.
Ich konnte den 3-4 Mal Performance-Unterschied zwischen einem K8-Single-Core-Notebook und Ive-Bridge-Dual-Core-Notebook nicht erkennen, den viele Experten hier mit ihren CPU-Only-Vergleiche ständig vorgaukeln. Und mein Notebook-Kauf mit HDD und unoptimierten Software-Müll ist noch immer mit Abstand der Masse-Verkauf, was somit der Realität entspricht, was ein Massen-Kunden zu kaufen bekommt bzw. angedreht wird.
Ich wollte zuerst beim HP ProBook (2 USB 3.0 & Bluetooth & mattes Display) ein Trinity-Quad-35W (wegen Spiele & AutoCAD & Photoshop) um nur 500(-600) Euro kaufen, weil ich ich wusste, dass die HDD völlig limitiert. Aber dann kam dieses Angebot, wo ich mehr CPU/GPU/Software-Leistung (Core i5 & HD 7650 & zusätzlich zu Win7 eine Win8-Lizenz) zum selben Preis bekam. Ich hätte nie erwartet, dass selbst ein Ive-Bridge-HDD-Notebook mit üblichen Software-Müll langsamer ist, als ein Notebook, welches von Experten hier um 3-4 Mal (geringere Chinebenche11.5-Performance bewertet wird.
Und ja, Windows-Booten und Standby-Booten ist für die Masse viel bedeutender als Profi-Programme-Performance. Vorallem, wenn man mit einem Single-Core-K8 noch erstaunlich gut damit arbeiten konnte.

Seitdem verstehe ich den Tablet-Hype & PC-Flaute besser. Denn Tablets sind nicht nur Software-optimiert, sondern besitzen noch SSDs.

pipip schrieb:
aylano
... ich denke dass der 25 watt tdp Kabini genauso in Notebooks, sogar in 17 Zöller sehen werden. Obwohl die Performance schon sehr beschränkt ist, hat man hier auch Brazos 1.0 und 2.0 gesehen, und diese 15-17 Zöller bsp HP 635 ect wurden nicht selten verkauft.
Öh ja.
Es gab schon 17-Zoll-Low-End-Notebooks, wo dann nach Brazo dann ein Kabini reinkommt.
Low-End & Co wird durch den Preis und nicht durch die Zoll definiert. Es gab mal eine Zeit (Pre-Atom-Ära), da waren <14"-Notebooks extrem teuer, während größere Display-Notebooks eher billiger zu kriegen waren.

2L84H8 schrieb:
Die APUs sind noch lange nicht im "Vorteil". Schon gar nicht gegen eine GK110.
Klar, APU ist noch kein HSA. Bedeutende HSA-Features werden erst mit Kabini kommen und 2014 soll HSA-Desgin-Mäßig großteils fertig werden. Danach könnte HSA in die Architektur integriert werden.

Im aktuellen c't ist übrigens ein wunderschöner Artikel über aktuelle Hardware für professionelle OpenCL-Anwendungen.

Dort steht in etwa das, was ich auch schon anderswo gepostet habe. Z.B., dass AMD bei den Treibern sehr viel Potential verschenkt und dass die Hardware deshalb unter ihrem Potential läuft.
Genau das schrieb ich & ein Vorposter. Durch die non-Unified-Memory-Controller werden die Daten über riesen Umwege geschickt. Der Zugriff von CPU auf GPU-Cache ist AFAIK zwar erst seit Trinity möglich, aber eben mit riesen Umwegen, was die ganzen Vorteile wegfrisst und viel Potential nicht nutzen kann. Man darf nicht vergessen, dass die FPU genauso Double-Precise hat und wenn es ganz geläufen wäre, hätte die iGPU-Nutzen genauso zu einen Verlangsamung führen können.


Sogar intel hat im Moment Vorteile gegenüber AMD bei OpenCL. Das liegt aber nicht wirklich an besserer HW von intel. Nach wie vor ist gegen GK110-Tesla-Karten kein Kraut gewachsen.
Aber sicher doch.
http://www.green500.org/lists/green201211
Bei Green500 sind sogar Intel & AMD vor Nvidia (GK110) gelistet.

und die HW wird auch softwareseitig besser unterstützt als die Konkurrenz-Lösungen.
OpenCL und HSA wird aber fast von der gesamten Tablet & Smartphone-Industrie unterstützt.
Vielleicht sogar mal von den meisten Konsolen.
Cuda mag zwar noch besser sein, aber die OpenCL-Breite ist enorm. Dazu ist OpenCL auch im Embedded-Markt interessant und gerade da kann Kabini punkten, da gearde dort Low-Power-CPUs gefragt werden und mit ungefähr 75mm² sogar die selbe größe hat wie Low-Power-Profi-GPUs.

Viele bestehende GPGPU-Anwendungen laufen gar noch nicht auf OpenCL, sondern immer noch auf CUDA. Es wird noch etwas Zeit brauchen bis CUDA ganz verschwindet.
Nicht viele, aber mit z.B. Adobe schon sehr wichtige.
Mit CodeXL 1.0 wurde die Software-Progammierung deutlich vereinfacht (= verbessert).

Da es langsam aber sicher off-topic ist/wird, schlage ich nochmals vor, dass wir für solche Diskussionen einen eigenen Thread ins Auge fassen.
Nö.
Kabini wird der erste HSA-Schritt, wo es deutliche HSA-Verbesserungen geben kann. Die Post-PC-Ära ist ja nichts anderes als die Post-CPU-Only-Ära. OpenCL könnte wegen dem ersten HSA-Schritt & CodeXL 1.0 (+ APP 2.8) genauso die größte Überraschung werden.
Oder auch nicht, weil Kabini auch die erste SoC im PC werden kann.
Oder weil Kabini mit DX11.1-Tablet-CPU und/oder AVX-Tablet-CPU und/oder AES-Tablet-CPUs werden kann.

Die Liste an positiven Meldungen ist bei Kabini so lang, dass man nie weiß, wo man anfangen soll.


pipip schrieb:
2L84H8
Aber das ist kein Problem, denn die APU soll ja nicht die dgpu ablösen, im Gegenteil steht sogar im letzten Stadium etwas von extended to dgpu.
Schwer zu sagen, ob AMD mit APU entweder die Low-End-dGPU ersetzen will, oder nach unten erweitern will.
Alle dGPUs werden die APUs sicher nicht ersetzen, aber zu den Low-End-dGPUs sind sowieso auch CPUs nötig. Nicht umsonst werden verkauft AMD die "Low-End-GPUs" mit APUs.
 
Zuletzt bearbeitet:
aylano schrieb:
pipip
2L84H8
Aber das ist kein Problem, denn die APU soll ja nicht die dgpu ablösen, im Gegenteil steht sogar im letzten Stadium etwas von extended to dgpu.
Schwer zu sagen, ob AMD mit APU entweder die Low-End-dGPU ersetzen will, oder nach unten erweitern will.
Alle dGPUs werden die APUs sicher nicht ersetzen, aber zu den Low-End-dGPUs sind sowieso auch CPUs nötig. Nicht umsonst werden verkauft AMD die "Low-End-GPUs" mit APUs.

Könnte es nicht sogar sein, dass AMD mit den APU-iGPUs alles an dGPUs ersetzt, was leistungstechnisch schwächer ist und nur eine Einsteigergrafikkarte übriglässt. Sowas wie die 6450 etwas aufwerten (standardmäßig Eyefinity, ...) und dafür z.B. die 65er und 66er entfallen lassen?
Wer bspw. eine FX-CPU zum Arbeiten braucht nimmt eine 6450 und wer spielen will steigt mit einer 7750 ein. Und dazwischen entfällt alles.
Mir hat sich nie der Sinn einer 65xx und 66xx sowie GT 620 - 640 erschlossen. Verkauft sich sowas überhaupt? Was die 6450 bzw. 210 nicht können, können doch die nächsten 2 Klassen auch nicht, oder übersehe ich da was?
 
@aylano

Und du kannst drei mal raten, wie Richtig deine weiteren Aussagen waren, die auf deine Missinterpretation basieren.

Welche Aussagen? Lass es bitte, dir irgendetwas zusammen zu reimen. Und ich habe nicht von "nicht ernsten Aussagen" geschrieben, sondern dass du etwas zu ernst (d.h. zu verbissen) nimmst.

Ich konnte den 3-4 Mal Performance-Unterschied zwischen einem K8-Single-Core-Notebook und Ive-Bridge-Dual-Core-Notebook nicht erkennen, den viele Experten hier mit ihren CPU-Only-Vergleiche ständig vorgaukeln.

Alle meine Kollegen merken den Unterschied zwischen einem L412 und einem T420 / T430, selbst bei der Arbeit mit Excel, zum Beispiel. Und die haben alle noch eine HDD. Sicher, das hochfahren ist nicht unbedingt schneller. Wer aber nur daran die Leistungsfähigkeit eines Computers festmacht, wie schnell er bootet... (und mich interessiert nicht, was die "Masse" will.... zumal es nicht gerade wenig Menschen gibt, die in einem Büro arbeiten, auch wenn die Tätigkeiten dort sehr verschieden sind). Wer mit einem Rechner arbeitet, fährt ihn nicht alle paar Minuten hoch oder runter.
Und für diejenigen, für die das wichtig ist, die müssen dann eben eine SSD verwenden oder das Gerät im Standby lassen.

Mir ist aber unklar, was letztendlich der Sinn deiner Aussagen sein soll...
 
Zuletzt bearbeitet:
bloodfoot schrieb:
Könnte es nicht sogar sein, dass AMD mit den APU-iGPUs alles an dGPUs ersetzt, was leistungstechnisch schwächer ist und nur eine Einsteigergrafikkarte übriglässt.owas überhaupt? Was die 6450 bzw. 210 nicht können, können doch die nächsten 2 Klassen auch nicht, oder übersehe ich da was?
So ist es.
Momentan sieht es so aus, da das Angebot so ist.
Aber das ist jetzt das erste Mal, aber einmal ist noch kein klarer Trend.

Wobei AMD eigentlich zwei APUs hat, die sie als Profi-GPU anbieten kann.
Aber mti einer Profi-GPU als APU hat AMD schon überrascht und man muss erst abwarten, wie sich das jetzt weiterentwickelt hat.

calluna schrieb:
Welche Aussagen? Lass es bitte, dir irgendetwas zusammen zu reimen. Und ich habe nicht von "nicht ernsten Aussagen" geschrieben, sondern dass du etwas zu ernst (d.h. zu verbissen) nimmst.
Gewöhne dir ab, den allwissenden zu spielen und andere zu belehren, wenn du Sachen missinterpredierst.
Warum laut dir das Mainbaord eine Rolle spielt, hast du immer noch nicht erzählt. Und genau das zeigt deine Unwissenheit über diese Technik oder einer Sinnvollen Diskussion.

Alle meine Kollegen merken den Unterschied zwischen einem L412 und einem T420 / T430, selbst bei der Arbeit mit Excel, zum Beispiel. Und die haben alle noch eine HDD. Sicher, das hochfahren ist nicht unbedingt schneller. Wer aber nur daran die Leistungsfähigkeit eines Computers festmacht, wie schnell er bootet... (und mich interessiert nicht, was die "Masse" will.... zumal es nicht gerade wenig Menschen gibt, die in einem Büro arbeiten, auch wenn die Tätigkeiten dort sehr verschieden sind). Wer mit einem Rechner arbeitet, fährt ihn nicht alle paar Minuten hoch oder runter.

Mir ist aber unklar, was letztendlich der Sinn deiner Aussagen sein soll...
Die Welt dreht sich aber nicht um dich und deine Ingenieurs-Schul-Kollegen, sondern um die Masse, für die eben auch z.B. Trinity vs. Dual-Core Ive-Bridge konfiguriert wurde. Wenn du sagst, dich interessiert die Masse nicht, dass ist das schon ein Beweis, dass deine Bewertung über CPUs falsch sind, weil die Masse eben ein anderes Nutzungsverhalten haben, als scheinbar Ingenieure nutzen.
Daher wundert es mich nicht, dass du mich vorne und hinten nicht verstehst.
Übridgens, "Normalo-Progamme" Word, Exel,... benötigen auch erst CPU-Power ab einer gewissen Größe. Im Privaten Normalgebrauch spürt man die Grenze nie, außer man bombart es mit vielen großen Grafik-Files.

Damit dir vielleicht die PC-Flaute klarer wird.
Nur damit Privat-Leute eventuell etwas weniger spüren, tut man eben nicht mehr gleich sein alten Notebook ersetzen.
Vorallem, wenn viele Aktivitäten (PDF-Lesen, Internet-Surfen, Video-Schauen) aus den Notebook ausgelagert werden kann und mit dem Tablet machen kann.

Und für sowas würde ein Quad-Core-Kabini @ 18W (falls es so kommen mag) für die meisten völlig ausreichen. Ausgestattet mit einer HDD würden sie vielleicht nicht einmal den Unterschied merken.

Für Power-User gibts Performance-CPUs a la Quad-Core-Ive-Bridge, welche sich im Notebook-Markt Anteils-mäßig immer noch wenig verkaufen.
 
@aylano

Du weißt selbst, inwiefern das Mainboard beim gesamten Bootvorgang eine Rolle spielt. Ich sehe keinen Grund, so etwas genauer auszuführen. Und welche Bewertung über CPUs meinst du? Ich habe geschrieben, dass man eine CPU entsprechend seinen Bedürfnissen wählen sollte und dass Kabini sicher eine gute CPU wird (ich habe mir selbst einen E 450 für einen einfachen HTPC gekauft... und ich habe auch ein Tablet), die für bestimmte Zwecke mehr als ausreichend ist.

Unsinnig fand ich nur dein Gerede über Vergleiche zwischen verschiedenen Systemen über die Bootzeit. Natürlich wird ein Quad-Core-Kabini für viele völlig ausreichend sein. Ich habe nie etwas Gegenteiliges geschrieben - aber das ändert nichts an der unterschiedlichen Leistungsfähigkeit der Systeme... und nur dazu habe ich etwas gesagt. Und in so einem Fall spielt es keine Rolle, was die Masse will. Mehr werde ich dazu auch nicht sagen. Dein hat Stil hat etwas an sich, was ich als unangenehm empfinde.
 
Zuletzt bearbeitet:
calluna schrieb:
@aylano
Du weißt selbst, inwiefern das Mainboard beim gesamten Bootvorgang eine Rolle spielt. Ich sehe keinen Grund, so etwas genauer auszuführen.
Warum belehrst du mich dann überhaupt, wenn ich es eh selbst wissen sollte?
Wer nicht auf Konkreten eingeht, der ist nie auf eine Diskussion aus.

Wenn du mehr von Mainboad-Technik verstehen würdest und mein Text einmal genauer gelesen hättest, dann wüsstest du, dass beim Mainbard die Rolle beim Windows-Booten viel kleiner war, weil die Zeit im BIOS bzw. UEFI beim neuen erheblich geringer war.


Und welche Bewertung über CPUs meinst du?
Unsinnig fand ich nur dein Gerede über Vergleiche zwischen verschiedenen Systemen über die Bootzeit.
Wenn du ständig Sachen nicht verstehst, dann sollst du nicht andere als Unsinnig & Co bewerten.
Die Boot-Zeit ist sehrwohl wichtig, weil das einen wichtigen Einfluss über die Verfügbarkeit des Gerätes macht.
Nicht so wie bei mir, wo ich Stunden mit dem Geräte arbeite und da mir eine 2 Minuten-Boot-Zeit nichts ausmacht, sondern bei der Massen, die mal Kurz ins Internet & Co schauen wollen.

Dein hat Stil hat etwas an sich, was ich als unangenehm empfinde.
Und dein Stil ist angenehm??

Versuch mal etwas sachlicher zu sein. Zum Beispiel sollte dir dein Sachverstand sagen, dass die Dauer des Bootvorganges nicht nur von der CPU abhängig ist.

Anderen Unsachlichkeit und non-Sachverstand zu Unterstellen hat auch nichts mit angenehmen Stil zu tun.
Vorallem, wenn du dich in meine Aussagen einmischt.
Dein Problem ist nur, dass ich deinen Unsinn aufdecken konnte, und du jetzt ein Problem damit hast, aus dem du irgendwie doch rauswillst. Das ist eben der Grund, warum du auf die Mainbaord-Sache nicht genauer eingehst und eben auf die Belehrende weise versuchst.

Ich habe nie etwas Gegenteiliges geschrieben - aber das ändert nichts an der unterschiedlichen Leistungsfähigkeit der Systeme...
Ein Satz, der sich selbst widerspricht. Was du sicher nicht wüsstest, weil man sowas nicht in der Ingenieurs-Schule lernt. Denn dort geht es um konkrete Zahlen. Ein Produkt kann nie leistungsfähig sein, wenn der Mensch es in diesen Ausmaß nicht nutzen kann, wie es die Leistung/Performance-Balken nicht nutzen kann. Deshalb definierst du sachen als Leistungsfähig, die real diese Leistung nicht haben. Mit ein bischen Verständ oder Technik-Wissen gibt es in der Techink Bespiele. Denn da werden die Übertragungs bzw. Umwandlungs-Verluste mitberücksichtigt. Oder genauso wie den Leuten die Motoren-Kraft interessiert und nicht jene Energie, die beim explodieren des Kraftsstoff frei wird.
Leider lernt man in der Ingeneurs-Schule heutzutage Normiertes und kaum/nicht mehr Logik.

Den Erfolg von Apple verstehen halt wenige und billige Kopien (z.B. Ultrabook) scheitern halt dann, bis mit der Massenverbreitung von SSDs große Probleme (= Widerstände) beseitigt werden.

------

Deshalb ist Kabini erheblich stärker als viele Denken und AMD erhofft sich nicht umsonst eine Anteilssteigerung von 5 auf 20%.
Und bis SSD in der Masse verbreitet sind (also SSD-Verkauf größer als HDD-Verkauf) und die CPU-Leistungsfähigkeit von Intel CPUs gegen Kabini & ATOM & Co deutlich stärker zu spüren gibt, gibt es aber schon wieder die 20nm-ARM & 20nm-Kabinis, deren Pilot-Tape Outs schon dieses Jahr beginnen.

Man spürt schon, dass selbst bei Smartphones & Tablets die iGPU in den letzten Quartalen einen höheren Stellenwert bekommen hat als früher. Der Grund liegt in den gestiegenen Auflösungen. Mit HSA wird da die iGPU-Wichtigkeit noch weiter gesteigern.
 
Zurück
Oben