News HP enthüllt erste „Kabini“-Prozessoren für Notebooks

Warum diskutiert ihr über ein Dual-Channel Memory-Interface? Wie im Artikel angedeutet, dürfte es eine starke Verwandtschaft zur G-Serie geben. Diese ist ausschließlich mit einem Single-Channel Memory-Interface ausgestattet. (siehe https://www.computerbase.de/2013-04/amd-praesentiert-neue-g-serie-mit-jaguar-socs/)
Oder gibt es bereits offizielle Aussagen AMDs das Kabini über ein Dual-Channel Memory-Interface verfügt?
 
es ist eigentlich schon lange bekannt das er kein dualchannel hat.

es ist aber halt leider auch eine tatsache das meistens die ahnungslosen am meisten schreiben, das sind dann die leute, die behaupten das er dualchannel hat, das man durch verkleinern der GPU 2/3 chipfläche sparen würde und das jagual nur eine kleine verbesserung gegenüber bobcat ist...
 
Winder schrieb:
Und ein Jaguar Kern ist gerade mal 3,9mm² groß.
Hast du den Text überhaupt verstanden?
3,9mm² wäre völlig zu vernächlässigen. 5,5 mm² ähnlich, weil diese nur 5% einer Die-Größe, die eh schon verdammt günstig sind.

Würden sie die Grafikeinheit deutlich verkleinern (dann müssten sicher auch ein paar Feature gestrichen werden), dann hätte der Chip nicht einmal mehr 2/3 der ursprünglichen Größe. Dadurch könnten sich schnell die Kosten halbieren. Und das macht bei Verkaufspreisen von unter 50€ schon was aus. Wir reden hier schließlich von APUs auf Jaguar Basis und nicht von den High-End Modellen.
Blöderweise kann man ein Front-End einer GPUs nicht deutlich verkleinern. Das geht genauso wenig, wie sie Autos mit 2/3 weniger Reifen oder ein Smartphone mit 2/3 Ive-Bridge nicht verkaufen lässt. Ob AMD die Preise des Kabini um 30 oder 60 $ verkäuft, hängt von AMDs Profit-Gier ab und nicht von so ca. 50 Cent Produktionskosten ab.

Übrigens, die Dies mit etwas mehr Features auszustatten und bei den Billig-Modellen zurechtzustutzen ist übrigens auch bei Intel eine übliche vorgangsweise. Üblich deshalb, weil es im Gesamten die wirtschaftslichste Lösung ist.

Auch sinkt dadurch natürlich die maximale Leistungsaufnahme.
Das könnte man in höhere Taktraten oder längere Akkulaufzeiten stecken.
Typischer Fall von Theoretisch ja (Labor), praktisch nein, wo die Theorie nicht verstanden wurde.

a) tretet dieser Fall nur ein, wenn USB 3.0 & Co kein Power-Gating besitzt. Aber das kann ich mir kaum vorstellen. Denn man sollte wissen, dass das größte Know-How im Jaguar die vielen Power-Gating & Clock-Gating innerhalb der CPU-Architektur (und der GPU-Einheiten) sind.
Also, ein Power-Gating bei USB 3.0 einzuführen, wäre wesentlich wesentlich einfacher und eventuell schon beim Z-60 gemacht wurde.

b) Ist deine Betrachtung sehr speziell gewählt.
Kabini ist die einzige SoC. Alle andere Notebook-Konkurrenten bzw. Vorgänger haben nicht nur mit 65nm-Southbridgens wesentlich stromfressender Chips zusätzlich drangehängt, sondern diese externen Chips können a) nicht in den Schlafmodus gesetzt werden, wie es in SoC der Fall ist und b) muss die Verbindung CPU & Southbridge trotzdem ständig aktiv sein.

c) Finde ich die Kritik sehr interessant, wenn man bedenkt, dass Kabini von so 155mm² (2-Chips) auf so 110mm² (1-Chips) sowie von so 22-23W-Plattform-TDP auf 15 bzw. 25W sank bzw. leicht stiegt. Abgesehen davon, benötigt eine 1-Chip-Lösung am Mainboard auch weniger Bahnleitungen, wodurch die Plattform nochmal billiger & stromsparender wird.

Wenn mal wieder Hersteller Grafikkarten mit nur halben Speicherinterface liefern, dann wird sogar gern Betrug geschrien.
Denn Leute die Testberichte gelesen haben erwarten da einfach eine ganz andere Leistung.
Erstens, hat das eine mit den anderen nichts zu tun.
Zweitens, würden Seriöse Tester eben drauf hinweisen, dass in den Konfigurationen dieses Single-Channel-Probleme (aus welchen Gründen auch immer sei dahingestellt) gibt, oder sie testen gleich Single & Dual gleichzeitig.

Drittens, interessiert das Media-Markt & Konkurrenten solche Kleinigkeiten nicht.
Nur als Beispiel.
Ich hatte zwar das ProBook 4540s gekauft, aber 4 Monate davor hatte ich eigentlich schon das ProBook 4535s (450 Euro) bei einem Media-Markt-Konkurrenten gekauft. Sowohl im Internet als auch auf allen Informations-Zetteln stand als GPU nur die IGP. Als ich die Verpackung entfernte und das Notebook öffnete, sah ich gleich den Aufkleber einer Dezentierten GPU, was sich dann auch Softwaremäßig zeigte.
Bevor ich ins Geschäft ging, überprüfte ich im Internet, was man unter der Modell-Nummer wirklich alles bekommt. Und da waren Modelle mit iGPU und welche mit dezentierten GPUs (=Grafikkarten) möglich.
Der Witz an dieser Geschichte. Damit ich mein Geld cash zurückbekam, musste ich (also ich ihnen und nicht sie mir) zuerst im Laden einer Konzernkette erklären, was im Notebook drinnen war und dann musste ich es in der Konzern-Zentrale machen. Wobei der Witz darin bestand, dass dieses Modell ein Auslauf-Modell war. Das bedeutet, nach 6 Monaten Verkauf hatte noch immer keiner die falschen Angaben und somit falschen Beratungen gemerkt.

Wobei ähnliches ist mir auch im Asus 901-Go @ Media-Markt verlaufen.
1 Jahr nach Verkaufsbeginn stieg ich auf Win XP um. Dazu hätte ich eine spezielle Software benötigt, die in einem der beiden DVDs vorhanden sein sollten. Sollten deshalb, weil 2 gleich DVDs ausgeliefert wurden und ich diese spezielle Software nicht nutzen konnte. Auch hier merkte ich bei diesem Media-Markt als erster den Fehler.

Also, du kritisierst Sachen, die in der Praxis in diesem Markt-Sekment (= Billig-Massen-Verkauf) überhaupt keinen Interessieren.
Und wenn man weiß, dass im Notebook-Sekment wegen der Komponenten die AKku-Zeite @ Idle mit Plus-Minus 25% Varieren, dann kann keiner deine angeblichen Stromvergeudungen nachvollziehen, die vielleicht max 1% ausmachen.

HP 255 ist ein Low-End-Notebook und so sollte man es auch betrachten.
 
Elkinator schrieb:
es ist eigentlich schon lange bekannt das er kein dualchannel hat.

es ist aber halt leider auch eine tatsache das meistens die ahnungslosen am meisten schreiben, das sind dann die leute, die behaupten das er dualchannel hat, das man durch verkleinern der GPU 2/3 chipfläche sparen würde und das jagual nur eine kleine verbesserung gegenüber bobcat ist...


Immer diese selbsternannten "Experten" hier...

So viel schreibe ich gar nicht. Nicht mal ansatzweise so viel wie du :lol:

Zum anderen habe ich nie behauptet das man 2/3 der Chipfläche sparen würde. Nächstes mal vielleicht einfach mal genauer lesen.
Es gibt einen riesen Unterschied zwischen "auf 2/3 verkleinern" und "um 2/3 verkleinern". Der prozentuale Unterschied ist wirklich gewaltig

Auch wurde nicht der Jaguar mit dem Bobcat verglichen. (Und ja, da gab es eine sehr deutliche Weiterentwicklung)
Sondern der Jaguar mit AMD High-Endmodellen. Und da ist der Unterschied noch gewaltig. Ist auch kein Wunder, schließlich ist ein einzelner Jaguar-Kern nur 3,9mm² groß und darf nur ein paar Watt aufnehmen. Da gibt es dann halt nicht nur einen großen Leistungsunterschied sondern natürlich auch einen deutlichen Preisunterschied.
Ergänzung ()

@aylano: Endlich mal jemand mit dem man normal reden kann :)

Blöderweise kann man ein Front-End einer GPUs nicht deutlich verkleinern. Das geht genauso wenig, wie sie Autos mit 2/3 weniger Reifen oder ein Smartphone mit 2/3 Ive-Bridge nicht verkaufen lässt. Ob AMD die Preise des Kabini um 30 oder 60 $ verkäuft, hängt von AMDs Profit-Gier ab und nicht von so ca. 50 Cent Produktionskosten ab.
Das Front-End hängt doch von der Architektur ab (also hier GCN) und das ging früher auch kleiner.
Natürlich ist mir auch klar das man einige Dinge wie z.B. I/O Einheiten nicht beliebig schrumpfen kann, vor allem wenn sie mit höheren Spannungen betrieben werden.

Typischer Fall von Theoretisch ja (Labor), praktisch nein, wo die Theorie nicht verstanden wurde.

a) tretet dieser Fall nur ein, wenn USB 3.0 & Co kein Power-Gating besitzt. Aber das kann ich mir kaum vorstellen. Denn man sollte wissen, dass das größte Know-How im Jaguar die vielen Power-Gating & Clock-Gating innerhalb der CPU-Architektur (und der GPU-Einheiten) sind.
Also, ein Power-Gating bei USB 3.0 einzuführen, wäre wesentlich wesentlich einfacher und eventuell schon beim Z-60 gemacht wurde.

b) Ist deine Betrachtung sehr speziell gewählt.
Kabini ist die einzige SoC. Alle andere Notebook-Konkurrenten bzw. Vorgänger haben nicht nur mit 65nm-Southbridgens wesentlich stromfressender Chips zusätzlich drangehängt, sondern diese externen Chips können a) nicht in den Schlafmodus gesetzt werden, wie es in SoC der Fall ist und b) muss die Verbindung CPU & Southbridge trotzdem ständig aktiv sein.

c) Finde ich die Kritik sehr interessant, wenn man bedenkt, dass Kabini von so 155mm² (2-Chips) auf so 110mm² (1-Chips) sowie von so 22-23W-Plattform-TDP auf 15 bzw. 25W sank bzw. leicht stiegt. Abgesehen davon, benötigt eine 1-Chip-Lösung am Mainboard auch weniger Bahnleitungen, wodurch die Plattform nochmal billiger & stromsparender wird.

Mir ging es doch nur darum, das man das gesparte TDP-Budget der GPU auf das TDP-Budget der CPU umlegen kann. Ich hatte allerdings vergessen, das die Kühllösungen heutzutage nicht mehr auf den maximal Verbrauch ausgelegt werden und man deswegen die CPU wohl trotzdem kaum höher takten könnte.


Also, du kritisierst Sachen, die in der Praxis in diesem Markt-Sekment (= Billig-Massen-Verkauf) überhaupt keinen Interessieren.
Und wenn man weiß, dass im Notebook-Sekment wegen der Komponenten die AKku-Zeite @ Idle mit Plus-Minus 25% Varieren, dann kann keiner deine angeblichen Stromvergeudungen nachvollziehen, die vielleicht max 1% ausmachen.

HP 255 ist ein Low-End-Notebook und so sollte man es auch betrachten.

Ich finde es nur Schade das es keinen Dualchannel gibt, das hätte einiges an Leistung bringen könnte.
Der Kabini muss schließlich hauptsächlich gegen die Celeron Prozessoren von Intel antreten und die sind nicht so schwach. Dann hätte AMD den Vorteil GPU und INTEL den Vorteil CPU. So ist der mögliche Vorsprung nicht mehr ganz so groß.
Intel positioniert seine ATOM-Reihe ja immer mehr in Richtung Smartphones und Tablets. Also als Konkurrenz zu ARM und nicht mehr zu AMD. Jetzt gibt es noch Berührungspunkte zwischen AMDs und Intels Low-End Linie, aber in Zukunft wird das wohl immer weiter abnehmen.
 
Zuletzt bearbeitet:
Winder schrieb:
Das Front-End hängt doch von der Architektur ab (also hier GCN) und das ging früher auch kleiner.
Wann früher?
Selbst mit der R600-Architektur konnte man damals das Front-End bzw. non-SIMD-Core-Bereich auf 50mm² abschätzen.
Sowohl von beim 65mm²-Low-End, als auch beim 100 & 140 & 250mm²-Dies.

Ich kann mich noch ein die Dikussionen erinnern, wo man noch als unglaubwürdig bewertet wurde, wenn man an einem gerüchte 75mm²-Ontario glaubte.
Denn ein RV810 hatte mit 2 SIMD schon 63mm². Und dann sollte ein Ontario mit 2-CPU-Kernen (je 4,7mm²) mit L2-Cache (je 3,4mm²) bei nur 1 SIMD-Weniger (= minus 8mm²) dann 75mm² Schaffen?
Ja, es war möglich. Nur ist das in den letzten 5 Jahren eben genau dieses die kleinste Front-End gewesen.
Oder du meinst die Zeit von 2000-2005 oder gar vor 2000, aber ich glaube kaum, dass diese Front-End heute technisch überhaupt noch möglich sind.

Mir ging es doch nur darum, das man das gesparte TDP-Budget der GPU auf das TDP-Budget der CPU umlegen kann.
a) sind die Mengen wie schon erwähnt völlig irrelevant.
b) Ist das nichteinmal die Philosophie von AMD, die TDP in jeder Last-Szenario völlig auszureizen.
http://www.notebookcheck.com/Im-Test-AMD-A6-1450-APU-Temash.92206.0.html
Siehe CPU & GPU-Verbrauch
Wie es wirklich um TDP und realen Stromverbrauch ausieht, verstehen heute aufgrund von Turbo & Co leider noch immer wenige. Gerade jene, die CPU-Performance in den Himmel loben.

Nur weil man könnte, bedeutet es nicht, dass es so ist.
Warum manche Leute so geil sind, wenn auf ihren Notebook 15W-TDP statt z.B. 20 oder 25 W-TDP draufsteht, der unter CPU-Last auch 15W verbraucht, ist mir ein Rätsel. Wenn ich mich schon als CPU-Wisser bekenne, sollte ich doch mit richtigen Wissen prahlen und nicht nur wie jeder andere stanardisierte Chinebench-Punkte bei gleichen "Marketing"-TDP runterbeten.

Ich finde es nur Schade das es keinen Dualchannel gibt, das hätte einiges an Leistung bringen könnte.
Der Kabini muss schließlich hauptsächlich gegen die Celeron Prozessoren von Intel antreten und die sind nicht so schwach. Dann hätte AMD den Vorteil GPU und INTEL den Vorteil CPU. So ist der mögliche Vorsprung nicht mehr ganz so groß.
Wenn man den Menschen schon einen Celeron andrehen kann, dann ist es noch leichter es mit Kabini-Single-Channel zu tun.
Der CPU-Only-Mythos lebt noch immer in vielen Köpfen, obwohl die PC-Markt-Krise und jahrlang nicht anspringenen Ultrabook-Markt und Tablet-Hype schon jahrlang was völlig anderes zeigt. Im Low-End-Markt wäre ein Kabini dem Celeron eh schon Überlegen, der in vielen Multimedia-Dingen absichtlich verkrüppelt wird.
Was hier im Forum viele nicht verstehen können ist, dass es wirklich genug Leute gibt, die nur Office & Internet brauchen. Dafür reicht ein Low-End-Notebook wie HD 255. Vorallem, wenn die HDD die große Schwachstelle ist.

Intel positioniert seine ATOM-Reihe ja immer mehr in Richtung Smartphones und Tablets. Also als Konkurrenz zu ARM und nicht mehr zu AMD.
Sie positionieren nicht, sondern sie shrinken es hin zu ARM. Dass sie mit OoO mal mit ARM & AMD gleichziehen, würde ich jetzt nicht als großartiege Entwicklung sehen.

Jetzt gibt es noch Berührungspunkte zwischen AMDs und Intels Low-End Linie, aber in Zukunft wird das wohl immer weiter abnehmen.
Das stimmt nicht. Intel wird mit Quad-Core mit so 2 Ghz in der Low-End-Linie bezogen auf die Reine CPU-Technik so ähnlich sein wie vielleicht noch nie. Aber die Zukunft bei Kabini-Nachfolger wird auch in HSA liegen und diese könnte schon nächstes Jahr paar Monate nach Intels 22nm kommen.

Auch in Zukunft wird immer mehr Atom-Technik in Low-End-Noteboks wie HP 255 kommen. Bisher war der Atom wegen der miserablen Multimedia-Technik für Low-End-Notebooks viel zu schlecht, was man am mittlerweile absterbenden Netbook-Markt schön sieht.
 
Mir ging es doch nur darum, das man das gesparte TDP-Budget der GPU auf das TDP-Budget der CPU umlegen kann. Ich hatte allerdings vergessen, das die Kühllösungen heutzutage nicht mehr auf den maximal Verbrauch ausgelegt werden und man deswegen die CPU wohl trotzdem kaum höher takten könnte.
Ich hab dir doch bereits gesagt, dass das bei AMD nicht so wie bei Intel ist wo die TDP der CPU mit der TDP der IGP quasi superpositioniert wird.
csm_Trinity_TurboCore_slide_f6bf891742.png


Der Turbo sollte es eventuell am besten erklären. Dieser hält eben den Haushalt immer gleich. Wenn die CPU bsp beansprucht wird, und die GPU nur den Desktop anzeigen soll, dann wird die GPU so weit herunter getaktet, sodass die CPU selber beinahe die komplette TDP ausnützen kann.

Bei Kabini wird es wahrscheinlich gleich laufen (nehme ich zu mindestens mal stark an).

Das was du möchtest, kann man sich eventuell dann erhoffen, wenn AMD beschließt, ein Jaguar CPU Part in Module stecken, wie sie das bei der PS4 APU machen, und für den Server eventuell mal 4 Moduler mit bsp 16 Cores anbieten. Dann könnte man erhoffen, dass diverse Ableger vllt auch mal am Desktop Markt zu finden wird (falls der Bedarf auch die Einführung rechtfertigt).
Einen reinen CPU Jaguar könnten sie eventuell ein bisschen mehr aus der TDP herausholen, eventuell sogar die Architektur etwas auf einen etwas höheren Takt optimieren.

Warum manche Leute so geil sind, wenn auf ihren Notebook 15W-TDP statt z.B. 20 oder 25 W-TDP draufsteht, der unter CPU-Last auch 15W verbraucht, ist mir ein Rätsel.
Dazu kann man sogar gut ein Bsp geben. Der Athlon II x4 750k hat eine TDP von 100 watt angegeben. Beim Standardwerten, verbraucht er aber nicht mehr als das A-Serie 65 watt tdp Modell mit aktiver IGP.

Was mir jetzt erst auffällt (danke an aylano und sein Link).
UVD 4.2 Videodecoder, VCE 2.0 Encoder
Ich bin mal gespannt, was die neue Version von UVD und VCE für Verbesserungen mit sich bringt.
Besonders VCE konnte bei der Einführung von Trinity noch nicht so punkten. (Im Vergleich zur Konkurrenz) Fraglich ob diese Verbesserungen vllt auch in Richland zu finden ist, und eventuell zu den Erneuerungen gehören.
 
Zuletzt bearbeitet:
mambokurt schrieb:
Eigentlich ist das doch einfache Rechnerei: das menschliche Auge kann 90dpi auf einen Meter(entspricht ungefähr 24" FullHD) auflösen....

;)

Wieso baut man dann Smartphones mit 450 dpi (und selbst da sehen viele den Unterschied zwischen 1280x800 und FHD)

... und ich behaupte mal der Abstand zwischen Smartphone in der Hand und Notebook Display ist auch nicht Faktor 3-4 - sogar recht ähnlich.

So am 23" FHD Display sitzend kann ich auch schwer einzelne Pixel ausmachen, dennoch wäre das Bild schärfer / brillanter wenn es die doppelte Auflösung hätte. Zudem kommt bei Win ja dazu dass man oft gern einfach mehr auf dem Bildschirm hätte aber keine Negative Skalierung einstellen kann (säh sicher auch schräg aus).
Ergänzung ()

hm wenn sich selbst Notebookcheck zu solchen Aussagen hinreisen lässt:

Die mäßige Geschwindigkeit bei der Bearbeitung einzelner Aufgaben kaschiert man als Anwender am besten damit, mehrere Dinge gleichzeitig zu tun – rein subjektiv fühlt sich das System dadurch recht performant an. Dennoch stellt sich uns die leise Frage ob AMD nicht besser daran getan hätte, nur zwei, aber dafür leistungsfähigere Kerne zu verbauen.

Aber danke für den Link aylano.

An sich sieht der Temash nicht übel aus. Zum Arbeiten würde ich mir zwar was anderes holen (auf das was NB Check anspricht) - für nen HTPC oder ne Multimedia Low Power Kiste aber dennoch interessant. Muss sich noch (in meinem all) was bei der AMD Software Unter Linux tun und ich hab schnell 2-3 der neuen APUs im Haus.

Edit:

In puncto Akkulaufzeit erweist sich der kleine 30-Wh-Speicher als hinderlich. Bei mittlerer Displayhelligkeit, aktiviertem WLAN und Web-Browsing kann der Anwender lediglich mit einer Laufzeit von rund 3 Stunden rechnen.

das auch so lala =/
Die Frage ist was für die schlechte Laufzeit verantwortlich ist... 30WH sind auch nicht so klein, imho kommt genau das Testgerät zuvor mit 60WH auf 12h

http://www.notebookcheck.com/Test-Update-Dell-Latitude-6430u-HD-Ultrabook.91944.0.html

Edit: Ok korrekterweise muss man sagen dass sich die 3H auf Webbrowsing beziehen, da dürfte die APU oft nah am Anschlag sein. Hier kommt das Dell Gerät auch "nur" auf 7,5h bei doppelt so großem Akku.
 
Zuletzt bearbeitet:
Krautmaster
An sich sieht der Temash nicht übel aus. Zum Arbeiten würde ich mir zwar was anderes holen
=>
Prime95 + FurMark (~0,85 GHz CPU): 21,9 Watt
Also 21,9 Watt für das ganze Notebook mit Display auf Maximum.

So ein Teil würde ich mir zum Office Arbeiten holen. Die 1,4 ghz werden dafür schon ausreichen. Die TDP von 15 watt wird scheinbar voll eingehalten.
Wem das nicht ausreicht, kann immernoch zum Kabini mit einer TDP von 25 watt zugreifen, für einen Office PC. Der hat dann 2 Ghz. Das dürfte dann nicht mehr zu langsam sein. Bis jetzt hat man doch auch meist zum E350, E450, also den Topmodellen zugegriffen. Der dürfte unter Last im gleichen Notebook dann vllt auf einen Verbrauch von 32 watt kommen.
Das Tablet mit dem Kabini und fetteren Akku, kann dann schon überzeugen.
 
die Frage stellt sich mir gar nicht ob die TDP eingehalten wird, die ist nicht mal genau bekannt und ich geh einfach mal davon aus dass dem so ist.

4 Kerne ist sicher ne feine Sache - aber wenn 4 Kerne von CPU A bei Auslastung aller 4 Kerne so schnell sind wie CPU B mit 2 Kernen - die sonstigen Rahmenbedingungen gleich sind, dann tendiere ich schlicht im Hinblick auf gängige Software eher zu den 2 schnelleren Kernen da ich keinerlei Nachteil dabei sehe.

Gute, heute spielen sicher andere Faktoren wie SSD + gutes Display fast ne übergeordnete Rolle (wobei sich die CPU Leistung wie ich finde auf kritischem Niveau bewegt), aber bei SSD, Akku und Display müssen die OEMs erstmal zeigen was sie aus den APUs machen.

Mich wundert etwas dass AMD nicht in der Lage ist klare Vorgaben zu machen. Muss ja nicht so streng sein wie bei Intel, aber Kabini grundsätzlich Dualchannel Ram vorzugeben muss doch drin sein...

Edit:

Ein Temash mit 2x2,8 Ghz statt 4x1,4 Ghz hätte mir zB besser gefallen. Oder eben ein Temash der 3 Ghz auf 1 Kern feuern kann wenn die anderen gammeln.
 
Zuletzt bearbeitet:
Kabini hat wie Temash nur Singlechannel, da ist die Vorgabe sinnbefreit.

Und wer weiß ob die überhaupt so hoch takten können(bei moderatem Verbrauch)?

Mich würde interessieren inweit man die Teile Übertakten und/oder Undervolten kann.
 
Krautmaster schrieb:
;)

Wieso baut man dann Smartphones mit 450 dpi (und selbst da sehen viele den Unterschied zwischen 1280x800 und FHD)

... und ich behaupte mal der Abstand zwischen Smartphone in der Hand und Notebook Display ist auch nicht Faktor 3-4 - sogar recht ähnlich.

Weil sie es sich einbilden etwas schärfer zu sehen, weil sie wissen dass mehr DPI da ist?
Ohne zu wissen dass die Schärfewahrnehmung nur zu einem Teil an der Auflösung hängt?

Rein rechnerisch und davon ausgegangen was die Optik des menschlichen Auges leisten kann,
sind 350dpi mit perfekten Augen, unter perfektem Licht ohne störende Einflüsse
bei einem Betrachtungsabstand von 30-40cm die absolute Grenze. Alles Andere ist Einbildung!

Und der Chip bei Notebookcheck ist ein Temash für Tablets oder Netbooks.
Die Kabini mit etwas mehr Takt auf der CPU und GPU machen in einem Notebook
sicher etwa mehr her.

Kabini mit 25W TDP und und etwa 27W Systemverbrauch wird etwa dasselbe verbrauchen
wie ein 17W ULV Intel (da kommt ja noch etwas dem Chipsatz zugute).
Die CPU Performance dürfte schlecht nicht sein und die GPU wird wohl selbst die HD4000 locker nass machen.

In einem HTPC, Ultrathinbook oder einem kleinen Office PC sicher eine gute Sache.
 
2,8-3Ghz bei 28nm bulk?
das wird kaum gehen...
 
Elkinator
Naja, ich bin mal gespannt, ob der 2 Ghz jetzt Base Takt oder schon Turbo ist. Ich erwarte eigentlich Turbo, aber es schaut so aus, als ob es sogar der Basetakt sein könnte. Wenn der Turbo mit 400 Mhz ausfällt dann haben wir immerhin schon 2,4 ghz auf einen Thread.
Aus Bobcat konnte man auch einiges rausholen, vllt kommt man wenigstens auf 2,8 ghz im Turbo.

Interessant wäre auch ein k-model. Von mir aus limitiert nur um zu sehen bei ein paar test wie hoch sich Kabini mit offenen multi OC lässt.
Ein K-Modell wäre zu mindestens schon etwas tolles in einem ITX-Board. Mit manchen e-350 konnte man immerhin auch schon ab und zu 2-2,1 Ghz mit OC erreich. Natürlich stellt sich die Frage ob der Takt noch viel sinn hat, da die genannten Prozessoren eher für niedrigere Takte gedacht sind.
 
pipip schrieb:
Das heißt der A6 wird eine IGP-Performance des A6 Richland ca auftrumpfen.
Na das ist aber nen ambitioniertes Vorhaben.

Der Temash wird doch nicht die Performance eines A6-Richland erreichen. Da reicht weder das TDP-Budget und erst recht nicht der Speicherdurchsatz.
https://www.computerbase.de/2012-11/alle-desktop-trinity-im-gpu-vergleichstest/8/
Nen Trinity A6 hängt ja schon ordentlich am Speichertakt. Zwischen 1333 und 1866 MHz liegen schon 16% zu 2400 sogar 25%. Mit nem Singlechannel landest du bei vergleichbar 933 MHz DC, das ist nochmal erheblich weniger.
 
Hallo Leute,

der A6-5200 ist für mich sehr interessant!

Gruß, JoeCool
 
bensen
Mjo, habe mich zu ungenau ausgedrückt. Ich meinte zum Vergleich einen A6 Richland ULV. Sonst würde die klassifizierung wenoger sinn machen. Eventuell A6 Richland mobile.
 
nachdem auch die 4C Kabini Version vom Jaguar mit 2 GHz eine Schmalspur-CPU ist, sollte man eigentlich kaum etwas anderes haben wollen, als die 2 GHz-Version, jedenfalls auch nicht in einem normal-großen Billig-Notebook. Immerhin ist die IPC im Vergleich zu Richland (Piledriver) auch schlechter, und es gibt keinen Turbo, also eine recht magere Single-Thread Performance.

also zB. CPUMark99 (der zeigt nur alte 32Bit Singlethread-Performance, AFAIK. natürlich noch ohne SSE2)
A10-4600M 3,2 Ghz 315 = 98,4 CPUMark99/GHz
E-450 1,65GHz 128 = 77,6 CPUMark99/GHz

Dh. eine A10-5750 Richland Piledriver-APU ist trotz 10W höherer TDP in einem normal-großen und leistungsfähigem Notebook (kein Ultrabook) auch ohne Zusatzgrafikkarte, leistungsmäßig sicher viel interessanter. Man müsste gefühlt ca. die doppelte Rechenleistung haben, trotz selber CPU-Kernanzahl! Nur auf besonders niedrigem Preis, und lange Akkulaufzeit zu schauen, rächt sich dann schnell, wenn man mit dem Ding auch etwas anstellen will.
 
pipip schrieb:
Der Turbo sollte es eventuell am besten erklären. Dieser hält eben den Haushalt immer gleich. Wenn die CPU bsp beansprucht wird, und die GPU nur den Desktop anzeigen soll, dann wird die GPU so weit herunter getaktet, sodass die CPU selber beinahe die komplette TDP ausnützen kann.

Bei Kabini wird es wahrscheinlich gleich laufen (nehme ich zu mindestens mal stark an).
Kabini wird wie seine Vorgänger keinen Turbo-Modus haben.
Soviel ich weiß, haben nur Modelle der C-Serie einen Turbo-Modus.

Das ist ja das Problem, dass sich die größten AMD-Kritiker in diesem Bereich (TDP & Turbo) sich am wenigsten auskennen und irgendwelche TDP-Werte kombiniert mit Chinebench-Zahlen runterbeten.

Einen reinen CPU Jaguar könnten sie eventuell ein bisschen mehr aus der TDP herausholen, eventuell sogar die Architektur etwas auf einen etwas höheren Takt optimieren.
Das interessante an der Jaguar-Architektur, was in seriösen Homepages eingeganten wurde, ist, dass (wie schon erwähnt), die sehr vielen neuen Power-Gating innerhalb der Architektur. D.h. wen man einzelne Teile (z.B: FPU) abschalten kann, kann man genauso einzelne Teile (zb. Integer) hochtakten. Wobei das noch zukunftsmusik ist. Denn bevor Turbo-Modus (= Übertakten/Untertakten von Units (GPU & CPU & Memory & Co) kam auch erst, nachdem das Power-Gating in den einzelnen Units (siehe Core-Abschaltung von Penryn) eingeführt wurde.

AMD wollte damals mit Barcelona schon sehr für einen hablechten Turbo-Modus einführen, wo einzelne Kerne eigene Spannungen & Takte hatten, die bei Bedarf (= Unterauslastung) sich runtertakten & runtervolten. Halbecht deshalb, weil es ausschließlich fürs Stromsparen gedacht war, sodass keine Kerne übertakt worden waren, nachdem 1, 2 oder 3-Kerne per Takt & Spannung schlafen gelegt wurde.

Diese Technik kam sehr früh und funktionierte noch nicht ausgereift.
Möglich wäre ein Turbo-Modus innerhalb der CPU-Core-Architektur eventuell schon im Kabini Refresh. Schließlich bekam Ontario auch im Refresh 1 Jahr später eine Turbo-Modus innerhalb des CPU-Desgins. Aber ich hoffe eher, dass es beim 20nm-Nachfolger a la Jaguar+ (so wie es genannt wird) eingeführt wird.

HITCHER_I schrieb:
nachdem auch die 4C Kabini Version vom Jaguar mit 2 GHz eine Schmalspur-CPU ist, sollte man eigentlich kaum etwas anderes haben wollen, als die 2 GHz-Version, jedenfalls auch nicht in einem normal-großen Billig-Notebook. Immerhin ist die IPC im Vergleich zu Richland (Piledriver) auch schlechter, und es gibt keinen Turbo, also eine recht magere Single-Thread Performance.
Wo soll bitte ein 4C Kabini in einem 350-500 Euro HP 255 Notebook eine Schmalspur-CPU sein?
Damit kann man übrigends auch in Profi-Programmen a la AutoCAD oder Photoshop arbeiten. Vielleicht nicht für einen täglich 8 Stunden arbeiteten Architekten oder Profi-Grafiker, aber der würde niemals eine 350-500 Euro dafür zahlen.

Wenn ich es richtig in erinnerung haben, dann entspricht der Kabini-CPU-Power der ersten oder weiten Ultrabook-CPU-Performance. Diesen 1-2 jahre alten CPUs als Schmalspur zu bezeichnen halte ich schon sehr als gewagt. Auffällig sind bei CPUs dieser Zeit eher die Schmalspur-Video- & GPU & Flash-Leistung, sowie non-OpenCL @ iGPU und non-DX11 bzw. der generell miserablen Bildqualität @ Games.

Es ist schon interessant, wie manche bei einem 350-500 Euro-Notebook noch einen Haar in der Suppe finden, obwohl dieser den Ultrabooks der ersten und zweiten Generation in Sachen Technik sogar drüber ist.
Vorallem hat die Ultrabook-Verkaufsentwicklung sehr schön gezeigt, dass nicht die CPU-Performance sondern der Preis den Ansatz des Durchbruches schaffte. Einen 25W-TDP-SoC kann man übrigens auch in diese Ultrabook/Ultrathin-Katigorie vergleichen. Vorallem deshalb, weil der 4C-Kabini keinen Turbo hat.
 
bis 500€, ohne Zusatzgrafikkarte in normal-großem Notebook, in das Segment fällt doch auch der Richland, und der ist eben deutlich schneller.
 
Zurück
Oben