News Neue Desktop-Prozessor-Roadmap von AMD

Man ey, ich kanns nimmer abwarten bis LLano endlich kommt. Wenn der auch nur 20% mehr Leistung bringt wie meine 3870, werde ich diese zusammen mit meinem 5200+ endlich rauswerfen. Mehr Leistung bei deutlich weniger Stromaufnahme, so muss es sein!
 
Finde schon, dass ne "onBoard" grafik zu den Aufgaben des Mainboards gehört... Da soll es auch bleiben... Da hat man wenigstens noch ne Wahl beim Mainboar kauf.. Und bei der jetzigen oder zukünftigen Entwicklung wird sie mir aufgebrummt ohne, dass ich mich "wehren" kann :rolleyes: schade, keine so gute Entwicklung, finde ich.
 
megalodon schrieb:
Wie sieht es eigentlich für die derzeitge Plattform AM3 aus wird es da auch neue CPUs geben?
Ich steig da nicht durch
megalodon schrieb:
Also die Bulldozer Zambezi Cpu wird nur AM3+ kompatibel sein...Wie es aussieht ist AM3 schon nach einer CPU-Generation am Ende...
So ist es, aber man kann die AM3 CPU darauf nutzen- Wird also Zeit die Plattform zu brinden damit bald Board für AM3r2 auf den Markt kommen. Leider gibt es dazu noch nichts neues.
Irgendwie verstehe ich auch nicht wirklich, warum der neue Sockel nötig wurde. Wie man bei den Server CPUs sieht, bleibt es bei Dual Channel RAM und von daher sollte der AM3 alles haben, was auch Zambbezi braucht.

68Marcus69 schrieb:
Kann man eigentlich die Grafikkarten nur für die Spiele nutzen und die integrierte GPU der CPU für Windows ohne im BIOS ewig umzustellen?
Reichen die integrierten GPUs eigentlich für eine HD Filmwiedergabe aus?
Das kann man noch nicht sagen. HD Wiedergabe darf man sicher erwarten, alles andere wäre ja weniger als ein Atom mit ION Chipsatz bietet. Wieweit ein Parallelbetrieb der integrierten mit einer externen Graka möglich sein wird und überhaupt Sinn macht, ist schwer zu sagen. Man kann ja bei dem 890GX auch eine CrossFire machen und warum sollte weniger gehen? Andererseits wird die integrierte GPU im Vergleich zu einer externen sehr leistungsschwach bleiben und für gehobene Anspüche wie Spiele wird man auch weiter eine externe Graka brauchen und deren Leistung steigt ja immer schneller.

Tekpoint schrieb:
@Lexxington: Meinte das so das 2012 auch 8 Kener nur gibt aber mit GPU halt und in 32nm noch. Muss ja dann trotzdem stärker werden irgendwie und darauf bin ich gespannt.
Irgendwie sehe ich da keinen Sinn, den man wird kaum eine sehr leistungsstarke CPU mit einer doch ehr schwachen (im Vergleich zu externen GPUs) integrierten GPU nutzen wollen und eine sehr leistungsstarke GPU zu integrieren dürfte kaum möglich sein.

Lord Sethur schrieb:
@ all, die Angst vor der GPU am CPU-Die (oder diese als nutzlos erachten) haben:
Naja, prinzipiell mag die Thematik ja problematisch sein - nicht jeder braucht eine Low-End-Graka zusätzlich. Aber:
- OnBoard-Grakas haben Boards ja auch nicht wirklich teuer gemacht - weil diese aus dem Low-End-Segment stammen. Wird bei CPUs wohl auch nicht anders sein.
Etwas teuer sind sie doch, allerdings werden auf dem Board zusätzlich Komponenten für die Graphikausgabe benötigt, die auf der Die natürlich in diesem Sinne nichts extra kosten. Allerdings nehmen sie den Platz für andere Sachen in Anspruch, etwa mehr Kerne oder Cache.
Lord Sethur schrieb:
- Irgendwann wird GPU-Computing in den Alltag einziehen... und irgendwann wird eine GPU auf dem CPU-Die wohl so was sein, wie früher ein Co-Prozessor - anfangs optional, irgendwann nicht mehr wegzudenken und zur Standardausstattung gehörend...
Wobei sich die Frage stellt, wozu man diese dann nutzen wird, wenn man sowieso schon 8 CPU Kerne hat. Dazu muß die Software diese unterstützen und das dann auch noch einmal für Intel und einmal für AMD und womöglich noch einmal für externe NVidia GPUs.

Vermutlich dürfte aber genau hier der wahre Grund dafür liegen: NVidia die ja keine integrierten GPUs bieten können, aus dem GPU Computing Markt zu drücken indem die Softwarehersteller auf ihre Lösungen ziehen. Das wird durch die große Anzahl an installierten GPUs (selbst wenn sie nicht genutzt werden) dann halt leichter. Außerdem hat Intel die GPU Entwicklung keinesfalls aufgegeben und macht gerade dort (in Sandy Bridge) und auch für GPGPU grosse Anstrengungen.
Lord Sethur schrieb:
2012 - irgendwann wird wohl langsam DDR4 am Horizont auftauchen.

Gruß,
Lord Sethur
Davon habe ich noch nichts gelesen. DDR4 war mal eine Initiative von Qimonda und die gibt es ja nicht mehr. Seidher haben sich eigentlich nur die Frequenzen von DDR3 verbessert und ob es wirklich Sinn macht noch mehr Daten mit einer Anfrage zu übertragen muß auch bezweifelt werden, denn man braucht nicht in jedem Fall die ganzen übertragenen Bit und muß nur noch länger bis zur nächsten Übertragung warten.

zenturio xy schrieb:
Finde schon, dass ne "onBoard" grafik zu den Aufgaben des Mainboards gehört... Da soll es auch bleiben... Da hat man wenigstens noch ne Wahl beim Mainboar kauf.. Und bei der jetzigen oder zukünftigen Entwicklung wird sie mir aufgebrummt ohne, dass ich mich "wehren" kann :rolleyes: schade, keine so gute Entwicklung, finde ich.
Das ist doch Illusion. Schon heute hast Du doch praktisch keine Auswahl mehr, den NVidia ist aus dem Chipset Markt und so bekommst Du bei Intel nur noch aktuelle Boards mit Intel Chipsatz und Intel IGP (inzwischen in der CPU) und bei AMD hast Du auch nur noch die Wahl zwischen 880GX und 890GX (oder veralteten Boards).
Was einmal vom Mainboard in den Chipsatz integiert wurde kommt kaum noch zurück und was in der CPU gelandet ist schon gleich gar nicht.
 
@ Lord Sethur, Holt

Danke habe ich leider auch nicht anders erwartet.

Mir geht es tatsächlich um den Energieerbrauch, da ich selten spiele, dann aber eine Leistungsstarke GPU brauche. Wenn ich allerdings nicht spiele, reichen ir wohl die integierten GPUs in den CPUs.
 
@Holt
Wobei sich die Frage stellt, wozu man diese dann nutzen wird, wenn man sowieso schon 8 CPU Kerne hat. Dazu muß die Software diese unterstützen und das dann auch noch einmal für Intel und einmal für AMD und womöglich noch einmal für externe NVidia GPUs.

Naja, eine GTX480 etwa überflügelt Intels 6 core CPU im Rendering ca. um den Faktor 20. Klar, eine ondie Graphik wird wenig mit einer GTX480 gemein haben, aber selbst wenn die ondie GPU die Gesamtrechenleistung nur verdoppelt(und das passiert bei Gleitkommaanwendungen mal ganz schnell), wäre das schon eine große Hilfe/Zeitersparnis. Schnittstelle ist OpenCL, da ist dann auch egal ob AMD, NV oder Intel(falls Intel irgendwann mal einen Open CL Treiber programmiert)

AMDs ondie GPUs ist zudem durchaus in der Lage, den ein oder anderen Shooter mit spielbaren Framraten zu versorgen. Genau diesen Faktor fürt AMD ja als eines der wesentlichen Kaufargumente für ihre Fusion Platform(en).
 
Jetzt mit der Roadmap als Bild hat man endlich einen vernüftigen Überblick über die ganzen Codenamen. Mir war nicht klar, dass es über Llano noch eine stärkere CPU-Klasse geben soll, nämlich Zambezi.
Nicht nur das Zambezi mehr 4-8 Kerne haben soll und damit glatt mal doppelt so viele wie Llano. Auch hat nur Zambezi die "echten" Bulldozer Cores, während Llano "nur" Stars K10.5 Cores haben wird. Die "Stars" Cores sind nichts anderes etwas verbesserte PhenomII Kerne. Dafür hat Llano dann eben eine integrierte DX11-GPU, die Zambezi wiederrum nicht hat.

Für mich bedeutet das, weder Llano noch Zambezi sind perfekt. Ich möchte 4 Kerne, Next-Gen CPU Cores (Bulldozer), zusammen mit DX11 (nur Llano) und das in 32nm. Genau das gibt es nicht! :(
Das ändert sich erst 2012 mit Komodo und Trinity. Erst diese haben dann alles was ich will. Doch bis dahin dauert es noch sehr lang...

Zum Thema integrierter GPU-Kern + diskrete PCIe Graka:
Ich bin mir sehr sicher, dass AMD zum Start von Llano und dessen Chipsätzen eine Technik vorstellt, mit der man die diskrete PCIe Graka im Windows Betrieb abschalten kann. Die PCIe Graka fürs zocken und die IGP für Windows/Internet-Kram. So etwas hat AMD auch bereits im Juni 2010 angekündigt:
https://www.computerbase.de/2010-06/amd-entwickelt-angeblich-besseres-optimus/
 
Holt schrieb:
[...]
Davon habe ich noch nichts gelesen. DDR4 war mal eine Initiative von Qimonda und die gibt es ja nicht mehr. Seidher haben sich eigentlich nur die Frequenzen von DDR3 verbessert und ob es wirklich Sinn macht noch mehr Daten mit einer Anfrage zu übertragen muß auch bezweifelt werden, denn man braucht nicht in jedem Fall die ganzen übertragenen Bit und muß nur noch länger bis zur nächsten Übertragung warten.
[...]

Irgendwann brauchts aber was neues, weil einfach die Spezifikationen nicht mehr reichen - Spannung vor allem aber auch die maximale Kapazität pro Chip von 8 GBit - also 16 GB pro Modul. Ich denke schon, dass DDR4 bis 2012 zumindest als Standard festgesetzt ist. Quimonda ist nicht der einzige, der da dahinter steht - auch Intel etwa hat ein gewisses Interesse daran.
Aber du hast insofern Recht, dass es in letzter Zeit recht ruhig um das Thema geworden ist...

Gruß,
Lord Sethur
 
The_Virus schrieb:
Für mich bedeutet das, weder Llano noch Zambezi sind perfekt. Ich möchte 4 Kerne, Next-Gen CPU Cores (Bulldozer), zusammen mit DX11 (nur Llano) und das in 32nm. Genau das gibt es nicht! :(
Das ändert sich erst 2012 mit Komodo und Trinity. Erst diese haben dann alles was ich will. Doch bis dahin dauert es noch sehr lang...
Also ehrlich gesagt kann ich diese Anforderung nicht ganz nachvollziehen. Entweder eine echtes High-End System und dann eben auch mit externer GPU oder eben eine Mainstream System, bei dem weder CPU noch GPU Spitzenklasse sind. Bulldozer bietet erstes, Llano das zweite. Das man dann künftig die Bulldozer Archtektur für alle CPUs übernimmt, außer dem besonders sparsamen, ist auch ok. Aber für den ersten Aufguss wird man nicht zwei komplett neue Dinge gleichzeigtig machen, einfach um die Entwicklungszeit und der Fehlerrisiko zu reduzieren.
The_Virus schrieb:
Zum Thema integrierter GPU-Kern + diskrete PCIe Graka:
Ich bin mir sehr sicher, dass AMD zum Start von Llano und dessen Chipsätzen eine Technik vorstellt, mit der man die diskrete PCIe Graka im Windows Betrieb abschalten kann. Die PCIe Graka fürs zocken und die IGP für Windows/Internet-Kram. So etwas hat AMD auch bereits im Juni 2010 angekündigt:
https://www.computerbase.de/2010-06/amd-entwickelt-angeblich-besseres-optimus/
Das bezog sich auf Notebooks. Ob und wann das für Deshtops kommen wird, muss man halt abwarten. Da AMD gerade auch stark im Bereich Multimonitor ist, wäre zumindest die Frage offen, wo der/die in dem Fall anzuschliessen wären.
 
@Holt:
Ich bin eigentlich Intel-Fan und wollte ursprünglich einen Intel Sandy-Bridge 32nm Quadcore kaufen. Dieser erfüllt alle meine genanneten Anforderungen, bis auf den schwächeren GPU. Ich denke wenn, dann werden eher die Zambesi/Bulldozer mit SandyBrigde mithalten können. Die Llano/Stars 10.5 ziemlich sicher nicht.

Dein Argument: "Wer HighEnd will, braucht keine interne GPU"
An sich stimmt das natürlich. Als Zocker hab ich sowieso eine PCIe Graka (6850). Aber ich gehe weiterhin davon aus, dass AMD mit den Llano-Chipsätzen auch eine ähnliche Technologie wie Hybrid SLI/Optimus für Desktops vorstellen wird. Dafür braucht man aber die interne GPU.
Jetzt kann man natürlich argumentieren... "das kann man mit den Intel Sandy Bridge auch nicht". Aber gerade deshalb muss AMD soetwas bringen. Eine CPU und GPU Schmiede unter einem Dach zu haben ist ein großer Vorteil gegenüber Intel. Mit einer Hybrid SLI/Optimus Technologie, hätten Sie einen (in meinen Augen) großen Vorteil, was die Gesamt-Plattform angeht.

Tja, wenn Sie das nicht so umsetzen, werde ich ganz klar bei Intel bleiben und mir Ende nächsten Jahres einen 22nm Ivy Bridge holen. Denn Intels enromer Vorteil ist die extrem hohe Energieeffizenz, neben der höheren Performance.
Für mich als Stromspar-Suchtie war AMD bisher einfach nicht konkurrenzfähig und ich hoffe halt weiterhin, dass sich das mit den Fusion CPU's ändert.
 
Hier findest Du was über die Pläne von AMD zu dem Thema.

Wie es mit der Energieeffizenz aussehen wird, kan man jetzt nur erraten. Dies Thema ist ja noch nicht so alt und AMD bringt erst jetzt mit Bobcat und Bulldozer die ersten wirklich komplett neuen CPU Architekturen seid Jahren heraus und bei denen war das als Ziel deuchtlich zu erkennen. Bobcat dürfte Atom diesbezüglich schon mal abhängen, zumal Atoms wirklich sehr schwach sind.
Aber auch durch kleine Änderungen und verbesserte Herstellung läßt sich einiges erreichen. Hatten die C2 X4 noch mit 140W TDP, so man die C3 Maske mit 125W aus und die E0 der X6 haben trotz 50% mehr Kernen selbst bei 3.2GHz noch immer 125W TDP. Die Llano/Stars vorab zu verurteilen wäre also falsch und man sollte wirklich die Test nach Erscheinen der Produkte abwarten und dann auch die kompletten Plattformen vergleichen. Chipsätze / Boards mit schnellen Schnittstellen wie SATA3 und USB3 werden dabei vermutlich einen etwas höhreren Verbrauch aufweisen, denn mehr GHz brauchen eben auch mehr W, nicht nur in CPUs.
Am meissten spart man aber schon mal, wenn man sich ein 80+ Gold Netzteil kauft.
 
Bedeutet das nun, daß es in nicht allzuferner Zukunft gar keine reinen CPUs mehr von AMD geben wird? Oder mißverstehe ich da was? Es wird immernoch viele Kunden geben, die CPU und Grafikkarte lieber getrennt sehen. Und: eine APU zu kaufen und zusätzlich eine Grafikkarte, das wäre doch Verschwendung oder nicht? Wird aber in dem Fall vermutlich notwendig sein, wenn man eine High-End-DX11-Graka möchte. Und sowas wird vermutlich nicht in den APUs drinstecken, schätze ich. Eher die Mittelklasse oder so...
 
Wolfsrabe schrieb:
Bedeutet das nun, daß es in nicht allzuferner Zukunft gar keine reinen CPUs mehr von AMD geben wird? Oder mißverstehe ich da was? Es wird immernoch viele Kunden geben, die CPU und Grafikkarte lieber getrennt sehen. Und: eine APU zu kaufen und zusätzlich eine Grafikkarte, das wäre doch Verschwendung oder nicht?
Die Grafik sollte dir verdeutlichen, wo die Reise hin geht:
,X-B-268175-3.png

http://media.bestofmicro.com/,X-B-268175-3.png

Je nach dem, wie leistungstark der Grafikpart in der APU ist, kann und wird die eine oder andere Grafikkarte nicht mehr zusätzlich gekauft werden müssen.

In wie weit zukünftig die APU mit der separaten Grafikkarte zusammenarbeiten können wird, wird sich wohl erst noch zeigen müssen. Die Software will ja schließlich auch an die neue Hardware-Konstelation angepasst werden. ^^
 
Wolfsrabe schrieb:
Bedeutet das nun, daß es in nicht allzuferner Zukunft gar keine reinen CPUs mehr von AMD geben wird? Oder mißverstehe ich da was? Es wird immernoch viele Kunden geben, die CPU und Grafikkarte lieber getrennt sehen. Und: eine APU zu kaufen und zusätzlich eine Grafikkarte, das wäre doch Verschwendung oder nicht? Wird aber in dem Fall vermutlich notwendig sein, wenn man eine High-End-DX11-Graka möchte. Und sowas wird vermutlich nicht in den APUs drinstecken, schätze ich. Eher die Mittelklasse oder so...

Die Nutzung der GPU als Rechenknecht zeigt wohin die Reise geht. Intels Studien mit zig Deka-x86-Kerne, CELL und andere weniger bekannte Spezialprozessoren mutieren mit immer mehr Kernen/Rechenwerken zu massiv parallelen Architekturen, während die massig auftretenden primitiven GPU Rechenwerke immer sophistischer werden ... irgendwann trifft man sich in der Mitte.
 
bin mal gespannt auf die leitung . entwender sind das Krüken oder eben ned wie immer ^^
 
Wolfsrabe schrieb:
Und: eine APU zu kaufen und zusätzlich eine Grafikkarte, das wäre doch Verschwendung oder nicht? Wird aber in dem Fall vermutlich notwendig sein, wenn man eine High-End-DX11-Graka möchte. Und sowas wird vermutlich nicht in den APUs drinstecken, schätze ich. Eher die Mittelklasse oder so...

Richtig. Eher sogar Einsteigerklasse. Du wirst auf absehbare Zeit mit keiner APU auch nur in die Nähe der aktuellen Mainstreamkarten kommen. Da sind zu viele Limits:

  • Bandbreite durch DDRx:
    reicht im Moment nichtmal durchgehend für Llano
  • Leistungsaufnahme: CPU und Highend-GPU in einem Chip? Forget it
  • Die-Größe
  • indirekte Kosten z.B. durch eine Stromversorgung auf dem Mainboard, wenn du eine Highend-GPU in der APU unterbringen wolltest
  • Modellvielfalt und Kannibalisierung des GPU-Marktes:
    Nicht jeder braucht Leistung X. Böte man Highend an, müsste man viel mehr Modelle anbieten, was für den Hersteller teuer ist. Und wer kauft dann noch die diskreten GPUs, wenn es das in einem Package gibt?
 
Zurück
Oben