News AMD: Desktop-Fusion 2010, Notebook 2008?

Warscheinlich will er die GPU so stark übertakten das eine Kernschmelze droht und im Falle eines Falles einfach eine externe Lösung benutzen. Verstehe die Frage auch nicht, oder fragst du auch ob bei einem Quad die 3 Kerne noch funktionieren wenn einer über den Jordan geht?
 
Zuletzt bearbeitet:
wenn ich mich nicht irre hat intel sowas doch auch schon aufn plan stehn oder nicht? bei den neuen nehalem cpus?
 
WENN die Leistung der GPU für HD ausreicht wäre es sicher auch gut für nen HTPC in nem netten kleinen selbstgebauten Gehäuse.
 
Das kann auch für Spieler interessant sein. Nämlich dann, wenn per HybirdPower zwischen der schwachen Swift GPU und einer starken dedizierten GPU umgeschaltet werden kann, um im 2D bzw. Desktop-Modus nicht zu viel Strom zu verbrauchen.
 
Warum ändern sie den Namen? Fusion hört sich doch viel besser an als Swift.

Guten Tag ich hätte gerne ein Gerät mit "Swift" Technik, haben sie sowas da?
..... Aber sicher doch die Reinigungsmittel sind gleich dahinten.

Also wie bereits gesagt wurde, der größe Vorteil gegenüber einer seperaten Grafikeinheit sind die Stromersparnisse und die reduzierten Herstellungskosten. Wenn man bedenkt, dass die Stromersparnis "Onboardchip vs die kleinste seperate Grafikkarte" schon deutlich ausfällt und hier nochmal angesetzt wird, dann ist das doch optimal für Notebooks.

Und auch für "High End" Rechner ist die Technik zu gebrauchen, im Officebetrieb kann die seperate Grafikkarte völlig abgeschaltet werden und der GPU Kern des Prozessors übernimmt einfach.

Desweiteren kann man dies gut in Cool & Quite integrieren, sobald man nur surft taktet sich gleichzeitig die CPU und die GPU herunter. Oder man spielt einen HD Film ab, die GPU taktet sich hoch und übernimmt die Hauptarbeit, die CPU kann weiterhin im niedrigen Bereich takten.

Oder man startet ein aufwendiges 3D Spiel, die seperate Grafikkarte schaltet sich zu und die GPU schaltet sich ab. So muss der Prozessorlüfter nur die CPU oder die GPU zur selben Zeit effektiv kühlen.
 
Das Swift die DualCore CPUs in 2009 ersetzen soll, wird Swift auch wie geplant in 2009 kommen. Zudem steht für Notebook erstmal Puma an, welches dann in 2009 von Swift abgelöst werden soll. Die News von Fudzilla ist ne eindeutige Ente.
 
Du bist wohl einer der vielen, die meinen, dass man mit einer LowEnd Grafikkarte nicht zockt, weil Crysis nicht drauf läuft.

Auf meinem Laptop hab ich eine 8400 GS, der allgemeinen Definierung nach Low End.
Ich spiele Call of Duty 4, ProEvo 2008 und andere Spiele...

Aber nein, am besten jedes Jahr die gleiche GraKa mit neuer Bezeichnung rausbringen, die Leute mit einer LowEnd Graka haben nichts besseres verdient, oder wie? Oo
 
Das ist falsch.
Die Zukunft liegt in einem zentralen Server pro Haushalt, der irgendwo stehen kann, genug Rechenleistung hat um jedes Zimmer mit der notwendigen Rechenleistung zu versorgen.
Deshalb wird es auch in Zukunft keine Konsolen mehr geben.Und ja wir reden ca. vom Jahre 2020+ ...
 
Besonders Interessant wäre das auch bei Notebooks, da diese dann auch ein leistungstärkeres Grafikkmodul mit bringen könnten, dieses aber im "Akkubetrieb" deaktieren könnten und im Netzbetrieb voll auffahren :) Ach wie schön kan man das weiter spinnen.
 
So utopisch ist das nicht. Mit Puma soll das ja noch dieses Jahr kommen. Eine Mobility Radeon HD3200 im Chipsatz, die so gut wie keinen Strom verbraucht, wenn man nicht am Netz hängt, oder nichts aufwändiges macht und eine dedizierte Mobility Radeon HD3870 wenn man dann alles angeschlossen hat und Crysis spielen will ^^. Schade, dass die diese Idee noch nicht eher umgesetzt haben. Wäre ja technisch sicher durchaus eher machbar gewesen.
 
@Suxxess: Swift heißt jetzt Swift, weil es eben nicht Fusion im ursprünglichem Sinn ist. Hier scheint imho auch die News daneben zu liegen. Fusion wurde ursprünglich mit Bulldozer Kernen geplant, ob dieser langsam ist, kann niemand offiziell sagen ;)
 
Also das Niveau der CB News lässt seit einiger Zeit zu wünschen übrig, jedenfalls bin ich es nicht gewohnt das sich CB an so fragwürdigen News beteiligt.

Ende Februar wurden hier die Notebook Roadmaps gezeigt und da war Swift deutlich für die zweite Jahreshälfte 2009 geplant.
https://www.computerbase.de/2008-02/neue-roadmap-fuer-amds-notebook-prozessoren/

Mal abgesehen davon das der Phenom erst mal den Umstieg auf 45nm wohl behütet schaffen muss oO
 
Was soll daran schlecht sein wenn zwei Wärmequellen aneinander liegen? So kann man ein einheitliches Kühlsystem drüber stülpen, gut das sieht nicht geek genug aus, aber darum gehts auch nicht.
 
Was meinst du mit HD? Die Wiedergabe von Filmmaterial bis zu 1080p? Das können schon die nicht mehr ganz so frischen IGPs.
 
Ich versteh den Sinn der Sache nicht wirklich.

Damit die GPU im Prozessor ein Videosignal ausgeben kann, braucht man ja wieder ein spezielles Mainboard, das zwar keinen IGP besitzt, aber eine Schnittstelle, mit der man das das Videosignal dennoch ausgeben kann.
Wieso dann nicht gleich einen IGP am Mainboard benutzen?

Außerdem dürfte es sich auf die Kühlung (v.A. in Notebooks) negativ auswirken, da man nun 2 warme Komponenten (CPU u. GPU) auf einem Fleck kühlen muss. Ganz zu Schweigen von der verlorenen Flexibilität bei der Onboardgrafik. Ich glaube kaum, dass es für AMD billiger ist, jede CPU in 5 Versionen mit verschieden GPUs auszuliefern.

Der Grafikchip ist auf dem Mainboard besser aufgehoben - meine Meinung.
 
Die 2 Waermequellen werden zusammen waermer als wenn sie getrennt voneinander mit aequivalenten Kuehlern gekuehlt werden wuerden - von daher halte ich es fuer besser, wenn sie nicht direkt nebeneinander liegen.
 
das kann eine revolution im notebooksektor werden und intel würde mächtig dumm aus der wäsche guggn.

es war schon vor einem jahr zu lesen, dass intel vor nichts so ne angst hat wie vorm fusion /swift.

sämtliche geschäftsnotebooks, die ja wohl der größte anteil sind, würden davon profitieren.
 
Wenn ich mich recht entsinne, hat die PCGH geschrieben, dass der Vorteil des "Fusion" aka "Swift" ja die Möglichkeit ist, dass die CPU die komplexe Rechengenialität der GPU und umgekehrt diese die universelle Rechenkraft der CPU nutzen kann.
Klar ist das Konzept für integrierte Systeme und Notebooks gut, aber macht es nicht erst wirklich Sinn, wenn auch die Grafikeinheit "High End" ist?
Oder ist das zu realisieren unmöglich bzw. aufgrund der Wärmeabgabe unökonomisch?
 
Zurück
Oben