News Grafik der „Fusion“-APUs schneller als aktuelle GPUs?

wäre genial wenn das alles stimmt. dann würden die netbooks auch endlich mal ne ganze ecke mehr dampf kriegen. träum träum kann es nicht schon 2011 sein^^
 
Nilpferd schrieb:
Ne integrierte Grafik auf HD5670 Niveau wäre schon ne Überlegung wert, vorallem weil meine 4350 doch recht langsam ist :/
btw:
CPU- Kühler sind nicht stärker als GPU-Kühler^^
http://de.wikipedia.org/wiki/ATI-Mobility-Radeon-HD-5000-Serie

Der Leistungsbedarf zwischen 5450 und Mobility Radeon HD 5650 ist gering während intern die Zahl der Streamprozessoren geradezu explodiert.

Auf dem DIE sind es etwa 30mm2 wenn man 32nm und 100 zu 480 Streams annimmt.

Ich denke für Quad-Core CPU wären die 480 Stream-Prozessoren gut geeignet. Und dabei noch Varianten mit deaktivieren Cores und Stream-CPUs.
Oder nativ noch Dual-Core mit 240 Stream-CPUs und als Sempron vielleicht Dual-Core mit 2* 512k L2 und 160 Stream-CPUs.
 
Muss die fusionierte GPU wirklich stark sein?
Ich denke, sie sollte das Minimum erfüllen, sodass man für einen Office-PC keinerlei zusätzliche GPU mehr benötigt. Sie sollte v.a. stromsparend und effizient sein und volle HD-Filmbeschleunigung bieten.
Ich finde dies alles in Kombination mit einer Optimus-ähnlichen Abschalttechnik für die dicke Exklusiv-GPU viel wichtiger als 0,5fps mehr in Crysis... (was dann immer noch unspielbar ist, aber eben 0,5 frames "spielbarer" als die Konkurrenz...)

WENN man dann spielen will, kann man sich jederzeit eine 6770+ reinknallen...
Ich würde in Zukunft gerne sehen, dass GPUs in Zukunft wirklich 0Watt idle ziehen, wenn die IGP/Fusion übernimmt...

Swissjustme schrieb:
Hab ich gemacht und ich muss sagen, dass mich das Grauen gepackt hat.
Der AMD-Kerl redet keine Silbe über die Hardware, geschweige denn Fusion. Wie ich das verstehe, zeigt er uns wie wir in Zukunft noch sinnfreier mit Powerpoint-Karaoke/sinnfreien Rotationsgedusel unsere Zeit beraubt werden können. Fähig wird dazu so ziemlich jede GPU sein... ob Fusion oder nicht ist da völlig irrelevant (meine HD4850 beispielsweise beschleunigt schon jetzt PhotoShop oder HD-Filme, so what?)


PS: wenn ich so einen Karaoke-Show-Mist bei einem (PowerPoint-)Vortrag sehe, würde ich auf der Stelle mein Geld zurückfordern... ich besuche Vorträge um was zu lernen - das Fachwissen dieser Knöpfchendrücker verhält sich jedoch immer umgekehrt proportional zu der Anzahl ihrer Animations/Soundeffekte...
 
Zuletzt bearbeitet:
Muss die fusionierte GPU wirklich stark sein?
Ja, weil AMD damit ein Produkt realisiert, das 2 bisherige Produkte ersetz, damit Komplettsysteme ermöglicht, die bei der Konkurenz größer und teurer wären.
Ich denke, sie sollte das Minimum erfüllen,
Iiii, wie langweilig!
Wieso Office-PC? Eher ein günstiger/kompakter Multimedia PC.
0,5fps mehr in Crysis...
Ich glaube du verwechselst da was, das hat ja nix mit Fusion zu tun.
WENN man dann spielen will, kann man sich jederzeit eine 6770+ reinknallen...
Kann man eben nicht(Geldbedarf/Platzbedarf/technische Unversiertheit) bzw. will es gerade vermeiden.
Ich würde in Zukunft gerne sehen, dass GPUs in Zukunft wirklich 0Watt idle ziehen, wenn die IGP/Fusion übernimmt...
Also mal überlegen: Eine GPU in der CPU, das verspricht eine wesentlich vereinfachte und direkter Steuerung der GPU Funktionen und erst recht eine besser Verwaltung der benötigten Energiemengen für die verschiedenen Modi(2d/3d). Besser als es jemals über den externen PCI-E Bus, die Extra-Stromstecker vom Netzteil oder auch nur über eine Chipsatzgraphik möglich währe. Von da her...
 
Das Video gibt's übrigens so schon in der Art, nur das ein Nvidia Mitarbeiter davor sitzt.:freak: Das war als Ion II Anfang des Jahres raus kam und die neuen IE 9 Beschleunigungen in Hardware gezeigt wurden, welche auch von der 4er Geforce Serie schon unterstützt werden.
 
bensen schrieb:
Eine kleine integrierte GPU im Idle und eine leistungsstarke GPU wenn es nötig ist.
Das ist aber nicht der Sinn und Zweck von Fusion.
 
HighTech-Freak schrieb:
Das einzige, was noch "extern" ist, ist neben dem RAM das ganze I/O, wie USB/Sata/HI/Sound/Netzwerk. Wenn man das ganze auch noch in einen Chip quetschen könnte, wär das ein Hit, aber dazu müsste man noch einen eigenen Soundchip entwickeln, bzw. im Fall von AMD auch noch einen Netzwerk-Chip.

Die aktuelle SB 850 kommst schon jetzt mit integriertem Netzwerkchip daher!
 
Wenn das Ding eine Leistung von einer HD 5670 schaffen würde, wäre das genial. Einfach ein Groß Clockner drauf und man hat endlich Ruhe. Eine CPU lässt sich irgendwie "leichter" kühlen als so eine Graka. Die Grakas sind dann meist noch außerhalb der schönen Luftzirkulation von unten rein und oben raus. Ach das wäre was.
Bitte AMD schafft die HD 5670 Hürde!!! :p
 
Was redet ihr alle von "eine CPU laesst sich leichter kuehlen" und "der CPU Kuehler st staerker als der Graka Kuehler"????
Eine CPU hat eine TDP von evtl 140 Watt wenns hoch kommt, eine Highend Graka braucht
locker 200 Watt und mehr.
Wo ist die Logik????
 
@ leboh

Auf eine CPU/APU kann man locker einen 500Gramm Kühler draufpacken mit einem leisen 12cm Lüfter und somit leise sehr viel Wärme abführen. Das war wohl gemeint ;-)
 
leboh schrieb:
Was redet ihr alle von "eine CPU laesst sich leichter kuehlen" und "der CPU Kuehler st staerker als der Graka Kuehler"????
Eine CPU hat eine TDP von evtl 140 Watt wenns hoch kommt, eine Highend Graka braucht
locker 200 Watt und mehr.
Wo ist die Logik????

Eine High-End Grafikkarte vielleicht, aber bei den meisten Leuten ist das eher nicht so ;) Mein System braucht grade mal 270 Watt oder so :)
 
Wenn Fusion der erhoffte Erfolg wird überlege ich es mir endlich mal, mir einen Zweitrechner anzuschaffen. Die Wartung, der Umfang der möglichen Einsatzgebiete, der Platz- und Strombedarf dürften wie auch der Preis in einem sehr gesunden Rahmen liegen.

Eine alte Munitionskiste mit 4 Liter Volumen wartet nur auf ihren Einsatz ;)
 
Zuletzt bearbeitet:
@gruffi
Hab ich ja auch nicht geschrieben. Es ändert nur nichts daran, das ich so ein Konzept besser finde. Zumindest im mobilen Sektor.
 
StockholmSyndr. schrieb:
Muss die fusionierte GPU wirklich stark sein?
Ich denke, sie sollte das Minimum erfüllen, sodass man für einen Office-PC keinerlei zusätzliche GPU mehr benötigt. Sie sollte v.a. stromsparend und effizient sein und volle HD-Filmbeschleunigung bieten.
Ich finde dies alles in Kombination mit einer Optimus-ähnlichen Abschalttechnik für die dicke Exklusiv-GPU viel wichtiger als 0,5fps mehr in Crysis... (was dann immer noch unspielbar ist, aber eben 0,5 frames "spielbarer" als die Konkurrenz...)

Hm, ist das jetzt generelle Borniertheit oder sinnfreies Nachplappern von oft zitierten Phrasen? Mal etwas zum Nachdenken (lieber Leser, wenn das jetzt zu kompliziert ist, erkläre ich es auch gerne per persönlicher Brieftaube)

  • Wer spielt denn schon, außer Benutzern von Hardwareforen, Crysis? Aber wieviele Menschen spielen WoW, Sims, Starcraft 2, um nur mal die offenkundigsten Spiele zu nennen? Wenn der GPU-Anteil der nächsten APU-Generation von AMD ausreicht, diese Spiele bei mittleren Deteils flüssig darzustellen, sind mindestens 95% aller Computernutzer zufrieden. Und nach allem, was die Gerüchteküche im Moment so liefert, sollte die Leistung dafür reichen.
  • Die Leistung der aktuellen IGPs reicht knapp, um den angeschlossenen Bildschirm zu erleuchten. Daher kann deren Berechnungsleistung nicht für andere Zwecke genutzt werden. Wenn allerdings in sehr vielen Rechnern eine GPU verbaut ist, die im normalen Officebetrieb deutlichen Reserven hat, lassen sich diese für eine Reihe interessanter Aufgaben einsetzen. Beschleunigung von Filmchen und Boinc/Folding sind da nur die naheliegensten Anwendungen, Unterstützung von Datenbanken eines der nächsten Ziele. Ansonsten werden die Softwarekarten durch diese Entwicklung völlig neu gemischt. Erwartet das Unerwartete!
  • Wenn die gebotene Leistung für alles, was 95% aller Computernutzer tun möchten, ausreicht, wird der Markt für Graphikkarten drastisch einbrechen. Wenn der Bereich der Einsteiger- und Mittelklassekarten obsolet wird, bleiben nur noch die High-End-Karten und die Karten für Workstations. Wer von den beiden Herstellern wird dann noch in der Lage sein, deren Weiterentwicklung zu finanzieren, wenn man bedenkt, dass gerade im mittleren Preisbereich das Geld verdient wird?

StockholmSyndr. schrieb:
WENN man dann spielen will, kann man sich jederzeit eine 6770+ reinknallen...
Ich würde in Zukunft gerne sehen, dass GPUs in Zukunft wirklich 0Watt idle ziehen, wenn die IGP/Fusion übernimmt...

Denk mal weiter: Wer außer Benchmarkern und Menschen mit Spezialanforderungen (oder Geltungsbedürfnis :cool_alt: ) wird sich spätestens ab 2012 noch eine dedizierte Graphikkarte kaufen? Als kleine Denkhilfe: wer hat denn heute noch eine dedizierte Soundkarte oder Netzwerkkarte im Rechner?
 
Ich bin am Überlegen, wie sich der deutlich hochwertigere Fertigungsprozess auf die benötigte Spannung für die GPU/ Übertaktungspotential auswirkt. Erstens kleiner, HighPerformance statt Performance und außerdem kommt noch HK und LK Metalgates dazu. Die jetzigen 45Nm CPUs laufen ja schon mit 0,9V locker über 1 GHz, weiß halt nicht, inwiefern das vergleichbar ist...
 
@Hatebreeder91
Ich weiß jetzt nicht, wie du das genau meinst, aber wenn du die GHz der CPU mit der GPU vergleichen willst, dann kann ich dir sagen, ist das kein bisschen miteinander vergleichbar.
 
Ja, das ist schon klar, aber der Fertigungsprozess ist ja deutlich feiner und von daher sollte sich der GPU Teil eigentlich deutlich besser takten lassen bzw weniger Strom brauchen.
 
Man kann doch alles schon recht gut abschätzen. Ne 5670 schluckt unter 3dLast in Benchmarks um die 47 Watt...realer Verbrauch bei 40nm. Peaks von bis zu 60 watt gibts nur wenige und nur sehr kurze zeit.
also sagen wir um die 50 Watt....nun ist Llano 32 NM, also 20% kleinere struktur. Also darf man von diesem Stromverbruach noch gut was abziehn für die Llano GPU.
Dann sagen wir mal dürfte ein 2kern llano vergleichbar sein mit etwa einem core i3 540...der ebenfalls 32nm hat. Dieser Core i3 bewegt sich zwischen 30-60 watt....reale Werte Idle und Last.
nimmt man das zusammen und berücksichtigt dass AMD als TDP immer den Mittelwert angibt von dem was ein Prozessor max. an Leistungsnahem aufweist (siehe TDP Artikel der vorletzten C´t)...dann kommst bei den schnellen Llanos auf ca. eine TDP von 45 Watt....meint Real unter Last ca. 90 Watt in Summe für die APU....

Bereits jetz tkommt man mit der 5670 auf 12500 Punkte im 3DMark 2006...und ca. 6500 im Vantage. Auf diese Werte wirds in etwa herauslaufen und alle kleineren Modelle entsprechend etwas abstufen. Damit kann man aber imgrunde shcon alles zocken...mit bissle Einschränkung bei mancehn titeln.
Aber z.b. Anno 1404 ist da in Full HD mit 1900er Auflösung und maximalen Details drin bei 40 frames....das ist ne Hausmarke.
Und egal was ich noch irgendwo lesen werde bis dahin: ich glaubs nicht dass intel da auch nur im ansatz mithalten kann...die hatten noch nie eine gescheite Grafik.
 
Intel? Das ist interessant:

Wo Intel allen Anschein nach ziemlich federn lassen wird:

- der Consumerbereich droht mit schicken(kompakten), stromsparenden und günstigen Fusionsystemen überrollt zu werden.
- der Fusion als selig machende Lösung im Mobilbereich, Meilen entfernt von den teuren, komplexen, energieverschwendierischen und trotzdem relativ schwachen Intel/Ati Intel/Nvidia Mobilgewächsen.
- Im Workstation und Supercomputing droht wiederum Nvidia mit ihrem Fermi die klassische CPU aufs Altengleis zu schicken.

Eine Konkurrenz der Intel auf Augenhöhe begegnen kann, betritt in Form von AMDs Bulldozer das Feld. Sie betrifft:

- den Serverbereich und den
- Highend Spielemarkt, in dem nach wie vor die schnellsten CPUs und extern angebundene Graphikkarten zum Einsatz kommen.

Unangefochten
bleibt offensichtlich nur der Office Bereich, den Intel mit seinen ansprechenden I3 und I5 Prozessoren fest im Griff hat. Graphikleistung ist zweitrangig, die in die CPU bzw. in den Chipsatz verbauten GPUs sind bereits mehr als ausreichend.

Summa Summarum wird Intel eher früher als später seine unangefochtene Marktführerschaft, bei der man sich anstrengen muss um sie nicht mit einem Naturgesetz zu verwechseln, schlicht weg verlieren, wenn , ja wenn sich Intel nichts einfallen lässt. Und dafür ist Intel ja schließlich bekannt(siehe: nur der Wahnsinnige überlebt!). Vielleicht etwas Plump, aber die Lösung heist in diesem Fall: Nvidia. Ich bin so frei und tippe darauf, dass Intel einen allheilig machende CPU ankündigen wird, die in Zusammenarbeit mit Nvidia entsteht, eine CPU welche nicht nur das Blatt wenden und die Märkte zurückerobern will, sondern, ausgestattet mit dem geballten Wissen der beiden beteiligten Fimen und insbesondere mit dem Fermi KnowHow, AMD´s Existenzberechtigung in Frage stellen wird. Plausibel erscheint mir diese Reaktion auch deswegen, weil der Fusion auch eine massiv Bedrohung für Nvidias LowEnd und MidRange Segment darstellt. Der Fusion zwingt Intel/Nvidia geradezu zur Zusammenarbeit.

Amd dagegen sollte seinen zeitlichen Vorsprung dafür nutzen, den Abstand zum Fermi zumindest zu verkürzen, beser ihn zu überholen(was aber sehr schwierig werden dürfte!), einfach um in der Lage zu sein etwas entgegenzusetzen, wenn Intel und Nvidia zum Gegenangriff blasen. Nicht das AMD nach einem kurzen (Fusions-)Höhenflug älter aussieht als jemals zuvor!

nur der Wahnsinnige überlebt! in diesem Sinne,

LG
 
Zuletzt bearbeitet:
Zurück
Oben