News AMD: Nach CeBIT-Video nun Zahlen zur Leistung von „Llano“

wow, das kannte ich so nicht aber es beeindruckt mich irgendwie ;)

Edit:

Die Unterstützung von CUDA ist noch weit verbreiteter als AMDs APP. So fahren wir Tests mit Citrix HDX welches CUDA zur Echtzeit Komprimierung nutzt, aber auch der Daimler setzt zB. bei der Entwicklung CUDA + die neusten GPUs im SLI ein um aus VideoMaterial Livedaten für die automatisierte Fahrt zu gewinnen.

Und selbst bei CUDA ist der Nutzen + Verbreitung im privaten Bereich nahe 0. Und seit wann gibt es CUDA und Dx11? Am 8. November 2006 wurden die 8800 GTX veröffentlicht und mit DX 11 kam vor 1,5 Jahren auch der Standard OpenCL den bis heute aber auch kaum eine Software nutzt, vorallem weil die Performance meines Wissens nach deutlich schlechter sein soll als zB. direkt mit CUDA.

Der Ansatz ist richtig und gut, keine Frage. Aber der Markt + Software ist extrem träge. Wichtig sind diese Speziallösungen wie HD Beschl. etc eigentlich nur dann, wenn zu wenig CPU Leistung vorhanden ist. zB bei ATOM als auch bei Zacate.
 
Zuletzt bearbeitet:
@Krautmaster

Was hat die Hardwarezusammenstellung mit dem Kundenverhalten zu tun.

Der normale Kunde geht in den Elektronik"fach"markt und lässt sich da ein System aufquatschen. Der bekommt dann ein Core i7 mit überspitzt gesagt HD 5450 bzw. GT 220 (ich weiß macht keinen Sinn, die HD 3000 ist weit besser aber so ähnlich Angebote gibt es zuhauf).

In diese Kerbe schlägt Llano. Den "normalen" Kunden interessiert nicht was in seinen Rechner werkelt, wohl aber den Großhändler/Hersteller. Wenn ein Llano weniger 10-20 Euro oder noch mehr, weniger kostet als eine gleichwertige dedizierte Lösung dann sagt sich der Hersteller, baue ich doch lieber einen Llano ein, meine Marge steigt, Herstellungskosten gehen theoretisch auch runter da man sich nicht um eine weitere Wärmequelle kümmern muss, oder z.B ein billigeres MB-Board einsetzen kann. Der Kunde freut sich derweil, dass er vllt. 50 Euro weniger als für ein SB-System ausgeben muss.

Bei Notebooks ist es noch eindeutiger. Ein dedizierter Grafikchip trägt nicht nur zu einem erhöhten Verbrauch bei, er muss auch noch separat gekühlt werden, das verursacht wiederum Kosten, eine EinChip- Lösung ist da viel interessanter. Für Mainstream Gaming Notebooks im 600-800 Euro Bereich eine sicher interessante Lösung.

Ich schiele da besonders auf Medion und seine Systeme bzw. Notebooks.
 
Tja nur schade dass es ausschließlich funktioniert solange keine andere dedizierte Grafik im System steckt. Und echt schön dass die HD3000 mit einer GPU gleichzieht die 2 Generationen älter als die APU ist - beeindruckende Leistung. :rolleyes:

Wer hat zudem behauptet dass diese Anwendungen nur mit APUs funktionieren?
Intel verschweigt sicherlich Firmen und Produkte die mit ihren Produkten funktionieren und zusammenarbeiten - keine Ahnung was das gebashe zu bedeuten hat, doch ich verabschiede mich aus dem Thread.
 
deadohiosky schrieb:
@Krautmaster

Was hat die Hardwarezusammenstellung mit dem Kundenverhalten zu tun.

Der normale Kunde geht in den Elektronik"fach"markt und lässt sich da ein System aufquatschen. Der bekommt dann ein Core i7 mit überspitzt gesagt HD 5450 bzw. GT 220 (ich weiß macht keinen Sinn, die HD 3000 ist weit besser aber so ähnlich Angebote gibt es zuhauf).

In diese Kerbe schlägt Llano. Den "normalen" Kunden interessiert nicht was in seinen Rechner werkelt, wohl aber den Großhändler/Hersteller. Wenn ein Llano weniger 10-20 Euro oder noch mehr, weniger kostet als eine gleichwertige dedizierte Lösung dann sagt sich der Hersteller, baue ich doch lieber einen Llano ein, meine Marge steigt, Herstellungskosten gehen theoretisch auch runter da man sich nicht um eine weitere Wärmequelle kümmern muss, oder z.B ein billigeres MB-Board einsetzen kann. Der Kunde freut sich derweil, dass er vllt. 50 Euro weniger als für ein SB-System ausgeben muss.

Bei Notebooks ist es noch eindeutiger. Ein dedizierter Grafikchip trägt nicht nur zu einem erhöhten Verbrauch bei, er muss auch noch separat gekühlt werden, das verursacht wiederum Kosten, eine EinChip- Lösung ist da viel interessanter. Für Mainstream Gaming Notebooks im 600-800 Euro Bereich eine sicher interessante Lösung.

Ich schiele da besonders auf Medion und seine Systeme bzw. Notebooks.

das ist wohl war, aber genau das trifft heute schon längere Zeit genauso zu. Preis / Leistung mögen bei AMD sogar besser sein, aber das bringt dem Hersteller nichts sofern sich die Ware nicht verkauft.

Klar, ich sehe dieselben Stärken wie du. Gerade was die Komplexität des Systems und die Kühllösung angeht ist eine SingelChip Lösung von Vorteil.

Der größte Vorteil ist aber wohl der, das AMD günstiger produzieren kann - die Dumpingpreise von heute hält man sonst nicht mehr durch. Diese sind aber auch Resultat zu geringer Nachfrage, nur scheint der Preis bei vielen Kunden nicht das einzige Kaufargument zu sein.

Wie gesagt, für jemand der die Spieleleistung braucht ist die CPU ideal. Zumal sie vermutlich billiger kommt als eine Separate CPU + GPU Lösung.

Edit:

Aber 600-800€ passt irgendwie nicht wenn

http://geizhals.at/deutschland/a571566.html oder gar http://geizhals.at/deutschland/a611084.html

(i5 @2,66 Ghz + Turbo + HD5650 mit 1 GB Ram.... <600€)

das Gerät bereits günstiger ist und sowohl CPU- als auch GPU-leistungstechnisch überlegen ist (sogar dem größten Desktop Llano bezüglich GPU Leistung sofern die Shader nicht großartig modifiziert wurden).

Das meine ich ja mit recht kleinem Markt... die Spanne wo man das Gerät preislich ansiedeln kann ist recht gering. Zumal Llano noch einige Monate entfernt ist und kurz darauf vermutlich 28nm GPUs kommen werden.

@Complication

gute Nacht - ich packs auch gleich ^^

Darf man Fragen was du unter Gebashe verstehst?

Intel verschweigt sicherlich Firmen und Produkte die mit ihren Produkten funktionieren und zusammenarbeiten -
:rolleyes:

Und echt schön dass die HD3000 mit einer GPU gleichzieht die 2 Generationen älter als die APU ist - beeindruckende Leistung.

hä? :rolleyes:
 
Zuletzt bearbeitet:
Complication schrieb:
Tja nur schade dass es ausschließlich funktioniert solange keine andere dedizierte Grafik im System steckt. Und echt schön dass die HD3000 mit einer GPU gleichzieht die 2 Generationen älter als die APU ist - beeindruckende Leistung. :rolleyes:


Also jetzt wird es richtig albern. Was soll dein wechselhaftes Getrolle jetzt? Wird reden gerade über die integrierten GPUs von AMD und Intel, da interessiert es nicht was wäre wenn und du kommst wieder mit dedizierten Karten. Also entscheide dich langsam mal. Wenn die HD3000 so ein Krüppel ist, wie immer von einigen dargestellt, ist es schon erstaunlich das die HD3000 die Leistungskrone der IGPs innehält und Llano gar nicht so viel schneller wird obwohl deutlich mehr Transistorenfläche der GPU auf dem Die. Das Ergebnis ist eher ernüchternd wenn man den Aufwand berücksichtigt.
 
Krautmaster schrieb:
Edit:

Aber 600-800€ passt irgendwie nicht wenn

http://geizhals.at/deutschland/a571566.html oder gar http://geizhals.at/deutschland/a611084.html

(i5 @2,66 Ghz + Turbo + HD5650 mit 1 GB Ram.... <600€)

das Gerät bereits günstiger ist und sowohl CPU- als auch GPU-leistungstechnisch überlegen ist (sogar dem größten Desktop Llano bezüglich GPU Leistung sofern die Shader nicht großartig modifiziert wurden).

Das meine ich ja mit recht kleinem Markt... die Spanne wo man das Gerät preislich ansiedeln kann ist recht gering. Zumal Llano noch einige Monate entfernt ist und kurz darauf vermutlich 28nm GPUs kommen werden.

Oah neey... ich finde es toll, dass du jetzt schon weißt wieviel der Llano kann und wieviel GPU-Leistung die "größte" Desktop Llano erreicht wieviel Shader dieser enthält obwohl wir noch nicht einmal im Entferntesten unabhängig sagen können wieviel CPU-Leistung ein Llano bringen kann wird das schon alles in Relation gestellt.

Wenn du unbedingt recht haben willst dann konstruiere doch bitte noch mehr Szenarien die den Llano als DoA darstellen. Obwohl du ja behauptest er hätte eine Markt"nische". Wo ist denn diese Marktnische?

Und noch einmal wie kannst du einen Mobile i5 und i3 mit einem nicht veröffentlichten Llano vergleichen? Wie soll das gehen. Und auch in der Hinsicht hinkt der Beweis, denn ein Mobile Llano Quadcore hat eine TDP bis 45 Watt, der Core i3 32 Watt, Core i5 35 Watt...plus Mobility HD, die eine TDP von 15-19 Watt hat (alles laut notebookcheck.com) das sind bis zu 54 Watt. Und wie gesagt, wir vergleichen hier einen Quadcore mit zwei Dualcores?
Wo liegt da die Verbindung?


Woher weißt du das die Preisspanne gering ist. Woher? Hast du Insiderwissen, dann teile das doch bitte mit uns.:rolleyes:

du spekulierst dir hier die Finger wund ohne harte Fakten.

Klar ist, bis wir keine Vergleichstests haben und diese dann einem Preis zuordnen können, ist das Alles hier sinnlose Rumgefurze (und ich meine damit auch meine Spekulationen). Es verpestet die Luft und trägt nicht zu einem guten Klima bei (und damit meine ich, Methan ist ein klimaschädliches Gas).

Und nocheinmal von Desktop Chips auf Mobile Chips zu schließen ist Humbug. Genauso wie zu behaupten eine Mo. HD 5650 ist leistungsstärker als eine Llano GPU, wenn man doch weiß dass es mindestens zwei verschiedene GPU-Kerne geben wird.
 
natürlich sind es Spekulationen.

400 Shader wird gerade von den Llano Verfechtern und Spekulanten oft als Zahl genannt, was schon eine recht hohe Zahl ist und für gute Mainstream Leistung spricht.

Hexen kann AMD aber auch nicht. Meine Spekulationen beruhten rein darauf, dass vermutlich "nur" leicht abgeänderte 2-4 Athlon II Kerne zum Einsatz kommen (vollkommen in Ordnung) und die GPU sicher nicht nach der Umstellung von 5D auf 4D Shader nun auf ein komplettes Redesign setzen wird - wir deshalb abartig neue ultimativ leistungsfähigere Shader sehen könnten. Ich kann mir sogar vorstellen, dass es sich noch um die 5D Shader handelt (was auch kein Problem ist).

Wie ich sagte ist die größte Unbekannte meiner Ansicht nach der 32nm Prozess. Kann ja sein, dass die Athlon II Kerne per default auf 5 Ghz daherkommen, oder AMDs 32nm Prozess 400% Energie spart. Der Prozess ist heute extrem wichtig und vor allem deshalb ist Intel AMD zur Zeit überlegen.

Ich nehme an, dass die CPU-Leistung/Takt um etwa 5-15% zum Athlon II zunehmen kann, ähnlich wird es auch bei Sandy Bridge -> Ivy Bridge ausfallen. Bei Bulldozers neuer Architektur könnte ich mir durchaus mehr vorstellen.

Wenn morgen die Info kommt, dass Llano auf L3 Cache setzt und neue 8D Shader (was auch immer) zum Einsatz kommt, der 32nm Prozess locker über 4 Ghz geht, dann muss man diese Vermutung natürlich dahingehend anpassen, bzw kann diese dann weit schwerer treffen als auf Grundlage der jetzigen Informationen.

Die Preisspanne war / ist natürlich direkt abhängig von der vermuteten Leistung.
 
Zuletzt bearbeitet:
Complication schrieb:
APU ist ein Konzept das Intel in dieser Form nicht verfolgt. Es geht darum ausser x86 Code auch weiteren Code auszuführen - Intel hat keinerlei SDK das vergleichbar wäre mit CUDA oder AMD APP (früher ATI Stream).

Wer immer noch meint es gehe lediglich darum GPU und CPU auf einem Die zu vereinen, der hat es noch immer nciht begriffen - hier steht ein ähnlicher Schritt bevor wie damals als der Mathematische Co-Prozessor in die CPU gewandert ist und heute eine CPU ohne FPU gar nciht mehr denkbar ist. Intels Marketing versucht natürlich das ganze runter zuspielen und mit solchen Merkwürdigkeiten wie der angeklatschten Clarkdale Grafik soll irgendwie der Eindruck erweckt werden man bewege sich hier technologisch auf Augenhöhe - nur das wird mit der Ivy Bridge GPU in der Sackgasse enden sobald man DX11 versucht zu integrieren. Das hat sowohl AMD als auch Nvidia viel Funktionen gekostet.

Intel müsste jetzt schon mit Hochdruck an einer GPU arbeiten um das Larabee Fiasko und die dadurch verlorene Zeit aufzuholen - es war eben ein Irrweg mit x86 auf GPU. Und nun kommen die ARM basierenden Designs auch noch - x86 verliert immer mehr an Boden und das ist nun mal Intels Bastion.

korrekt ! Intel hat momentan nur noch im business Segment gute Karten und auch das wird sich bald ändern. Auch meine chefs lieben spielereien...tja klingt doof ist aber so.

Denke mal Intel wird in naher zukunft eher die 3te Geige spielen, nichtmehr die erste....hinter AMD und Nvidia
 
chendal schrieb:
Denke mal Intel wird in naher zukunft eher die 3te Geige spielen, nichtmehr die erste....hinter AMD und Nvidia

Ui, da müsste aber was mächtig rumpeln...

Was verstehst du unter "naher Zukunft"?
 
Krautmaster schrieb:
Lizenzen und ihre Wartungsverträge... genau deswegen geht es bei der HW auch nicht um jeden € ...

Wie bringst du Virtualisierung und Llano über ein?

Gar nicht. Aber ich bringe LLano und Visualisierung über ein.

Edit: Und was soll das mit dem "jeden €" eigentlich bedeuten? In jedem mittleren bis großen Unternehmen kommt es (teilweise) auf jeden Cent an. Dafür werden sogar Heerscharen hochbezahlter Controller eingesetzt.
 
Zuletzt bearbeitet:
und wie bringst du Llano und Virtualisierung über ein?

Wenn dann kann man nur Bulldozer damit überein bringen.

Und gerade in Unternehmen ist es relativ Wurst ob der PC 1200 oder 1800€ kostet, wenn er nur 5% schneller ist lohnt sich das bei 90€ / Mitarbeiter / Stunde (90€ trifft auf unsere Konstrukteure zu (Gehalt ist nur ein Teil davon)).

Allein die Software auf dem Rechner dürfte gut 10000-20000€ Wert sein, von den Wartungsverträgen die jährlich anfallen mal ganz zu schweigen.

Du hast gefragt :

Da du so viel Ahnung bzgl. der IT in deiner Firma hast, könntest du uns da bitte einmal aufklären was genau das Teure an euren Konstruktions-Maschinen ist?

und ich sage auch, dass es nicht die Hardware ist. Genau deswegen das eventuell bessere Preis/Leistungsverhältnis seitens AMD gerade in Unternehmen total hinfällig wenn der Arbeitnehmer nur wenige % langsamer ist.

Heute dürfte jeder Zweite auf Arbeit einen PC stehen haben. Teilweise vielleicht sogar noch ein Zweitgerät. Dazu kommen Server etc.. Interessant wären Angaben zur Verteilung der PC Hardware.
Ergänzung ()

LOLinger78 schrieb:
. Dafür werden sogar Heerscharen hochbezahlter Controller eingesetzt.

ich weiß nicht wie das bei euch läuft, aber unser Controlling kümmert sich ganz sicher nicht um die Kosten für Hardware.
 
Zuletzt bearbeitet:
Ich bringe LLano weiterhin mit Visualisierung überein - nicht Virtualisierung.

Siehe bspw. Wiki:
"Die technische Produktvisualisierung ist die 3D-Darstellung einer Produktgeometrie in einer Viewing-Software. Das Ziel dieses visuellen Datenaustausches ist eine Verbesserung des Informationsflusses und der Kommunikation im gesamten Produktlebenszyklus. Es ist ein einfacher Weg komplexe geometriebasierte Produktinformationen an Personen zu kommunizieren die keine CAD-Experten sind. Produktvisualisierungen können wie Screenshots eines CAD-Systems verwendet werden oder als eine Alternative bzw. als Ergänzung zu Telefonaten oder Konferenzen. Durch den verbesserten Informationsfluss durch Produktvisualisierung können Iterationsschleifen vermieden und dadurch der Produktentwicklungsprozess beschleunigt werden. Allerdings soll die technische Produktvisualisierung den CAD-Datenaustausch nicht ersetzen, sondern vielmehr begleiten in Fällen, in denen der Empfänger nicht alle Informationen benötigt die in einem CAD-Datenmodell vorhanden sind.

Unter Collaborative Product Visualization versteht man in diesem Zusammenhang den Einsatz der technischen Produktvisualisierung in unternehmensübergreifenden Entwicklungsverbänden.[2] Eine Empfehlung zum unternehmensübergreifenden Austausch von Visualisierungsdaten wurde von verschiedenen Unternehmen aus der Automobilindustrie (unter anderem Bosch, DaimlerChrysler, Continental Automotive Systems, BMW und viele mehr) anhand von spezifizierten Anwendungsfällen und Referenzprozessen im Rahmen des ProSTEP iViP e.V. erarbeitet und unter dem Namen „PSI 2 - Collaborative Product Visualization (CPV)“ veröffentlicht."

Ob ein Rechner 1800€ oder 1200€ kostet ist überhaupt nicht "Wurst". Das sind bei mehreren Tausen Rechnern ganz schnell große Summen.

Und das mit der SW hast du richtig erkannt. Und genau das ist der Punkt.
"Schlaue" Unternehmen, wie u.a. auch mein Arbeitgeber, gehen her und betreiben für Konstruktionsrechner Pooling, um die immensen Lizenzkosten zu sparen.
Der "Konstrukteur" arbeitet dann per Remotezugriff, wo wir u.a. wieder bei der Virtualisierung wären.

Bei uns kostet ein Konstrukteur locker 120-140 Euro. Und er macht i.d.R. weit mehr als den ganzen Tag nur reine Konstruktion.

WICHTIGE ÄNDERUNG:
Das irgendjemand mit einem AMD (Office-)Rechner langsamer Arbeitet als mit einem Intel Pendant ist vielleicht in deiner rosa Intel-Welt so, hat aber nichts mit der Relität zu tun.
Geschweigendenn gar, wie von dir angeführt, im % Bereicht.
Tut mir leid aber solche Äußerungen empfinde ich als peinlich.
 
Zuletzt bearbeitet:
sry verlesen...

klingt nach ziemlichem Spezialfalls, irgendwie nach Werbung oder Marketing. Rein Viewing Model also.
Sozusagen als Snapshot des 3D Modells in einem offenen Format ohne Metainformation wenn ich das jetzt verstanden habe. Hat aber wenig mit der eigentlichen Konstruktionsarbeit zu tun.

Kenne mich mit diesem PSI 2 nicht aus, oder dieser Art von Visualisierung die gewisse GPU leistung voraussetzen wird.

Bei Virtualisierung hingehen kommt es nach wie vor hauptsächlich auf CPU Power an. Bisher hauptsächlich für 2D Anwendungen oder Desktop Virtualisierung perfekt um eben Kosten zu sparen aber auch das Management zu vereinfachen. CAD Virtualisierung ist gerade auf dem Vormarsch, mag in Ansätzen funktionieren, - kann bei uns aber Workstations mit separater FirePro oder Quadro noch nicht das Wasser reichen.
Zwischenschritt ist eine Lösung wie Citrix Xen Desktop / HDX oder der gleichen, bei dem sich zentral Workstations befinden und sich der User, sofern er CAD braucht, direkt auf diese Maschine verbindet und lediglich das Bildmaterial in Echtzeit komprimiert und übertragen wird.

Vor allem auch für den Zugriff von extern sehr cool, auch in Punkto Sicherheit da die Daten ja zentral liegen, der Konstrukteur aber nur Bild sieht und somit nicht 1000 Zeichnungen auf seine externe HDD ziehen kann ;)

Hier reicht als Terminal natürlich auch ein Zacate oder ein Pentium SB.

Mir fällt kein Einsatzgebiet in unserem Unternehmen ein, bei welchem Mainstream GPU Performance benötigt wird. Fast in allen Fällen (selbst bei CAD) sind die CPU der Flaschenhals.
 
Zuletzt bearbeitet:
Ralf555 schrieb:
Wenn die HD3000 so ein Krüppel ist, wie immer von einigen dargestellt, ist es schon erstaunlich das die HD3000 die Leistungskrone der IGPs innehält und Llano gar nicht so viel schneller wird obwohl deutlich mehr Transistorenfläche der GPU auf dem Die. Das Ergebnis ist eher ernüchternd wenn man den Aufwand berücksichtigt.

Ich finde die HD3000 für eine IGP gut, aber man darf das mit der Transistorfläche nicht so direkt sehen, denn wer weiß schon, warum Intel die so klein gehalten hat. Vermutlich wäre der Verbrauch und damit die TDP in den Himmel geschossen, wenn sie ihre Execution Units ebenso schnell gemacht, bzw. eine ebenso so große Fläche auf dem Die wie AMD gegeben hätten.

Ich hatte mir nach den ersten Test von der HD3000 auch gedacht, dass es schon krass ist, dass nur 12 EUs so viel Power haben und dachte mir, warum packen die nicht einfach 200 davon auf einen Extra Chip und dann hätten sie doch ihre immer gewünschte dedizierte High-End Graka. Aber wahrscheinlich würde der Stromverbrauch dann explodieren.

Und ich glaube auch dass bei Llano zum Teil noch die Speicherbandbreite limitiert. Aber das werden erste Tests zeigen müssen.
 
Man muss doch auch sehen, dass die HD 3000 diese Werte auch nur erreicht wenn wichtige Qualitätsfunktionen wie eben Kantenglättung und Anisotropisches Filtern ausgeschaltet ist. Llano erreicht in der Hinsicht auch keine Spitzenwerte, jedenfalls bei der mobilen Version, aber man sieht auch, dass die Performance nicht einmal annähernd so stark einbricht wie bei Sandy Bridge.

Die HD 3000 glänzt bei einfachen Multimedia-Anwendungen, bei anspruchsvolleren Spielen in wirklichkeitsnahen Auflösungen bricht die Performance massiv ein. Und anscheinend ist laut AMD Multitasking bei Grafikanwendungen auch ein großes Problem, wie ja das Video zeigt.
 
Ralf555 schrieb:
Wenn die HD3000 so ein Krüppel ist, wie immer von einigen dargestellt, ist es schon erstaunlich das die HD3000 die Leistungskrone der IGPs innehält ..
Ich würd mal behaupten Nvidias 320M ist etwas schneller. ;)
 
Zurück
Oben