News AMD: Nach CeBIT-Video nun Zahlen zur Leistung von „Llano“

chendal schrieb:
Der Markt will spielerisches Geplänkel. Nun versucht Intel mit allen Mittel irgendwie dran zu bleiben aber sie hinken was die Grafik angeht locker 3 Jahre hinterher.

Es bezweifelt keiner das Intel im Grafikbereich hinterher hinkt aber von 3 Jahren zu sprechen ist doch schon etwas gewagt. Wenn dies wirklich so wäre, wäre die GPU vom SB nicht dort wo sie heute ist. Man kann sagen was man will aber was die GPU Leistung angeht hat Intel ganz schön aufgeholt.


btt:

Schaut doch ganz nett drein was AMD mit dem Llano so auf die Beine stellt. Und für den Verbraucher erhöht sich die Auswahl auch. Mit anderen Worten für jeden ist etwas dabei. Für Arbeitstiere und für Spieler. Schöne Entwicklung:)
 
Was mir dazu jetzt fehlt ist eine aktuelle Statistik wie viel Prozent der Kunden die heut zu Tage ein neuen Laptop kaufen darauf häufig 3D Spiele spielen.
 
@Screemer

und auch hier versucht wird die Endkunden mit geschönten Benchmarks von solch billigen Grafiklösungen zu täuschen
Was soll man da noch sagen? Wenn man sowas ließt spürt man das jemand nicht rafft worum es geht.
Und davon ists grundsätzlich blödsinn. Immerhin gibt es keine vergleichbare GPU auf irgendeiner DIE. Wo soll die gleich nochmal BILLIG sein?

was erwarten die leute hier denn? ipc eines qc-sandy und gpu-perf. einer gtx560/6870?
Ja, und am besten noch mit einer TDP von 25W LOL
Versuch es nicht. Man redet sich den Mund fusselig...;)

@über mir
Also in meinem Umfeld nur EINER. Und der hat sich dann entsprechend kein Mainstream Notebook gekauft sondern eines von Alienware das zum spielen gedacht ist. Aber genau DAS ist der springende Punkt.
Mein Vater spielt auch ab und zu und wünscht sich auch schon ein Notebook. Aber was Spielt er denn. Crazy Maschines und Siedler. Und für mich sieht es immer wieder so aus als wenn dies der Großteil des Marktes ist.
 
Zuletzt bearbeitet:
@Topic

Schöne Folien, Leider bis auf FPS keine Benchmarks. News zu Bulldozer wären mir lieber gewesen aber immerhin ein paar Fakten. Man darf gespannt sein...

flo36 schrieb:
Eins was die Leute immer vergessen und ihr hier auch. Intel produziert keine Grafikkarten zum Zocken.
Intel Chips sind in stink normalen Büromaschinen beheimatet und da wird nicht viel Wert auf grafik gelegt. Wenn doch dann is ne FireGL oder Quadro drin. Eure PCs sind die Heimat der High-End Grakas.

jep, sehe ich genauso. Ich kenne keinen, der mit einer SB CPU/GPU oder Arrandale Spiele zockt. Wegen mir könnten Spiele nicht mal starten oder abstürzen. Intel fokussiert klar auf CPU Leistung, bringt aber genug GPU Leistung mit um Windows Aero + Applikationen wie Powerpoint Präsentationen / Effekte super flüssig darzustellen.

AMD geht genau den anderen Weg. Das muss man auch tun da man CPU Leistungstechnisch enormen Aufwand betreiben müsste um aufzuschließen. Man hat das Grafik Know How nun im Haus und das setzt man um. Warum? ganz einfach , weil man Intel hier schlagen kann.


sanders schrieb:
Aber nein, heute braucht ja jeder 3GHz mit 4 Kernen und die Pro Takt Leistung eines Sandy Bridge im Notebook...LOL
...

Aber für Farmville braucht ja heute jeder ne GTX580m und nen i7...Ich schmeiß mich weg:freak:

keiner redet von 3 Ghz + 4 Kernen (wären mir aber lieber als 80 GPU Shader), aber zwei Kerne @ 2,5 Ghz + HT sind ein sehr ausgewogenes Verhältnis. Ich wüsste nicht wie oft (selten) mir GPU Leistung beim Notebook gefehlt hätte. Ich benutze mein Gerät zum Arbeiten, da ist es mir wichtiger, dass meine CPU die Aufgaben schnell und effizient abarbeitet. Der ehemalige Festplatten-Flaschenhals ist dank SSD eh verringert.
Zocken -> Fehlanzeige.

Ich bezweifle, dass du bei Farmville von der AMD GPU profitierst.

Edit:

man muss übrigens sagen, dass ich mit Intel GPU Treibern bisher weniger Probleme hatte als mit dem Catalyst meiner HD6950. Warum? Ganz einfach... weil die Intel GPU nur zum Darstellen des Desktops + Apps gebraucht wird und das macht sie wunderbar. Mehr braucht es da einfach nicht und deswegen werde ich da auch weniger mit Fehlern konfrontiert da das Userverhalten/Workload ein komplett anderes ist.

markox schrieb:
Was mir dazu jetzt fehlt ist eine aktuelle Statistik wie viel Prozent der Kunden die heut zu Tage ein neuen Laptop kaufen darauf häufig 3D Spiele spielen.

das wäre in der Tat interessant. Ich zähle zu den Menschen die mit CPU Leistung 99,9% der Zeit mehr anfangen können als mit GPU Leistung. Das wird wohl bei 99% der Office PCs in Unternehmen oder zu Hause genau so sein. Privat kommen noch Funktionen wie HD Beschleunigung, Flash Beschleunigung und Konnektivität (TV / TFT) dazu. Intel hat das erkannt und steht hier auch nichts nach.

Gerade bei Unternehmen... oft ist noch Windows XP im Einsatz, wer braucht da eine GPU auf HD 5570 Niveau? Dieses Segment überlässt AMD komplett Intel.

Wie gesagt - AMD geht eventuell der richtige Weg, da man hier nicht (s.o) wirklich konkurrieren kann.

Man sucht sich eine Lücke. Diese bietet vielleicht weniger Käuferschaft, aber ist dafür beständig. Im Falle von Llano ist es der eben der Gelegenheitszocker der ein günstiges Gerät sucht.

Aber: Eine diskrete GPU ist schneller. Llano + Diskrete GPU macht wesentlich weniger Sinn als SB + diskrete GPU. -> kleiner Markt.

Edit:

Ist eigentlich Zacate + Llano endlich mal fähig zwei digitale Displays anzusprechen?
 
Zuletzt bearbeitet:
Solange als Entwickler es ein riesiger und teilweise wenig wirkungsvoller Aufwand ist die GPU effektiv zu nutzen, gebe ich doch lieber der "balanced x86 Performance" und damit Intel den Vorzug.

Wird Zeit die JavaVM und .Net CLR lernen Aufgaben auf GPUs zu verlagern... Dann wäre eine APU nützlich, so bleibt es wie es ist, wer Leistung will braucht reine CPU Power.
 
Wie sieht das aus, das ist ja ein vollständiger Radeon Kern.
Kann man den wie bei einer extra GraKa für GPU-Computing mit verwenden?
 
Paradox.13te schrieb:
Es bezweifelt keiner das Intel im Grafikbereich hinterher hinkt aber von 3 Jahren zu sprechen ist doch schon etwas gewagt. Wenn dies wirklich so wäre, wäre die GPU vom SB nicht dort wo sie heute ist. Man kann sagen was man will aber was die GPU Leistung angeht hat Intel ganz schön aufgeholt.


btt:

Schaut doch ganz nett drein was AMD mit dem Llano so auf die Beine stellt. Und für den Verbraucher erhöht sich die Auswahl auch. Mit anderen Worten für jeden ist etwas dabei. Für Arbeitstiere und für Spieler. Schöne Entwicklung:)

naja ich habe geschätzt. Ca. 3 Jahre brauchte intel um vom gma4500 auf die jetzigen 2000er bzw. 3000er zu wechseln.
Zudem müssen sie ja ihr komplettes Prozessordesign umstellen wenn sie mehr GPU Leistung rausholen wollen und sowas dauert. Aktuell liegen sie im schnitt 100% hinter Llano was reine GPU Leistung angeht und die Struktur ist ja bei beiden bereits gleich mit 32nm.
von daher denke ich das dauert einfach seine Zeit....kann mich auch verschätzen natürlich aber ich glaube die längste zeit wird dauern das intels koepfe sich dran gewöhnen müssen das auch zu ändern. Wenn in Zukunft die reine Prozessorarchitektur weiterhin soviel platz im chip einnimmt wirds nix mit der steigerung der GPU Leistung in dem Maße um wettbewerbsfähig zu bleiben.
 
Zuletzt bearbeitet:
ich hoffe nur, dass man die integrierte gpu zum stromsparen nutzen kann, wenn die dedizierte gpu abgeschalten wird (bzw. nur für 3d genutzt wird).
 
@Krautmaster

also wenn ich in meinen bekanntenkreis blicke sind dort 7 Notebooks im Einsatz. Nur eines davon zum zocken (das Alienware halt) Die anderen spiele hier und da mal kleinere Games. Nichts aufwendiges, aber eine intel GPU wäre hier klar zu klein. Deswegen sitzt bei denen auch immer noch ne HD4* oder HD5 drin. Oder halt ne einsteiger Nvidia.
Bei uns auf Arbeit sind gut 200 Notebooks im Einsatz. Davon vielleicht 15 im Hardcore CAD Einsatz und gute 90 für den weniger heftigen CAD Einsatz (Solid Works, ProE und AutoCAD). Für die ersten 15 wäre die APU wohl etwas schwach aber die anderen 90 kämen locker mit einer HD56** aus.

Ich beziehe mich also nciht auf MEINE bedürfnisse (ich bin EINER) oder auf die der Hardcore gamer die sich hier so rumbewegen sondern auf die 207 Notebooks die sich in meinem näheren Umfeld befinden. Und dort ist definitiv ein bedeutsamer MArkt für so eine APU ;)

Wenn es nach MIR ginge hätten wir die OpenGL Leistung eine GTX580 und 8 Kerne mit je 4 GHz im Laptop :D (Hardcore Blender User ;) )
 
@chendal

das braucht nicht Zeit...

Das ist einfach Intels Kosten / Nutzen Rechnung. Intels Ziel ist ganz sicher nicht wahnwitzig viel Energie in GPU Design + Treiber zu stecken. Finanziell könnte man viel reißen und einen enormen Aufwand reinstecken.

Fakt ist, es lohnt sich nicht da 99% der Kundenwünsche durch die GMA gedeckt sind. Erst wenn DX11 oder OpenGL oder diese Dinge Nutzen haben und wichtiger werden, wird Intel möglichst günstig und effizient derartiges ihrer GMA beibringen.

@sanders

bei uns in der Firma sind ca 2000 PCs/Notebooks im Einsatz. CAD Stationen haben Quadros in ihrer Workstation. Blöd nur dass unser CAD komplett CPU Limitiert ist. Allein was das Laden / Anzeigen von Baugruppen etc angeht, die GPU limitiert nie.

Dazu kommt dass die Software (NX 5-7.5) nur auf einen Kern ballert, da schlägt dann der Turbo von Intel durch.

Ein Konzept wie die Llano CPU würde nie für CAD in Betracht kommen.

Viel eher wäre ein richtig günstiger Llano 2 Kerner für die Office Stationen interessant, bei der die GPU aber wieder total unnütz und überflüssig ist und es eine GMA genauso tut. Da ist die DIE Fläche besser in CPU Leistung investiert.

Llano ist sicher perfekt für den wie ich sagte Gelegenheitszocker - aber auch nur in niedrigen Preisregionen. Darüber bekommt man viel stärkere diskrete GPUs.

Für mich wäre ein 2 Kern Llano vor allem im Bereich HTPC interessant, auf einer ITX Platine mit HDMI 1.4a und der Fähigkeit 3D Material zu verarbeiten.

Ansonsten kann ich Mike Lowrey nur zustimmen


Mike Lowrey schrieb:
Solange als Entwickler es ein riesiger und teilweise wenig wirkungsvoller Aufwand ist die GPU effektiv zu nutzen, gebe ich doch lieber der "balanced x86 Performance" und damit Intel den Vorzug.

Wird Zeit die JavaVM und .Net CLR lernen Aufgaben auf GPUs zu verlagern... Dann wäre eine APU nützlich, so bleibt es wie es ist, wer Leistung will braucht reine CPU Power.

wenn es soweit ist springt Intel auf den Zug auf, und vermutlich nur so dass alle notwendigen Bedürfnisse minimal und günstig erfüllt sind.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
keiner redet von 3 Ghz + 4 Kernen (wären mir aber lieber als 80 GPU Shader), aber zwei Kerne @ 2,5 Ghz + HT sind ein sehr ausgewogenes Verhältnis.
Es sind bis zu 400 Shader in Llano verbaut - DX11 (Hängt jetzt natürlich davon ab wie du Shader definierst. Ich meine Streamprozessoren)
http://citavia.blog.de/2010/02/06/hkmg-for-llano-then-and-some-idea-regarding-fmac-7959024/

Man sollte auch nicht aus den Augen verlieren dass mehr Leute mit einer HD4570 Mobility, HD 4650 oder GT220 zocken als mit einer GTX 470. Siehe Steam:
http://store.steampowered.com/hwsurvey/videocard/

Selbst die luschige umgelabelte GTS150 mit G92 GPU ist öfters im Einsatz als die GTX460, HD5850 oder HD5870.
 
ja die 80 waren in den Raum geworfen, ich glaube Zacate hat was um den dreh. 400 Shader machens nicht besser, im Gegenteil, eher unnützer für Office Workload.

Wie gesagt, perfekt für den Gelegenheitszocker.

Für unter 550€ bekommt man allerdings auch eine Mobil HD 5650 die schneller sein sollte:

http://geizhals.at/deutschland/a599744.html

Interessant ist Llano vor allem durch 32nm, da wird die Leistungsaufnahme auch der GPU geringer ausfallen. Für Zocker ist die CPU interessant, auf den Markt fokussiert man sich ja auch.

Die Frage ist, wie hoch der Anteil der Zocker ist. Dazu noch die in dem Preisrahmen kaufen.

Ist halt Zocken vs. Arbeiten.

Edit:
Sind die 400 Shader eigentlich offiziell von AMD bestätigt? Den Folien der News nach wäre die GPU Leistung für 400 Shader aber schwach wenn selbst die 80 von Zacate mit der Intel GMA gut mithalten können...
 
Zuletzt bearbeitet:
@Krautmaster

Bitte verschone uns mit deiner andauernden Falschannahme, dass Intel keine leistungsfähige integrierte Grafikeinheiten bringen will und deshalb nicht massiv investiert!

Wenn man sich den Performancezuwachs von SB im Gegensatz zu den Vorgängern betrachtet, sieht man doch ganz eindeutig, dass auch Intel auf Hochtouren in Richtung GPU Perfermance entwickelt um wenigstens ansatzweise Anschluß zu halten.

Auch das man mit dem im Consumermarkt bisher gescheiterten Liarrabee Projekt Milliardenbeträge in den Sand gesetzt hat widerspricht deinen Annahmen.

Interessant auch, dass Intel massiv mit Ivy Bridge in Richtung Grafik weiterentwickeln wird: https://www.computerbase.de/news/prozessoren/ivy-bridge-grafik-mit-weniger-shadereinheiten-als-erwartet.30208/.

Es wird sogar über einen eigenen Grafikspeicher für Ivy Bridge spekuliert: https://www.computerbase.de/news/prozessoren/intels-ivy-bridge-mit-1-gb-eigenem-gpu-speicher.29966/

Bleibt zu hoffen, dass Intel auch treibermässig zukünftig aufholt!
 
Stellt sich die Frage welche GPU bei dem Quad-Llano verbaut war. Es sollen immerhin 11 Modelle mit Dualcore und Quadcore erscheinen - ich denke nicht dass da die Leistungsspitze gezeigt wurde, da ja schließlich eine Desktop APU ~100W TDP haben soll. Ausgehend von den 1,8 GHz ist noch einiges bzgl. Takt möglich. Der GPU-Speicherdurchsatz soll 27 GB/s betragen mit DDR3 1600 - 1866er wird auch unterstützt, doch dann nur 2 Module. Hypertransport gibt es bei Llano nicht mehr sondern wird durch PCIe 2.0 komplett ersetzt.

Vor allem wird der gemeinsame Zugriff der CPU und GPU auf einen gemeinsamen kohärenten Adressraum für mehr Speed sorgen als externe GPU Lösungen. Dies lässt sich aber nicht in Zahlen vergleichen und hängt natürlich auch von der eingesetzten Software ab - diese wird dieses Jahr erst erscheinen. Vor allem bei Browsern darf man gespannt sein was dies bewirken wird - und das wirkt sich direkt im Business Umfeld aus, wo immer stärker mit Browser Interface gearbeitet wird (und darüber geflucht)
 
Kasmopaya schrieb:
Vergesst vor allem nicht Intel zu bestrafen und ein paar % von Performancerating abzuziehen, weil sie mit der Bildqualität im allgemeinen cheaten und mit NV und AMD bei weitem nicht mithalten können.


Die Benchmarks sind ohne AA/AF, von daher spielt es keine Rolle. Da flimmern eh alle Kanten und Matschgrafik ohne AF ist garantiert. Du darfst dir sicher sein, dass AMD schon die richtigen Benchmarks wählt und Llano keinesfalls benachteiligt weil es mehr berechnet oder so.
 
Man muss bedenken, das es sich hier lediglich um den Mobile-Llano handelt, der den 45W TDP Rahmen nicht sprengen darf. Im Desktop-Bereich ist der Llano bis 100W TDP angekündigt, man kann also davon ausgehen, dass der zusätzliche TDP-Rahmen von 55W nicht nur für eine deutliche Erhöhung der CPU-Leistung genutzt wird. Man kann also mit einer gesteigerten GPU-Leistung bei den Desktop-Llanos rechnen. Ausgerechnet da bietet Intel hauptsächlich die verkrüppelte HD2000 an. Nur wenn man bereit ist eine relativ kostspielige K-CPU zu kaufen, erhält man die HD3000.

Weiterhin gebe ich zu bedenken, wer in einem neu entstehenden Segmnet zu spät einsteigt, wird nur schwer den Anschluss finden. Nividia und AMD sind nicht nur auf dem reinen 3D-Game Gebiet Intel weilenweit voraus. Mit den Treibern steht und fällt eine neue Technologie, und Intels Aufholbedarf wird nicht weniger wenn GPGPU in Fahrt kommt.


Ralf555 schrieb:
Du darfst dir sicher sein, dass AMD schon die richtigen Benchmarks wählt und Llano keinesfalls benachteiligt weil es mehr berechnet oder so.

Es ist aber noch nicht gesagt, dass AMD die besten Games und damit Szenarien für sich gewählt hat, denn es gibt durchaus Games die auf der SB-GPU schlichtweg nicht laufen oder abstürzen. Und es ist nicht ausgeschlossen, dass AMD in diesen Intel-Fail Games noch stärker dominiert, wenn Intel die mal zum Laufen bekommt.
 
Zuletzt bearbeitet:
Athlonscout schrieb:
@Krautmaster

Bitte verschone uns mit deiner andauernden Falschannahme, dass Intel keine leistungsfähige integrierte Grafikeinheiten bringen will und deshalb nicht massiv investiert!

Wenn man sich den Performancezuwachs von SB im Gegensatz zu den Vorgängern betrachtet, sieht man doch ganz eindeutig, dass auch Intel auf Hochtouren in Richtung GPU Perfermance entwickelt um wenigstens ansatzweise Anschluß zu halten.

Auch das man mit dem im Consumermarkt bisher gescheiterten Liarrabee Projekt Milliardenbeträge in den Sand gesetzt hat widerspricht deinen Annahmen.

Interessant auch, dass Intel massiv mit Ivy Bridge in Richtung Grafik weiterentwickeln wird: https://www.computerbase.de/news/prozessoren/ivy-bridge-grafik-mit-weniger-shadereinheiten-als-erwartet.30208/.

Es wird sogar über einen eigenen Grafikspeicher für Ivy Bridge spekuliert: https://www.computerbase.de/news/prozessoren/intels-ivy-bridge-mit-1-gb-eigenem-gpu-speicher.29966/

Bleibt zu hoffen, dass Intel auch treibermässig zukünftig aufholt!

mit Larrabee hat das ja schonmal 0 und garnichts zu tun lol. Der Vergleich hinkt ja mal komplett.

Es geht um die Leistung der IGP. Wäre diese extrem wichtig würde Intel wohl nicht neben HD3000er auch HD2000er GMA anbieten. Was Intel betreibt ist Marketing und es macht sich nun mal gut von einer ach so "schnellen" IGP zu reden oder damit zu werben.

Ich sage nicht, dass Intel heute im Stande wäre eine fette GPU auf die CPU DIE zu packen, aber ich sage, dass Intel durchaus die Mittel hätte dahingehend mehr zu investieren.

Die Leistungssteigerung von Clarkdale -> SB kommt wohl eher durch die Zusammenlegung der DIEs und vom Umstieg 45nm -> 32nm was den GPU Teil betrifft.

Mit 22nm steht dann wieder mehr Platz auf der DIE zur Verfügung -> man kann doppelte Anzahl an Transistoren verbauen. Wenn Intel also von 12 auf 24 „Execution Units“ ändert sich der GPU-Anteil unwesentlich...

Wenn du schon fleißig mit Links um dich wirfst solltest du vielleicht diesen ergänzen:

https://www.computerbase.de/news/pr...t-weniger-shadereinheiten-als-erwartet.30208/

@Complication

ja, AMD geht mit den APU und Bulldozer interessante Wege. Bei Intel ist es mehr als eine simple Kopplung GPU + CPU zu sehen, während es bei AMD schon als Ziel gesehen werden kann die DIEs komplett zu verschmelzen und folglich direkt Befehle auf GPU Anteil auszulagern, Man darf gespannt sein wie das funktioniert, aber eine solche "echte" APU wird man wohl erst in einigen Jahren sehen und ein eigener Befehlsatz wäre wohl auch notwendig.

Prinzipiell muss man sich da fast von x86 wegbewegen (vllt besser so).
 
Zuletzt bearbeitet:
bigot schrieb:
Es ist aber noch nicht gesagt, dass AMD die besten Games und damit Szenarien für sich gewählt hat, denn es gibt durchaus Games die auf der SB-GPU schlichtweg nicht laufen oder abstürzen. Und es ist nicht ausgeschlossen, dass AMD in diesen Intel-Fail Games noch stärker dominiert, wenn Intel die mal zum Laufen bekommt.


Trotzdem gehe ich davon aus, dass AMD für Llano eher die positiven Benchmarks rausgesucht hat. Es sind und bleiben nunmal Marketingfolien. Möglicherweise sinkt der Vorsprung in einem unabhängigen Test. Zumal es noch schnellere HD3000 IGPs gibt. Der Intel Treiber ist ja mittlerweile auch wieder veraltet.
 
Stahlseele schrieb:
Wie sieht das aus, das ist ja ein vollständiger Radeon Kern.
Kann man den wie bei einer extra GraKa für GPU-Computing mit verwenden?
Hatte man darauf schon eine Antwort bekommen?
Ich kann jedenfalls keine finden, und das wüsste ich schon gern o.o
 
Zurück
Oben