News Spezifikationen erster „Richland“-APUs genannt

Lol der Vergleich ist echt drollig. Das war ne Architektur die sich nicht entwickelt hat wie erwartet. Sicher nen Fehlgriff, aber nicht von vorneherein so absehbar.
Hier gehts nicht um ne komplexe Architekturentwicklung über Jahre hinweg sondern um ne simple Entscheidung eDRAM zu nutzen oder nicht. Da wird sich wer was dabei gedacht haben und dann prüft man das. Da bauste halt nen Prototypen und weißt was es bringt.

Bei Haswell haben die Chips mit und ohne eDRAM seit Monaten rumfliegen und hatten Zeit genug die zu testen. Meinst du allen ernstes sie würde die Chips mit "teurem" eDRAM produzieren wenn es nichts bringt?
 
bensen schrieb:
Meinst du allen ernstes sie würde die Chips mit "teurem" eDRAM produzieren wenn es nichts bringt?
wenn es jemanden gibt der dafür mehr zahlt schon.

es ist eben sehr fraglich ob mickrige 128MB cache bei einem aktuellem spiel etwas bringen werden.
 
Genau, wenn der gigantische 6MB Cache von Athlon zu Phenom II
nur 12 % Leistungszuwachs bringen, was sollen da mickrige 128MB
bei einer APU bewerkstelligen, die noch weit mehr an der Anbindung
zum Arbeitsspeicher leidet?
Diese Idioten bei Intel sollten echt weniger verdienen bei dem Scheiß,
den sie veranstalten. Am besten auf einen 400 EUR-Job runter!
 
Elkinator schrieb:
der vergleich alleine ist schon schwachsinn.
bei einem CPU kann man etwas voraussahen, das geht aber bei der GPU kaum...
und ja, man hat bei intel schon gesehen das sie bei GPUs keine ahnung haben.

auf was stützt du diese Aussagen. Wenn man sich so weit aus dem Fenster lehnt sollte man auch Quellen angeben. Hier einfach von "L4 Cache bei Haswell bringt nichts" zu reden ist genauso hirnrissig wie zu behaupten, dass L3 bei Vishera nichts bringt ^^

Der "L4" wird die Leistung nicht verdoppeln, genauso wenig wie das der L3 tut. Wenns 20% sind ist es Grund genug diesen zu verbauen. Besser als nichts zu tun oder?

@Weltenspinner

Ironie? ;)
Der Post is wage. Manchen hier würde ich so ein Geblubber auch ernst gemeint zutrauen.
 
Zuletzt bearbeitet:
Ja ne ist klar. Ein Kunde wird weniger bezahlen weil der eDRAM fehlt (der nichts bringt).
Der Kunde zahlt für Features und Performance und nicht für unnütze Chips auf dem Package.
 
Weltenspinner schrieb:
Genau, wenn der gigantische 6MB Cache von Athlon zu Phenom II
nur 12 % Leistungszuwachs bringen, was sollen da mickrige 128MB
bei einer APU bewerkstelligen, die noch weit mehr an der Anbindung
zum Arbeitsspeicher leidet?
Diese Idioten bei Intel sollten echt weniger verdienen bei dem Scheiß,
den sie veranstalten. Am besten auf einen 400 EUR-Job runter!
ja, weil ja auch eine CPU mit einer GPU vergleichbar ist...
 
2L84H8 schrieb:
Das ist eben teilweise falsch: Trinity und Vishera gehören zur Piledriver-Generation, während Zambezi zur Bulldozer-Generation gehört. Beim Zambezi reden aber alle immer von "Bulldozer", deshalb habe ich mich der allg. Verständlichkeit dem angeschlossen.

Es ist deshalb nicht falsch - auch nicht teilweise - da eben der Codename "Bulldozer" nicht nur die erste Generation der neuen Architektur bezeichnet, sondern gleichzeitig die ganze Familie.
Du schreibst von "Generation", das habe ich aber nicht getan, sondern ich habe explizit "Architektur" als auch "Architekturfamilie" erwähnt - das hast du aber leider bei deinem Zitat weggelassen...
Aber das weißt du ja, wie man sieht, eigentlich selbst - dann mach' es doch einfach korrekt :) Immerhin sollte man davon ausgehen dürfen, dass in Foren und vorallem Threads wie diesen nur Leser anzutreffen sind, die ein gewisses Interesse für die Materie aufweisen und somit auch gewillt sind, sich mit dem einen oder anderen Codenamen abgeben zu müssen.

Bzgl. "Bulldozer als Synoym für Zambezi verwenden": Erstens einmal ist das eine ganz einfach falsch und das andere richtig (bis hier hin hättest du mit dem Erbsenzähler noch recht :) ), was aber für Zambezi zu großen Teilen stimmt (z.B. die hohe Leistungsaufnahme unter Last), kann eben für eine Architektur, d.h. also Blueprint auf dem Papier, gar nicht zutreffen. Das Ding ist eben noch nicht gefertigt und bekanntermaßen hat diese Fertigungen massiven Einfluss auf die Leistungsaufnahme. Beim Codenamen "Zambezi" ist die Variable "Fertigung" aber schon beinhaltet. Es ist dies also genauso eine dieser falschen Pauschalisierungen, die in diesem Forum nur all zu gerne gemacht werden. Und da erlaube ich z.B. es mir durchaus, diese Un- oder Teilwahrheiten anzuprangern.

LG
 
Zuletzt bearbeitet:
Krautmaster schrieb:
auf was stützt du diese Aussagen. Wenn man sich so weit aus dem Fenster lehnt sollte man auch Quellen angeben. Hier einfach von "L4 Cache bei Haswell bringt nichts" zu rede ist genauso hirnrissig wie zu sagen dass L3 bei Vishera nichts bringt ^^
du willst aber nicht ernsthaft den cache einer CPU damit vergleichen?
 
Womit sonst? Cache /= Grafikspeicher.
 
ich geb es mit euch auf, wartet einfach auf benchmarks mit und ohne dem cache.
eigentlich sollte man doch erkennen das man mit nur 128MB cache bei einer GPU nicht weit kommen kann, das ist einfach zu wenig.
ihr könnt euch aber gerne wenn es benchmarks gibt dann bei mir melden, falls ich falsch liege.
Ergänzung ()

Weltenspinner schrieb:
Womit sonst? Cache /= Grafikspeicher.
ja, aber zu wenig...
wie soll das einbrüche bei einem spiel verhindern?
der treiber kann ja schlecht abschätzen welche texturdaten man brauchen wird, deswegen haben ja grafikkarten so viel speicher, weil da immer alles drinnen liegen soll/muß.

bei einer CPU geht es ja auch um ganz andere größenordnungen der daten die man cachen muß.
 
Ich finde 128MB Cache gar nicht mal so wenig verglichen
mit den 0,5MB Cache, den eine Geforce GTX680 hat. :D

Ernsthaft! Der Cache könnte die Lösung sein, bis DDR4
flächendeckend und in voller Geschwindigkeit auf dem Markt
angekommen ist. Quadchannel ist leider keine Lösung,
da dieser sehr teuer ist und sich damit Notebooks und
MiniITX-Systeme kaum bewerkstelligen lassen.

Selbst mit DDR4-3200 im Dual Channel wäre man erst bei
51,2GB/s, was noch leicht hinter GDDR5 einer HD7770 liegt.
Da liegt ein Flaschenhals, den es zu umgehen gilt.
 
Zuletzt bearbeitet:
bl!nk schrieb:
TDP ist aber ungleich Verbrauch, ich denke, da werden sie immer noch keinen Stich gegen die i3 sehen.

@topic

Der A8-6600K klingt sehr interessant. Vllt kann der meinen Phenom II dann mal ablösen. AMD bietet bei den Mainboards nämlich immer noch die bessere Ausstattung.

naja ich sehe kein angebot mit pci e 3.0 und 40 lanes!

aber amd ist super dick jaja.

naja der hammer ist es nicht strom verbrauch für 2 kerner echt zu viel.
hoffe es werden mehr als nur 4-6% zum aktuellen pedant.

der cache ist auf jeden fall was gutes.
 
warten wir es mal ab, ich gehe bis jetzt trotzdem davon aus, das es fast nichts bringt und man trotzdem nicht besser spielen kann.

und in dem cache deiner geforce wird keine textur gespeichert, der cache von intel soll aber anscheinend als spiecher verwendet werden, da kommen also texturen rein.

einen cache hatte die intel GPU ja auch schon früher.
Ergänzung ()

PCIe3 ist auch noch nicht so wichtig, das die IPC steigt ist da wohl wichtiger.
 
LundM schrieb:
naja der hammer ist es nicht strom verbrauch für 2 kerner echt zu viel.

:rolleyes:

http://www.planet3dnow.de/vbulletin/showthread.php?t=410546&garpg=18#content_start

So viel dazu... Ausserdem ist das kein Zweikerner, er hat 4 echte integer Kerne, welche alle Energie geliefert haben wollen. Insofern ist der Leistungshunger der einzelnen Kerne sogar recht gering. Und das ist der A10-5800K, der A10-5700 (und wahrscheinlich auch der kommente A10-6700 mit gleicher Leistung wie bisher der 5800K) "verbraucht" wesentlich weniger, der K ist meist höher gevoltet um das einfache benutzen der K funktion zu erlauben ohne das der Benutzer sich dann noch um die voltage kümmern muss.
 
Ist doch gehoppelt wie gepoppelt. Wenn es ein 2 Moduler ist, dann braucht er zu viel Strom. Ist es ein 4 Kerner (worüber man streiten kann), dann sollte er den i3 doch eigentlich deutlich schlagen, wenn er schon fast 80% mehr an Strom verbraucht.
 
er verbraucht aber auch nur unter volllast mehr strom, wenn man nur im internet surft oder im word etwas schreibt ist der verbrauch ca. gleich.
 
MikelMolto schrieb:
Ist doch gehoppelt wie gepoppelt. Wenn es ein 2 Moduler ist, dann braucht er zu viel Strom. Ist es ein 4 Kerner (worüber man streiten kann), dann sollte er den i3 doch eigentlich deutlich schlagen, wenn er schon fast 80% mehr an Strom verbraucht.

Du hast schon schwere Lese- und Interpretationsschwierigkeiten, was? Und dabei sind da auch noch so schöne Balken, extra für Leute wie dich...
 
er schreibt eben gerne unsinn wenn es um AMD geht, das ist ja nicht zu übersehen;)
 
Elkinator schrieb:
er schreibt eben gerne unsinn wenn es um AMD geht, das ist ja nicht zu übersehen;)

sagt der der pauschal mal den 128MB großen Cache bei Intel als unnütz abtut.

Ich denke zum Spielen an sich ist eher relevant wie gut der Treiber ist, da wird die Schlacht gewonnen und dass ist Intels größtes Manko. Der Cache wird sicher Leistung bringen (sonst würde Intel sich den schenken) - aber ob das bei Spielen sein muss oder bei anderen Dingen wie Computing...
 
Zurück
Oben