News AMD: Prozessoren mit sechs und zwölf Kernen

Es geht gar nicht mal darum, alle 4, 6, 8, oder 12 Kerne, bzw deren Rec henleistung auszunutzen. Wenn dieses Argument ziehen würde, dann würde es mir auch ein Dualcore tun und ich würde einen Quadcore überhaupt nicht brauchen. Aber: im Regelfall haben die Multicores im Ggs zu "nur" Dualcore auch deutlich mehr cache und DAS wiederum wird immer ausgenutzt. Nicht umsonst ist deshalb ein Kentsfield schneller als ein gleichgetakteter Dualcore, und nicht umsonst ist auch ein Yorkfield schneller, als ein gleichgetakteter Kentsfield. Nicht, weil dort die cores besser ihre Rechenleistung zeigen könnten, sondern weil jeweils anstatt 4 oder 6MB eben 8 oder 12MB l2cache zur Verfügung stehen. Und das wiederum zeigt sich in jedem Spielebenchmark (so nutze ich die CPU) mit einem deutlichen Leistungsvorsprung.
 
Es war doch mal die rede davon das AMD schon Probleme damit habe 4 native Kerne auf eine CPU zu bekommen wegen der Ausbeute aus einem Wafer oder irre ich mich da? <- Daher kamen doch auch die Triple Core AMDs.

In der jetzigen News steht das es nun 6! native Kerne werden sollen? ... Na dann Viel Glück AMD. Ich hoffe es funktioniert.
 
Wow, Quad-Channel wäre ja wirklich mal was innovatives. Hoffentlich existiert das nicht zu lange in der Theorie bei AMD. Bis jetzt bin ich noch bei AMD geblieben und schaue zuversichtlich in die Zukunft. Na dann!:daumen:
 
Zuletzt bearbeitet:
@16

Die Auswahl der Codenamen für Serverprozessoren bei AMD richtet sich nach den Orten wo Formel 1 Rennen Stattfinden ;) Der Grund dürfte wohl sein dass sie die Roten sponsern.
 
@ RIPchen:

Es geht gar nicht mal darum, alle 4, 6, 8, oder 12 Kerne, bzw deren Rec henleistung auszunutzen.
Mit Verlaub - allein dieser erste Satz ist wirklich mit das dümmste "Nicht-Argument"
was du mir hier vor den Latz knallen konntest. ;)
Ich hoffe das ist dir klar.

Die Bestückung der Cachegrößen hat mit der Multi-Core-Thematik
ungefähr genauso viel zu tun wie ein Huhn mit dem Milchmelken.
Auch Dualcores lassen sich schließlich mit enormen und effizienteren Caches ausstatten...
Wo ist jetzt der Bezug zu mehr Kernen? :rolleyes:

@ Ghostwalker
Ich frage mich auch wie das überhaupt sinnvoll realisiert werden soll.
Intel geht beim Dunnington schließlich nicht umsonst den bewährten
"non-native way"...
 
@fRe@KAdellE

Das Leistung pro MHZ bzw. Performance pro Watt Verhältnis wird auch so von Generation zu Generation besser , falls dir das noch nicht aufgefallen ist.
 
@Voyager10
Da hast du recht und wer recht hat... äh nee... :)

Aber zurück zum Thema, klar ist das so. Nur was nützt es der breiten Masse? Wird dort nicht evtl. auf das falsche Pferd gesetzt, so meine ich das.
Intel kann von mir aus rumexperimentieren wie sie möchten, aber um AMD würde es mir leid tun, wenn sie ihre Kohle verjubeln...

Gibt es diesbezüglich eigentlich irgendwelche Umfragen? Und jetzt bitte nicht nur von Teenies ausgefüllt, sondern auch die etwas ältere Generation.
Da wäre ich mal gespannt auf das Ergebnis. Denn dieser Mehrkern-Quatsch kann nichts werden, ausser teuer! Dabei sehe ich aber immer den "Normalo"-User als Zielobjekt...

Gruss

(der immer die überüberübernächste GPU vor Augen hat)
 
Darauf binn ich schon gespannt was AMD noch so alles rausbringen wird, besonders freue ich mich auf den Shanghai^^
 
florymonth schrieb:
Physik wird bald komplett von den Grafikkarten übernommen...
Sogar über Ki auf der Gpu wird nachgedacht.

Und wenn man keine gute Grafikkarte hat oder der Grafikkarte Arbeit durch den Däumchen-Drehenden Prozessor abnehmen möchte?
Ich habe mehrere Spiele, die entweder für die Grafikkarte alleine zu viel ist und der Prozessor mit nur einem Kern arbeitet. Gibt es genauso umgekehrt, da finde ich sowas eine gute Idee.
Aber naja... das mit der KI habe ich noch nicht gehört, kann mir auch nichts darunter vorstellen, da ich nur die extrem dumme KI vom Computer kenne, die man schon nach nur 10 Sekunden ohne Probleme austricksen kann.
 
fRe@KAdellE schrieb:
Wäre es nicht sinnvoller sich erstmal intensiv um die Strukturbreiten und den
Energieverbrauch sowie um das Leistung/MHz-Verhältnis zu kümmern?


Hast du die letzten Jahre mit verbundenen Augen gelebt? :freak:

Hab im Herbst von nem A64 3000 mit ner 128MB X800 auf nen E6750 mit ner ATI 3870 gewechselt, CPU sogar übertaktet und der Rechner verbraucht im Idle über 20W weniger als der Alte, trotz höherem Takt, 2 Kernen und wesentlich besserer Grafikkarte!
 
Ich hoffe AMD schafft den durchbruch und berreitet Intel extreme Kopfschmerzen, denn nur dann wird Intel wieder Innovativ jetzt ruhen sie sich auf der C2D Architektur aus. erhöhen kerne und veringern strukturgröße. erinnert mich an p4 zeiten wo nur mhz und nm erhöht wurde.
 
Das hört sich ja mal gut an für AMD, denn kann evtl, sein das das AMD zeigt wo die Hacke hängt, sehr schön
 
flappes schrieb:
Hoffentlich läufts bald besser mit der Fertigungstechnologie, denn vom Prozessordesign her ist AMD vorne mit dabei (auch wenn die Kiddies das nicht sehen wollen).

achja und deswegen geht amd den gleichen weg wie intel
was den speichercontroller angeht.
amd hat zwar den controller früher in cpu gehabt aber keinen wie sie intel jetzt macht.
und das ist viel efizienter.
im server bereich mag zwar amd mit speichercontroller in der cpu besser gefahren zu sein, aber diese zeiten sind nun entgültig vorbei jetzt muß mann bei intel abschauen.
 
" kleinen Ausblick auf die Zukunft " ," jedoch kaum vor dem nächsten Jahr erscheinen "

Was dann wirklich kommt sieht doch meist ganz anders aus .
Ist aber gut wenn die Entwicklung voran schreitet ,letztlich profitieren wir alle davon .
 
@ Voyager10

Das Leistung pro MHZ bzw. Performance pro Watt Verhältnis wird auch so von Generation zu Generation besser
Mhm, genau - das natürlich alles von alleine... quasi "vollautomatisch"... Gott macht das... :lol:
Was für eine blödsinnige Bemerkung.
Selbst wenn es so wäre, dann stell' dir nun mal vor was da noch für Potential liegt,
wenn man wirklich gezielt darauf hinarbeiten würde. Von nichts anderem schrieb ich übrigens.
Irgendwo krankt also deine Argumentation, findest du nicht?

@ Turrican101
Zu dir kann ich eigentlich nur mehr oder minder das selbe sagen...

Und vor allem - was wolltest du mir damit sagen?
Nichts. Zumindest nehme ich das jetzt einfach mal an.
 
Ich versteh nicht warum alle über den Stromverbrauch von solchen CPUs meckern. Ich persönlich hab sicher nicht vor mir irgendwann ein Atomkraftwerk für meinen Computer zu bauen und werd mir dementsprechend nur CPUs mit vernünftigen Verbrauch kaufen, aber wenn jemand kein Problem hat 150, 200 oder irgendwann 300W zu verheizen ist es doch seine Sache.
Und wenn jetzt alle nur noch 50W CPUs anstatt 100W kaufen würde, würde das der Umwelt ziemlich genau nix helfen. Das einzige gültige Argument ist die Stromrechnung und die muss jeder für sich einschätzen..

mfg
 
fre@KAdellE:
Ja, stell dir mal vor, an der Verringerung der Strukturbreite wird - meiner Meinung nach - sogar sehr intensiv gearbeitet. Es sind noch keine 45nm CPUs auf dem Markt, da haben beide Hersteller schon Fabriken in Auftrag für den nächsten Schritt (32nm?). Desweiteren sind solche Fabriken keine Metzgereien. Das ist Hochtechnologie und muss erst einmal entwickelt und gefertigt werden, ganz davon zu schweigen, dass der ganze Kram ja auch nen ganzen Haufen schotter kostet und wohl nicht von jedem Schreiner zusammengeschustert werden kann.

Und wer sich über die Rasantheit der Entwicklung inder Computerbranche überhaupt auch noch beschwert, dem ist imo eh irgendwo der Bezug/die Dimension des ganzen verloren gegangen.
Keine Branche/Industrie/whatever hats sich auch nur annähernd so rasant entwickelt wie die Welt der Bits und Bytes.

Überhaupt finde ich deinen Kommentar etwas verfehlt.. dein Ton ist unangebracht.

Edit: ja lol, da isser gebannt...
 
Zuletzt bearbeitet:
Zurück
Oben