AMD's Sockel - veraltet?

Cyyanide

Commander
Registriert
Nov. 2007
Beiträge
2.091
Hi,

so wie ich das sehe bringt AMD nicht wirklich neue Sockel aufn Markt.

AM2 - AM2 +- - AM3 sind alle fast vollschtändig zu einander Kompatibel.

Was ja auch am Design und an´denn Pins liegt.

Wäre es also nicht sinnvoll wie Intel - von Pins auf Kontaktflächen zu wechseln.
Hab mal gehört das durch die Kontaktflächen iwas vermindert wird - ich komm leider grad net aufn Namen :confused_alt:

Ich denke das AMD durch Kontakt flächen sowie mehr von dennen mehr an leistung gewinnen könnte - sowie mehr Features einbauen kann.


Wegen dem Sockel schreck ich davor zurück einen AMD Prozessor zu kaufen - Sockel soieht aus wien AMD Athlon XP sockel :D
 
Von Intel wurde afair mal behauptet, dass es für höhere Frequenzen geeignet sei, aber ob das wirklich so ist, kann man bezweifeln. Der PII schafft schließlich bei Extremübertaktung an die 7 GHz, der Sockel dürfte da also wenig limitieren.
Es gibt also aus Sockelsicht keinen Grund gegen AMD. Im Gegenteil, da AM2(+) und AM3 alle zueinander mehr oder weniger kompatibel sind, ist doch nur zum Vorteil des Kunden.
 
Nah Intel meinte damals - als die Netburst Arichtektur rauskamm das die 10ghz schaffen xD Aber da denke ich würds schon limitieren - schon wegen der Stromversorgung.
 
Ich kann ein Foto für dich hochladen aus PCGH ;)
 
Naja, außer dem Namen, den man sich aufgehoben hat, hat der Nehalem aber nix mit dem damaligen Plan zu tun.

Im Prinzip ist weniger der Takt der CPU entscheidend als der Takt der Anbindung.

Ich wüsste aber schon gerne, warum Pins am Mainboard (da sind ja nunmal dann auch Pins) weniger störende Felder bilden als Pins an der CPU.
 
Gefolgt vom Tejas kommt der in 65nm gefertigte Nehalem. Ihm möchte Intel mit einem 1200 MHz Frontside-Bus ausstatten, der es auf eine theoretische Bandbreite von 9,8 GB/s bringen würde. Er soll mit 9,60 GHz starten und Ende 2005 mit einem Takt von 10,20 GHz die 10 GHz Marke knacken.

1. Nehalem ist 2009 rausgekommen
2. Er arbeitet mit QPI und net FSB
3.wird Nehalem in 45nm und net im 65nm verfahren gefertigt
4.Nehale, arbeitet mit 3,33ghz
5. Penryn Taktet schon mit stolzen 1600FSB, da wären die 1200FSB kläglich :S
Schon lustig die Pläne von früher zu sehen, ich denke das sone Taktraten weit unterhalb von 1nm erreicht werden können.

Aber die CPU's werden heute auch net mehr so heis das man sie nicht mal mit 3,8ghz rausbringen könnte - und vllt. noch etwas sparsamer machen wie die Notebook CPU's
 
Das mit den 10GHz könnte man schon erreichen, aber nicht mit den aktuellen Arichtekturen, mit dem aktuellen Fertigungsverfahren sollte es aber möglich sein, die CPU wäre halt nicht sehr schnell, weil für einen schnelle Desktopcpu braucht man wegen des nicht so tollen Befehlssatzes zimlich viele Transistoren und die werden nunmal zimlich warm.

Ob das mit den andern Pins wirklich gehen AMD spricht ist fraglich, ich glaub nicht das es einen Unterschied gäbe.
Klar könnte man mit mehr Pins mehr Features und mehr Transistoren einbauen, aber das geht auf Kosten des Verbrauches und der ist so schon hoch genug.
 
Ja die Notebook CPU'S siond doch schon ziemlich schnell also die DC. und der Verbrauch is ja bei dennen niedrig sowie die wärme abgabe.
 
Das kannst du nicht mit z.B. IBM oder Fujitsu Servercpus verlgeichen, die Dinger verblasen von der Rechenleistung jede aktuell CPU und verbrauchen deutlich weniger.
Dazu sind Notebook CPU's meist anders dotiert und sind teurer herzustellen das würde die Preise wieder in die Höhe treiben, daber man könnte den Verbrauch senken, aber für 10GHz würde es nicht reichen, man müste die Transistoranzahl senken oder dazu noch einen andern Befehlsatz verwenden um die CPU auf bestimmte Anwendungen zu optimiren und dort hohe Rechenleistungen zu erreichen.
Das wäre eine sollche CPU: (128GFlops und nur 35W)
https://www.computerbase.de/news/prozessoren/acht-kern-cpu-mit-leistung-satt-bei-35-watt.24943/

Ein Beispiel sind auch GPUs, 1TFlop schafft keine aktuelle Desktop-CPU, nichtmal annährend, aber bei denen ist das Problem das sie nur bestimmte Rechenbefehle ausführen können, diese aber dann verdammt schnell.
 
Ne GPU ist auch ein RISC, bei CPUs wird CISC verwendet. Zwar basieren aktuelle CPUs auch auf RISC mit einem "Aufsatz" für CISC aber alles bei weitem nicht so effizient wie bei GPUs.

Das Ziel bei nem CPU ist ja auch, dass einzelne Aufgaben möglichst schnell abgearbeitet werden können. Man sieht ja ganz deutlich wie wenig eine verdoppelung der Kerne üblicherweise in den ersten Jahren nach Release bringt. Genau deswegen geht die verdoppelung der Kernzahlen auch so "langsam" vonstatten. Würden alle Programme z.B. 20 Threats nutzen, würden im Nu 8- oder gar 16Kerner mit geringerer Einzelleistung, aber stärkerer Gesamtleistung erscheinen. Problem wäre aber momentan, dass nur maximal 4 Kerne genutzt werden und die CPU floppen würde, weil diese 4 Kerne eben nur vielleicht halb so schnell wären.

Bei GPUs ist die Paralelisierung viel viel leichter. Bei nem Spiel kommts ja ned darauf an, wie schnell ein einzelnes Pixel gerendert wird, sondern wie lang die GPU für alle Pixel zusammen braucht. Man kann dort fast alles paralelisieren. Es wird gleichzeitig Schatten, HDR, Texturen, Effekte usw. berechnet. Doppelt so viele Ausführungseinheiten bei der Grafikkarte führt auch zu fast doppelt so hoher Performance (Solang vRAM, Bus etc nicht limitieren). Doppelt so viele Kerne bei ner CPU führen zunächsteinmal zu fast gar nichts. Ein 8-Kerner wäre momentan den üblichen Quadcore-CPUs in keinster weise voraus. (Desktop)
 
@eXEC-XTX
Ist klar das die GPU total anders aufgebaut ist und ihre Aufgabe eine ganz andere ist, war nur so als Beispiel das man durch Optimirung auf ein bestimmtes Anwenungsfeld zimlich viel Leistung rausholen kann, eine CPU könnte ja auch Bilder berechnen, aber die kackt da zimlich weg, weil sie ja für alles mögliche ausgelegt ist.
 
Zurück
Oben