News Kommt der Dual-Core-Opteron am 21. April?

@enzio
du bist mir einer
ein opteron ist nix für den homeuser
das sind nun mal server cpus, und da profitiert fast jede anwendung von dualcore
amd macht das einzige gescheite sie bringen dc erst für den prof. bereich wo es auch genutzt werden kann
später dann für highend desktop und dann mainstream, was soll denn heute ien homeuser mit dc??
intel hat nur versucht auf amd zu reagieren, da amd nen halbes jahr im voraus ist und halt halt schnell nen dc zusammengeschustert
da man im server segment nicht gern experimente macht wurds halt nen mainstream prozessor, reines prestige objekt
@17 wieso so unrecht hat er gar net
 
http://www.theregister.co.uk/2005/04/08/amd_opteron_dualcore/

''The price of the 2.2GHz dual-core chip will be the same as current single-core Opterons, as AMD looks to drive demand for the product and put pressure on Intel which won't have a comparable dual-core part until next year ''

Wären dann $455 für eine 2* 2,2 GHz Server-CPU als Opteron 870.

Tippe mal, so in der $400++ Klasse werden die Dualen so einige Single-Core direkt ersetzen. Bleiben noch die Top-Modelle ab 2,6 GHz, die einfach thermisch in SOI-90nm und <95 Watt nicht gehen werden.

Unter $400 dürfte AMD für DC noch Aufpreis verlangen, was dann sicherlich auch ein erstes Maß für die DC-Desktop sein könnte.
Ein DC-3500+ (2* 2,2 / 2*512k) für etwas über $300 erscheint so schon recht deutlich am Preishimmel, wenn auch erst Mitte '05 bis Herbst '05.
 
Enzio schrieb:
und leute die software muss aufn dual core abgestimmt sein. verzaehlt doch ned immer so ein schmarn das es dann so und so schneller geht.

Verzählt hat sich hier glaub ich niemand, oder? Verstehe ich nicht...

Enzio schrieb:
ine ganze Reihe von Programmen kann von Intels in Kürze zu erwartenden Doppelkern-Chips bislang noch nicht profitieren. Dazu zählen vor allen Dingen Spiele. Doom 3, Far Cry, Unreal Tournament 2004, Quake III Arena oder Return To Castle Of Wolfenstein laufen in gewohntem Tempo ab..

Stell dir mal vor, Computer gibt es nicht, damit kleine Kinder spielen können, sondern weil Menschen dadurch die Arbeit erleichtert wird. :rolleyes:

Irgendwann muss man damit anfangen, DualCore zu bauen, weil sonst niemand einen Grund hat entsprechende Software zu programmieren.
 
Man muss aber sagen, dass die Software-Entwickler eigentlich Idioten sind, denn Intel hat schon vor Jahren Hyper Threading gebracht und die Deppen haben nicht viel darauf optimiert :mad:

Wenn es nach Intels Vorstellung gelaufen wäre, dann wäre fast alles an Software MultiTreading und Multiprocessing und man bräucht beim Einstieg von MultiCore-CPUs nicht mehr viel machen. :rolleyes:

Leider sind die nicht mitgezogen und jetzt müssen sie unter Zeitdruck arbeiten. Das mindert nicht nur die Qualität, der User wird wieder zum Beta-Tester :mad:

Mir ist es eh etwas unverständlich, dass die Software der Hardware Jahre zurückhinkt und man trotzdem so mies programiert. Schaut euch mal das Ressourcenfressen von Need4Speed Underground und Generals an (seltsamerweise beides EA Games ;)).

Es wird weder Code ordentlich schlank und optimiert hingelegt, noch ist er zeitlich mit den Hardwareherstellern gleich auf. SSE, Powernow! und MMX sind nur einige Beispiele. :(
 
Naja EA ist sowieso eine Drecksfirma. Das bei denen alles so langsam läuft ist irgendwie verständlich finde ich. Und Software auch Hardware zu optimieren ist gar nicht so einfach. Vor allem nicht, wenns jetzt mit 64Bit zu tun hat.
 
Ich sehe es aber sehr deutlich, dass beispielsweise nVIDIA schon immer gute Treiber hatte und die jetzt kein Problem haben auf 64 Bit oder Linux zu programmieren. ATI ist nachwievor mies in den Treibern und OpenGL, Linux und 64 Bit will nicht so gut gelingen.
 
@25
ich hätt auch net für ht optimiert
ht war nur ne technik um die inefficiente netburst architektur optimal auszunutzen undwegen einer prozessor reihe und mageren 5% mehr leistung würde ich deswegen meine programme nicht neu schreiben
aber insofern gebe ich dir recht das neue software multi thraded geschrieben werden sollte
hasst du mal die grafik von nfsU2 oder genrals mit anderen spielen des genres verglichen?
die sind grafisch dei topspiele. und vergleichsweise act of war ist ein vielfaches ressourcenfressender(wobwi noc hbessere grafik)
@26
1. warum sollte EA ne drecksfirma sein?
2. programmiert EA keine spiele sondern ist nur publisher
 
Intel hat so eine große Dominanz, sowohl im OEM Markt, als auch im Consumer Markt, dass es durchaus Sinn ergeben hätte.
Deine Argumentation, dass für nur 5% mehr Leistung Programme anders zu schreiben nicht sinnvolle wäre, kann ich gar nicht teilen!
Wenn so über Dual Channel, SSE, DDR-RAM, ect. geurteilt würden, dann hätten wir überhaupt keine Weiterentwicklungen mehr. Laut diversen Tests, sind Dual Channel CPUs von AMD sogar langsamer als ihre S754 Single Channel Pendants!

EA kümmert sich einen Scheißdreck um Ihre Kunden. Es hat eine unglaubliche Ewigkeit gedauert, bist die einen neuen Patch für Generals und Zero Hour rausbrachte. Das spiel war Monate verbugt, hatte Ruckler und war teilweise unspielbar.

Sie stellen sehr schnell den Support ein, wenn sie in Nachfolgergame rausgebracht haben. Blizzard supportet alle ihre Spiele, falls du antworten wolltest, dass das alle so machen. Und Blizzard ist deswegen nicht umsonst sehr erfolgreich.

Community ist denen egal. BF Vietnam war vorher schon als BF1942 Mod, die gehen hin klauen den Mod komplett und setzen ihn als selbständiges, kostenpflichtes Spiel rein. Der Mod ist komplett untergegangen, weil alle Vietnam im Original zocken anstatt den Mod, der nicht offiziell ist.

Langweilige Spiele, die nur aufgewärmt werden, ist ein weiterer Punkt. Was war denn an Underground 2 so toll, was man nicht schon im ersten Teil hätte bringen können? Die Grafik ist überhaupt nicht supergeil. Es gibt etliche Spiele, die so gut aussehen.
Ich habe so viel High-End-Spiele gespielt oder angetestet, aber Underground ruckelt. :rolleyes: Das zeugt von schlechter Programmierarbeit und Ressourcenfressen als von guter Grafik.

Ein kleiner Sinneswandel kam mit der Kritik am Aufkaufversuch von Ubisoft und Eidos.
Die Community stand auf den Barrikaden und war sauer.
 
Ich versteh die ganz DualCore Sache überhaupt nicht, warum nehmen die nicht einfach den verfügbaren Platz um die Transistorzahl und den Cache der Single CPUs zu verdoppeln, dieses optimieren für Threads macht doch sowieso kein Programmierer.
 
@29
du kannst doch dualchannel nicht mit ht vergleichen
für ht muss man extra programme schreiben für dualchannel ja net
und wo ist denn ne dualchannel cpu langsamer(höchstens der 3000+, da der langsdamer getaktet ist), ansonsten machen die sich nix enweder mehr cache oder mehr speicherbandbreite

und das mit den games kann ich net nachvollziehen
ich zock generals immer noch ohne patch
klar das die sich nicht so viel kümmern ist net so doll und das blizzard die nummer1 ist iost auch klar
nur wenn blizzard 50games draußen hätte wär der support auch net so groß, liegt halt an der expansionspolitik EA's
das ist halt marktwirtschaft, blizzard macht viel weniger gewinn als EA
Underground 2, kann man schon fast gar nbet mit 1 vergleichen
1 war nur schrott, von der fahrphysik bis hin zum abwechlungsreichtum
und wenn du ein spiel mit der grafik wie nfsU2 findest dann nenn es doch mal
und ruckeln tut das auch net wenn man halt nur ne gf3 hat dann muss man halt nur auf 1024x768 spielen und die detail runterschrauben, da die gf3/4 nun mahl sich mit shadereffekte schwertun
aber mit ner 9600xt läuft das spiel doch in volller pracht
@30 ich glaube du verstehst die situation gar net
im mom können die cpu hersteller den takt nun mal nicht mehr gross anheben
daher muss man auf lange sicht ne möglichkeit schaffen um viel leistung zu erhalten
noch ein problem ist die verlustleistung, werden mehrere kerne effektiv genutzt sinkt die verlustleistung pro rechenleistung
das problem ist halt dass der shritt zur multithreaded software gemacht werden muss und der nur langsam von statten geht
ich will dich mal in 5jahren mit ner singlecore cpu und 20mb cache sehen
da hab ich liebr 4 kerne 4mb, die dann ca. 2-3mal so schnell sind weil die software grösstenteils optimiert ist
 
Zuletzt bearbeitet:
Dual Channel muss genauso optimiert werden, weil es sonst nichts bringt. Gibt etliche Beispiele dafür im Bechmarkbereich.

Eben genau nicht! Die gleichen sich nicht aus. Du bist einer von denen, der auf AMDs P-Rating-Tricks reinfällt, weil du eben nicht die Benchmarks prüfst, ob ein 3200+ 1MB Cache 754 Single Channel genauso schnell ist wie der 3200+ 939. Wenn du Vergleiche anstellen würdest, oder Tests liest, wo es explizit getestet wurde, wird dir schnell klar, wie verarscht von AMD man wird.

Du magst deine Meinung zu EA haben, ich hab meine. Mir sind lieber kleine Publischer, die sich ihren Produkten was verstehen und sie auch ordentlich supporten.
Ja, das ist Marktwirschaft. Der Markt frisst sich halt selbst. Hat Marx schon gesagt. Gut, dass er Kartellämter gibt. Das hält aber auch nur temporär.
 
The_Jackal schrieb:
Du bist einer von denen, der auf AMDs P-Rating-Tricks reinfällt, weil du eben nicht die Benchmarks prüfst, ob ein 3200+ 1MB Cache 754 Single Channel genauso schnell ist wie der 3200+ 939. Wenn du Vergleiche anstellen würdest, oder Tests liest, wo es explizit getestet wurde, wird dir schnell klar, wie verarscht von AMD man wird.
haha ...

Beide haben gleichen Takt und sind praktisch gelich schnell.
Anders beim 3200+/512k/2,2 GHz/ So. 754, da sind eben +10% an echtem Takt verfügbar.
Nur, auch davon bleiben mal 5% an Mehrleistung im Mittel übrig, was eh völlig in der Streugrenze der anderen Hardware untergeht.

Richtig unsinnig sind nur die Intel-GHz, man denke nur an die grottenlangsamen
Celeron 2,8 C, die jeder Duron 1,6 abhängte. Oder natürlich ein P-M über 1,3 GHz.

Intel hat jetzt eher den 'schwarzen Peter', denn die 'Dualen' haben weniger echte GHz, sind aber für Normaluser im Anwendungsmix schneller als die heutigen Single-Core.
Aber wie erkennen ohne einigermaßen vergleichbaren Maßstab ?
 
1.falle ich auf neimanden rein, da ich mir immer vor einem kauf genügend gedanken mache
2.schau dir den link an und sag mir woder 3500+ gegen den 3400+ abkackt https://www.computerbase.de/2004-06/test-amd-athlon-64-3500-plus-und-3800-plus/24/
3.dualchannel muss immer noch nicht optimiert werden nur weil du das willst, die unterschiede bei den benchmarks kommen daher dass nicht alle anwendungen eine hohe speicherbandbreite benötigen, da kannste dann auch nichts optimieren
4.mir sind auch klleine publisher lieber aber di halten sich meist leider net alleine oder haben nicht die mittel ein spiel zu entwickeln was nicht für die breite masse gedacht ist
 
Zurück
Oben