News AMD FX: Benchmarks, Preise und weitere Details enthüllt

Athlonscout schrieb:
Die Intel Marketingabteilung selbst bezeichnet die LGA 1155 Plattform und die dazugehörigen Prozessoren als Mainstream (aka Mittelklasse). High-End auf SB Basis hält nun mal erst mit S. 2011 Einzug.

Siehe es endlich ein, dass heutzutage High-End am ehesten über die Kernanzahl bei gleicher Architektur seitens der Hersteller definiert wird. Ob es dir nun passt oder nicht!;)
Hi!
Bestreite ich auch nicht, daß es das Marketing so sieht, gerade weil für die Hersteller High-End eben auch Workstions und Server, tec. einschließen. Unter dem Strich zählt aber genauso, wie es der Markt sieht. Keiner würde behaupten, nun da Sandy-E in den Startlöchern steht, daß SB "ohne E";) noch lange die Leistungskrone in der Nische Untere Oberklasse halten wird. Aber Fakt ist auch, daß Gulfi, SB-E, etc. bereits in einem Bereich sind, der nur den Oberenthusiasten und den Leuten, die keine Workstations, aber "Wuppdich" möchten, wirklich interessant ist.
Für die große Mehrheit von uns Usern werden aber die hohen SB (2400+) und Bullis (81XX+) teilweise Oberklasseleistung zu recht geringem Preis ermöglichen. Daher gehören sie vielleicht nicht Marketingtechnisch, aber gefühlt zur Oberklasse bis ihre Nachfolger Ivy und Bulli 2 kommen.
Ernsthaft, wer CPUs aus dieser Lage hat, wird auf mehrere Jahre nicht ohne wirklich triftigen Grund aufrüsten müssen, dazu ist die Leistung zu gut. Das macht sie zumindest mit Abstrichen Teil der "Oberklasse", denn im Gegensatz zu den Llanos und kleinen i3s, die eher zeitig an ihre Limits kommen werden, ist das Potenzial der i5/i7 und Bullis, ob nun genutzt oder nicht, üppig genug um die nächsten 5,6 Jahre zu überstehen, ohne Schwindsüchtig zu sein.
 
Touché von einer Kampfkatze...?^^ Woha :)

@ Tigerkatze: Geb dir Recht. Schau in meine Liste, da hab ich Core i7 Sandybridge daher auch als "Unteres High-End" eingetragen. Das ist gefühlt. Aber Marketing eben, und real - und da zählen nunmal Kerne dazu, nicht nur die 250 Euro die die CPU kostet - da ist Sandybridge halt doch nur obere Mittelklasse. Aber was solls?

Was Quadcores allgemein angeht (ja, dazu zähle ich auch Sandybridge) würde ich jetzt nicht sagen, dass die 10 Jahre halten werden bzw. man 10 Jahre damit mit akuellsten Spielen hinkommen wird. Das werden nur 8-Kerner schaffen, und genau aus dem Grund warte ich auf nen richtigen 8-Kerner. Weil dann hat man seine Ruhe und kann wirklich min. 5 Jahre vergehen lassen. Aber halt - 5 Jahre...? Wir wissen gar nicht, was in 5 Jahren ist...
 
Ja dann hast du 1 jahr nen "richtigen" achtkernen dann kommen schon wieder die neueren modelle mit doppelter leistung... erinnert mich an den alten 3000 venice^^

Wenn man immer nur wartet auf was besseres kannst lange warten...! Besonders auf 8 Kerne die wie anfangs beim quad mal überhaupt nix bringen^^ und bis sie was bringen sind die neueren billigeren und stromsparenderen modelle schneller.

Amen
 
deadohiosky schrieb:
Und zur Leistungsaufnahme (und ich schlage mich selber dafür, dass ich OBR erwähne)...

spotreba.png

Also wenn der Verbrauch eines 3 Modul auf 4,2 ghz ähnlich hoch ist ( eventuell 20 watt plus) und eine Leistung eines Phenom II x6 auf 4 ghz erreicht ( der dürfte mindestens 100-150 watt mehr verbrauchen, hoffe übertreibe hier nicht) sieht doch alles ganz anders aus, so wie ich vermutet hatte.
( nur so als Bsp http://www.xbitlabs.com/articles/cpu/display/amd-phenom-ii-x6-1055t-overclocking_9.html#sect0)

Somit spricht hier schon einiges für den 3 Modul BD gegenüber dem 1100T.
Nur muss man echt abwarten wie es mit dem Rendern aussieht.
6,86 bei 4ghz Phenom II x6
6,9 beim BD (4 oder 3 modulen ?) mit 4,2 ghz laut OBR
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Der Vergleich hinkt so dermaßen ;)

Das geht eher in die Richtung zwei Porsche zu kaufen, einer mit 600PS, der andere mit 620PS, dafür 3 oder 4x so teuer.

Für mich hinkt der Vergleich keineswegs, weil man mit einem Gulftown in bestimmten Bereichen mehr Arbeit in der selben Zeit schafft.
Dafür bringt er in anderen Einsatzgebieten, wie eben spielen, auch nur von A nach B. Aber dafür ist er, wie ein Kleintransporter auch, eben nicht gedacht. Man könnte auch schreiben das ein Gulftown der zum spielen gekauft wird, Perlen vor die Säue ist und sein Potential verschenkt. Natürlich gibt es welche die sich damit als was besseres hinstellen wollen, aber die sind für mich nicht relevant. Ich sehe nur die reine Leistung der CPU und wieviel ich mehr schaffe.

Und zu dem Vergleich: Wenn Porsche dann müsste man eher sagen das der Gulftown ein Porsche Cayenne ist und der andere ein Boxster... :rolleyes:

Denn es sind in den Bereichen die für meine Arbeit wichtig sind es rund 30% Unterschied zwischen den beiden CPU´s! Bei den Vorgänger CPU´s waren es sogar noch mehr, wenn man mal im Hinterkopf behält wann der Gulftown auf den Markt kam ;)
Was das in der Praxis für jemanden bedeutet für den (Rechen)Zeit = Geld ist, kannst du dir hoffentlich denken?

Edit: Back to Topic: Wann soll eigentlich ein Opteron auf Bulldozer Basis erscheinen?
 
Zuletzt bearbeitet:
Cytrox schrieb:
Du meinst defacto-Standards an die sich dann jeder hält? Die hab ich nämlich auch gemeint, und die sind es die uns die billigen Systeme ermöglichen.

Schwachsinn, welche "defacto-Standards" hat M$ denn eingeführt, die uns "die billiugen System ermöglichen"?


Cytrox schrieb:
Anders muss nicht schlecht sein, aber wenns mit einem Einlern-Aufwand verbunden ist, ist es völlig irrelevant ob gut oder schlecht. Und daran scheiterts bei vielen Open Source Projekten, die einfach am "Markt" vorbeientwickeln.

Windows macht es Computerneutlingen unnötig schwer und das ist das Problem...

Cytrox schrieb:
Im Desktop Bereich ist es aber eben Flexibilität die mehr zählt...

Wo ist denn Linux nicht flexibel?

Ralf T schrieb:
Mir passt es einfach nicht wie Intel immer die Schiene der Böse Firma gesteckt wird und AMD als Robin Hood Verein hochgelobt wird.

Und mir passt es nicht, wenn man 10 Jahre Geschichte leugnet! :freak:

Fischkopp schrieb:
Von der Betriebssicherheit ganz zu schweigen: 2 Systeme = eine Vervielfachung der möglichen Fehlerquellen!

Ich hoffe du hast das Sys auch redundant gebaut ;)
 
Ich hoffe du hast das Sys auch redundant gebaut

Jupp :)

+ ein komplettes Backup System das ich bei bedarf einfach gegen das andere austauschen kann!
So kann ich im Falle eines Hardwarefehlers trotzdem weiterarbeiten, muss nur ein paar Kabel umstecken!
Dazu wird das System auf einem Hardware Raid 5 betrieben und ständig Backups gemacht. Zum einen auf Server vor Ort, zum anderen auf einen abgesicherten Webserver!

Meine Arbeitsrechner sind auch komplett vom Internet getrennt!
 
@Fischkopp

Schwimm hier mal nicht in fremden Gewässern und hantier mit Begriffen, die du nicht verstehst.
Betriebssicherheit ist die Sicherheit mit der ein System (als gesamtes) nicht ausfallen darf.
Die wird durch zusätzliche Redundanzen verbessert und das ist bei einem Multisockel-Opteron-System der Fall (dank Virtualisierung ohne Ausfall des Gesamtsystems im Fehlerfall).
Ausserdem lässt sich dieses System auch doppelt aufbauen.
Dagegen betreibst du dein System ausserhalb der Spezifikationen, was der Betriebssicherheit keinesfalls zuträgt.
 
Lord Horu$ schrieb:
Facepalm :stock:
So langsam müsste das doch mal klar sein:
TDP != Verbrauch!
Sagt schon der Name:
Thermal Design Power.
TDP ist eine THERMISCHE Größe!

Dann 2. Punkt:
Die FX81xxer sind KEINE Quadcores!

3. Punkt:
Die TDP ist die maximale Verlustleistung, ergo 100% CPU-Auslastung. Das erreicht man nur mit Stresstests.

4. Punkt:
Intel und AMD berechnen die TDP jeweils anders.

5. Punkt:
TDP ist mittlerweile ein Marketingprodukt, ergo kann man drauf sch...


1. weiß ich besser als du. Die Energie, die der Kühler Abführt, muss nun mal elektrisch zugeführt werden (wär mir neu, dass ein Prozessor fossilen Brennstoff verarbeitet)
2. wenn man den Aussagen hier glauben darf, sinds keine Octacores, also sinds Quadcores.
3. Phenom und Phenom II haben ihre TDP im Realbetrieb gerne mal erreicht
4. Das mag sein, aber Fakt ist: Intels Prozzis seit der Core Architektur haben in keinem Test, den ich je gesehen habe, ihre TDP erreicht.
5. Was willst du mit der Zahl 125W groß vermarkten? Viel Power schluckt viel?

Vielleicht kommt dir, wenn du meinen Beitrag nochmals liest, in den Sinn dass ich mich ein klein wenig über die Aussagen der AMD Fanboys lustig mache? Denn mal ists ein Quadcore, weil 8 threads ja nicht 8 Kerne sind, dann ists ein 8-kerner, weil man ja 8 Integer-Einheiten hat, dann ist AMD ja sowieso im Nachteil weil man schlechtere Fertigungstechniken hat und die Compiler für Intel optimiert sind, danach kommt die Keule von wegen "so viel billiger und nix langsamer als der 980x", dann kommt die Aussage "Viel besser als gleich teure intels" (was spätestens mit den AMD Folien weiderlegt sein sollte, Preis 245$, Leistung unter 2600k), dann die das TDP nix aussagt (warum gibts dann überhaupt so eine Angabe?), dann wird dem 980x seine hohe Leistungsaufnahme angekreidet (braucht aber gleich viel wie die aktuelle Generation von AMD, die um den Faktor 2 langsamer ist), dann wird wieder behauptet Bulli hat nen Gewaltigen Vorteil durch die zwei integer-Einheiten pro Modul, weil das so toll ist, auf die Aussage dass er im Multithread Bench langsamer als ein vierkerner mit SMT ist kommt die Antwort "vier Module sind nicht acht Kerne" (vier Kerne mit SMT sind aber auch keine acht kerne), dann wird dementiert dass die Single-Thread Leistung nicht gut ist, auch wenn man sich in Benches nicht messen kann, dann ist auf den AMD-Folien der Speicher fürs 980x-System plötzlich um 100$ teurer (brauchen auf nem 6Kerner die Programme mehr Speicher?)...

Es ist eine einzige Wurst aus sinnlosen, Hirnrissigen Argumenten die da vorgebracht wird. Bulldozer wird vielleicht die Lücke zu SB schließen, aber garantiert nicht "besser" sein, und zwar in keiner Hinsicht: nicht billiger, nicht schneller, nicht sparsamer, nicht effizienter... und das ein Jahr später. Intel hat schon die nächste Generation in den Startlöchern, bis AMD endlich mal Bulli rausbringt. Und dann werden die Karten neu gemischt. Wenn man den Infos glauben darf reden wir beim FX-8150 von 1,6 Milliarden Transistoren (SB 1 Mrd.) und 320mm² (SB 216mm²). Damit wird der Chip in der Herstellung sauteuer, und vor allem Fehleranfällig. Die Erfahrung musste AMD ja bei Fusion auch schon machen, dass die Fehlerraten die Chips ruinieren.

mfg
 
Dagegen betreibst du dein System ausserhalb der Spezifikationen, was der Betriebssicherheit keinesfalls zuträgt.

Vielleicht habe ich auch falsch interpretiert was derGrimm geschrieben hat, nur fahre ich seit einigen Jahren sehr gut mit dem was ich tue.

Mir ist es, ehrlich gesagt, nicht wichtig was mit meiner Hardware (sprich CPUs, mainboards usw.) passiert, so lange meine Arbeit nicht verloren geht. Darum werden meine Daten auch doppelt und dreifach gesichert!
Die Hardware wird bei mir eh ständig ausgetauscht, da ich mich den Gegebenheiten anpassen und flexibel sein muss.

Dazu bin ich darauf angwiesen meine Hardware und besonders meine Daten, selbst verwalten zu müssen! Nachdem mal ein Angestellter, der für die Rechner in meinem Unternehmen zuständig war, die tolle Idee hatte Daten zu stehlen und bei Kazaa hochzuladen.

Das hat mich fast meine Firma und vor allem viel Geld gekostet, darum sind für mich sogenannte IT Profis ein rotes Tuch ;)

Man könnte auch sagen das ich lieber in meinen eigenen Gewässern schwimme und damit schwimme ich sehr gut ;)

Edit: Bzw. eigentlich müsste ich sagen "Schwamm", denn mittlerweile habe ich mein Unternehmen verkauft und mich zur Ruhe gesetzt. Aber da mein Beruf auch Hobby war/ist, mache ich fast so weiter wie zuvor, nur ohne Termindruck und co. :)

Edit: Hab mal editiert, weil das relevante da oben steht!

Nochmal Edit: Außerdem ist das ganze ziemlich OT würde ich sagen!
 
Zuletzt bearbeitet:
Fischkopp schrieb:
Nachdem mal ein Angestellter, der für die Rechner in meinem Unternehmen zuständig war, die tolle Idee hatte Daten zu stehlen und bei Kazaa hochzuladen.

Das war wohl ein wirklich hochbezahlter Profi oder? Ich mein wenn man Bedenkt wieviel ein durchschnittlicher IT-Mitarbeiter verdient, und das dann auf deine speziellen Bedürfnisse hochrechnet ... oder gelten für Mitarbeiter etwa andere Qualitäts-Standards als für Hardware bei dir?

Fischkopp schrieb:
Was das in der Praxis für jemanden bedeutet für den (Rechen)Zeit = Geld ist, kannst du dir hoffentlich denken?

Rechenzeit = Geld, aber du hast dann trozdem noch zeit dich um Hardware & co. selbst zu kümmern?

Aber ok, ich versteh schon worauf du hinaus willst. Der 980X/990X ist wohl der einfache Ausweg für Unternehmen die sich nicht näher mit professioneller Hardware beschäftigen wollen bzw. können. Ändert aber wenig daran dass ein Multi-Sockel-System oder mehrere PCs wohl die bessere Lösung wären als einfach nur den 4-fachen Preis für nur +30% Leistung hinzunehmen.

Fischkopp schrieb:
Edit: Back to Topic: Wann soll eigentlich ein Opteron auf Bulldozer Basis erscheinen?

Gibt's die nicht schon? Das sind doch die Interlagos Opterons oder?

derGrimm schrieb:
Schwachsinn, welche "defacto-Standards" hat M$ denn eingeführt, die uns "die billiugen System ermöglichen"?

Wer es eingeführt, oder wer es gar erfunden hat ist ein anderes Thema - mir geht's darum das MS es durchgesetzt hat. Wie die Welt vor Windows aussah hat dir schon Eisenfaust erklärt - bei manchen kommt da vielleicht Nostalgie auf, aber die Meisten dürften wohl froh sein dass es vorbei ist.
Die anderen Punkte hab ich dir schon in den anderen Posts schon beantwortet.
 
Cytrox schrieb:
Rechenzeit = Geld, aber du hast dann trozdem noch zeit dich um Hardware & co. selbst zu kümmern?

Aber ok, ich versteh schon worauf du hinaus willst. Der 980X/990X ist wohl der einfache Ausweg für Unternehmen die sich nicht näher mit professioneller Hardware beschäftigen wollen bzw. können. Ändert aber wenig daran dass ein Multi-Sockel-System oder mehrere PCs wohl die bessere Lösung wären als einfach nur den 4-fachen Preis für nur +30% Leistung hinzunehmen.
Das ist zu kurz gedacht. Zusätzliche PCs kosten ja wohl ebenfalls Geld, erst recht Multi-Sockel-Systeme. Und erzähl mal einem CPU-lastigen Mitarbeiter, dass er jetzt seine Tasks abwechselnd auf zwei PCs machen muss. Und die einzelnen Aufgaben sind dann immer noch langsamer. Wo zum Henker soll da der Vorteil sein?
 
Das war wohl ein wirklich hochbezahlter Profi oder? Ich mein wenn man Bedenkt wieviel ein durchschnittlicher IT-Mitarbeiter verdient, und das dann auf deine speziellen Bedürfnisse hochrechnet ... oder gelten für Mitarbeiter etwa andere Qualitäts-Standards als für Hardware bei dir?

Das ist noch immer OT ;)
Er hat den Upload nicht gemacht, um Geld damit zu verdienen. Was das ganze für mich dann noch Unverständlicher gemacht hat, denn er hätte, als intelligenter Mensch, damit rechnen müssen was er anrichtet!
"Nur so zum Spaß" ist kein besonders gutes Argument für einen Leak!
Verdient hat er jedenfalls genug, wie er selber (auch vor Gericht!) immer versicherte.

Ändert aber wenig daran dass ein Multi-Sockel-System oder mehrere PCs wohl die bessere Lösung wären als einfach nur den 4-fachen Preis für nur +30% Leistung hinzunehmen.

Es kommt auf die Arbeitsumgebung an oder?
Es gibt keine wirklich Mulitclientfähigen DAWs. Mit das einzige was aktuell möglich ist, ist Vienna Ensemble Pro, aber auch das lässt nur die Berechnung von Audioplugins auf anderen Hosts zu. Man nimmt aber, je nach Komplexität des Projektes, auch zusätzliche Fehlerquellen in Kauf.
Somit ist ein System das die Arbeit allein bewältigt im Endeffekt Kostengünstiger und vor allem Effektiver.
Ich habe deides durch ;)

Was die Pflege der Hardware angeht, so musste ich bisher nicht viel Zeit investieren! Wenn etwas läuft, dann läuft es und da stellte sich mir dann um so mehr die Frage, warum ich in den IT Menschen Geld und Vertrauen investiert habe! Wobei letzteres in dem Fall viel schwerer wog!

Was die Kosten in meinem Arbeitsbereich angeht kannst du dich aber gern mal informieren was z.b. ein Pro Tools HD System oder ein vernünftiges Mischpult kostet, da wirst du mir dann zustimmen das eine 1000 Euro CPU (oder mehrere davon) den Kohl nicht Fett macht und die Leistung aber unter Umständen reicht! Edit: Da vieles auch z.b. von Hardwarebeschleunigten Effekten übernommen werden kann. Das ändert aber nichts daran das der Rechner genug Hubraum haben muss, denn auch diese Erweiterungskarten belasten die CPU, wenn man in Echtzeit arbeiten will ;)

Edit: Ich sehe aber schon das die Diskussion zu nichts führen wird, erstens fehlt mir dazu das benötigte Fachwissen in Bezug auf Programmieren und hier bei Adam und Eva in Bezug auf DAW´s und ihre Eigenheiten einzugehen, würde zu weit gehen.
Dafür gibt es Fachforen usw.

Außerdem wird das ganze vermutlich eh im Aquarium landen ;)
 
Zuletzt bearbeitet:
@Cytrox
1. Sucht man sich sein System nach seinen Anforderungen aus, was bei dir nicht anscheinden nicht zutrifft.
2. Folding@Home ist für mich ein entscheidendes Kriterium, frag doch mal Gehacktesmacher oder Scully aus dem FAH Team warum die sich noch bevor sie überhaupt mit FAH angefangen haben ein SR2 mit zwei Xeons zugelegt haben(5000er Reihe), Scully hat noch 4x ne GTX 480 drin. ;)
3. Aber ja auch hier bei den Profis wirst du vereinzelt übertaktete Systeme finden, ist aber nicht die Regel und es kommt auch auf das Anwendungsszenario an.
4. Selbstverständlich kann man sich eine Multi Sockel CPU kaufen und sie im Single Betrieb nutzen, sogar auf einem 4p Board, Intel hat dafür jetzt die 1155er Xeon, vorher wurden halt 1366er Desktop CPUs geholt, da sie günstiger sind als die Xeons und man im Desktop/Workstation Betrieb durchaus auf ECC verzichten kann, es kommt aber auch hier auf die Anwendung an.
5.Die AMD Systeme inkl. des 1155 Systems das sie dann ersetzt hat waren zusammen teuerer als das 1366er System.
6. Würde ich die 1366er RIG noch bis 2013/14 behalten würden die Strompreise nicht so steigen, so werde ich das ganze durch ein 1155 System ersetzen, da ich schon alleine unter 24/7 Vollast(CPU/GPU) 200€ im Jahr einsparen würde. Sandy-E und Ivy sind uninteressant und Bulldozer.. ich sag mal so wenn das Teil auf dem Niveau eines 980/990x wäre und dabei noch weniger Saft ziehen würde, würde ich dafür auch ein 1000er hinlegen, ganz davon abgesehen das es dann AMD verlangen würde. Aber Bulli bewegt sich ja anscheinden nicht mal auf 2600er Niveau. Also wirds wohl erst 2013 was mit der xtreme edition, sofern Haswell ne TDP von 95w im Server/Workstation Bereich haben wird, ansonsten werde ich drauf verzichten. ;)
 
KainerM schrieb:
...dann ist AMD ja sowieso im Nachteil weil man schlechtere Fertigungstechniken hat und die Compiler für Intel optimiert sind, danach kommt die Keule von wegen "so viel billiger und nix langsamer als der 980x", dann kommt die Aussage "Viel besser als gleich teure intels" (was spätestens mit den AMD Folien weiderlegt sein sollte, Preis 245$, Leistung unter 2600k), dann die das TDP nix aussagt (warum gibts dann überhaupt so eine Angabe?), dann wird dem 980x seine hohe Leistungsaufnahme angekreidet (braucht aber gleich viel wie die aktuelle Generation von AMD, die um den Faktor 2 langsamer ist), dann wird wieder behauptet Bulli hat nen Gewaltigen Vorteil durch die zwei integer-Einheiten pro Modul, weil das so toll ist, auf die Aussage dass er im Multithread Bench langsamer als ein vierkerner mit SMT ist kommt die Antwort "vier Module sind nicht acht Kerne" (vier Kerne mit SMT sind aber auch keine acht kerne), dann wird dementiert dass die Single-Thread Leistung nicht gut ist, auch wenn man sich in Benches nicht messen kann, dann ist auf den AMD-Folien der Speicher fürs 980x-System plötzlich um 100$ teurer (brauchen auf nem 6Kerner die Programme mehr Speicher?)...

Es ist eine einzige Wurst aus sinnlosen, Hirnrissigen Argumenten die da vorgebracht wird. Bulldozer wird vielleicht die Lücke zu SB schließen, aber garantiert nicht "besser" sein, und zwar in keiner Hinsicht: nicht billiger, nicht schneller, nicht sparsamer, nicht effizienter... und das ein Jahr später. Intel hat schon die nächste Generation in den Startlöchern, bis AMD endlich mal Bulli rausbringt. Und dann werden die Karten neu gemischt. Wenn man den Infos glauben darf reden wir beim FX-8150 von 1,6 Milliarden Transistoren (SB 1 Mrd.) und 320mm² (SB 216mm²). Damit wird der Chip in der Herstellung sauteuer, und vor allem Fehleranfällig. Die Erfahrung musste AMD ja bei Fusion auch schon machen, dass die Fehlerraten die Chips ruinieren.

mfg
*schlechte Fertigungstechnik: ja, ist aber Schuld von AMD ;)
*teuer: ein 2600k kostet momentan $314, wenn der BD zwischen 2500 und 2600 liegt, ist er durchaus günstiger, zumal das ja alles noch keine Straßenpreise sind. IMHO wird er sich relativ schnell bei den $210 eines 2500k einpendeln
*TDP: gibt den maximalen Wärmeverlust an. Nicht mehr und nicht weniger. Da ich meinen Rechner nicht für prime kaufe ist mir die eigentlich total egal -.-
*Der Rest: ich kanns nur immer wieder sagen: wartets ab. Wenn der 8150 ein besseres P/L Verhältnis hat als der 2500k, wird er halt gekauft, wenn nicht dann nicht. Schwachsinnig sich hier über irgendwelche Details zu streiten, wenn in ein paar Tagen eh die ersten Benches und Messungen draußen sind....

Grüße, Mambo
 
@KainerM

Die TDP ist dafür da, dass man den Kühler dimensionieren kann und der wird nicht nach der Leistungsaufnahme im Regelfall, sondern im theoretischen Extremfall dimensioniert. Aktuell lässt sich der TDP Wert aber nichtmal mit Prime erreichen.
Wie der Verbrauch bei Bulli aussieht wird sich zeigen, aber er wird definitv erheblich verbessert worden sein, da Bulli exzessiv PowerGating nutzt.
Das habe ich auch bereits geschrieben.
 
noskill
Das Problem was die meisten haben, ist die "watt"-Angabe.
 
Zuletzt bearbeitet:
Mal ganz ehrlich......fast alles hier ist totaler Bullshit!

Da wird spekuliert, sich künstlich aufgeregt, Probleme mit irgendwas hochgespielt, Intel so toll, AMD so toll, Intel so scheisse, AMD so scheisse, TDP oh mein Gott wie heiss äh hoch äh oder was, 1.000.000 Cores und nix dahinter, DualChannel-TripleChannel-QuadChannel-Fu**Y**-Channel, 8 Cores sind 2 Cores NEIN 4 Cores ACH NEIN 6 Cores NOOB das sind doch 1,735 Cores, 1.000 Jahre Vorsprung was soll das, mein Rechner verbraucht 50.000 Watt HILFE, mein Rechner hat den längsten......ah Moment..... mein Rechner leuchtet am hellsten, neue Arschtektur oder wie das auch immer geschrieben wird....

Ist doch bei fast jeder neuen Hardware das gleiche Spiel, erst wird aus allen Rohren gejammert und gepriesen, dann bei Release will es keiner gewesen sein (ausser einer Hand voll HIER HIER - Schreier)!
Und bis jetzt ist es noch immer so gewesen das egal was, es hat mindestens halbwegs gepasst, wurde mehr oder weniger gekauft und entweder durch was Neues oder einen Refrsh ersetzt...

So, What's Up!?!
 
Wann kommen den die neuen AMD CPUs auf den Markt? Gibt es schon ein Bench vs. i5 2500k oder ähnlich?

Lohnt sich der kauf einen X6 1100T jetzt bei mir ?
 
Was Du willst von x4 auf x6 aufrüsten - wofür?
Ich denke man kann sehr deutlich sagen, dass die Vorteile eines x6 sehr überschaubar sind - mit anderen Worten, es wird kaum eine Anwendung geben, die dadurch schneller wird!

Und ja, Benches vom BD gibt es, aber die sind von AMD und somit ausgesucht! Und da sieht der BD sogar schlecht bei aus! Einfach mal am Anfang im Thread suchen!
 
Zurück
Oben