News AMD: „Vishera“-Flaggschiff FX-8350 mit 4 GHz Basistakt

Übrigens, Netburst wurde damals nicht in Massen-Notebooks reingebracht. Damals versuchte Intel mit Itanium sogar noch eine Extra Architektur in den Server-Markt zu bringen, sodass Notebook & Desktop & Server unterschiedliche Architekturen hatten.

und wie macht intel es heute? richtig: server: sandy, desktop: sandy, laptop: sandy ;) mittlerweile kommt der wechsel auf ivy, aber ivy-e dauert noch etwas daher das beispiel noch mit sandy
 
y33H@ schrieb:
...
Und genau Trinity zeigt, dass diese Leute unrecht hatten.

Naja.
Trinity schafft es gerade mal so, mit deutlich höheren Taktfrequenzen etwas leistungsfähiger zu sein, als die Llanos mit ihren nicht groß weiterentwickelten K10-Cores.

Darüber, wie sich eine weiterentwickelte K10-Architektur in zukünftigen APUs geschlagen hätte, kann man nur spekulieren.

Aber wie gesagt, mit Piledriver ist AMD jetzt gerade mal so wieder auf dem Niveau, wie K10, bzw. minimal darüber.

Und das Problem kann auch darin liegen, dass die K10-Optimierung viel aufweniger bei gleichzeitig kleineren Performance-Steigerungen als es mit Bulldozer ist.

Also bei Intel klappt es ja ganz gut, mit dem kontinuierlichen Weiterentwickeln. Zumindest hat man damit realitöve Sicherheit, dass der Nachfolger nicht plötzlich schlechter abschneidet, als der Vorgänger.

Aber aus AMDs Sicht mussten die wohl das Risiko eingehen, denn wie schon weiter oben geschrieben, ein ganz normales Wettrennen, wer seine etablierte Architektur besser und schneller weiterentwickelt, hätte AMD wohl ziemlich sicher nciht gewinnen können. Intel hat einfach mehr Mittel und hätte seinen Vorsprung mit der Zeit immer mehr ausgebaut.

Also ist AMD das Risiko mit Bulldozer eingegangen. Die nächsten Jahre werden zeigen, ob es sich gelohnt hat.

Bulldozer ist auf Effizienz hin entwickelt worden, was man im Notebook & Server-Markt sieht. Also Außensteher zu sagten, dass man den alten K10 viel leichter auf Effizienz entwickelt konnte als Bulldozer, ist wohl mehr als lächerlich. Denn genau diese Ingenieure wissen es wohl besser, wie leicht der K10 in Sachen effizienz noch zu entwickeln war.

Fähige Ingenieure, die es besser wissen müssten, waren auch für Netburst verantwortlich oder für Kepler Edit: meinte natürlich Fermi. Die machen auch Fehler. ;)
Es ist nunmal auch für uns Laien relative leicht, im Nachhinein zu sagen, dass etwas falsch gelaufen ist. Aber auch für Experten ist es verdammt schwer, das über Jahre im Vorraus einschätzen.

Was die Auslegung von Bulldozer aus Server und Notebook angeht:
Klar spielt bei beiden die Effizienz eine Rolle, aber ansonsten sind die Anforderungen extrem unterschiedlich. Typische Server-Workloads haben herzlich wenig mit denen auf einem normalen Consumer-PC oder Notebook gemeinsam.

Ich habe weiter oben schon einen interessanten Anandtech-Artikel verlinkt, der sich mit Bulldozer aus Server-Sicht beschäftigt und auch gut darstellt, was die Besonderheiten und Anforderungen in diesem Bereich sind.

Bulldozer ist offensichtlich fast ausschließlich mit Blick auf das Server-Segment entwickelt worden. (Aber auch da hat das Desing in seiner ersten Generation eingie Mängel.)

Die gleichzeitige Eignung für Consumer-Desktops und Notebooks wollte AMD wohl dadurch erreichen, dass man dadfür gegenüber den Server-Varianten einfach die Core/Modul-Anzahl reduziert und gleichzeitig die Taktfrequenzen in neue Rekordhöhen treibt.
So macht man aus einem "breiten" aber niedrig getakteten Server-Prozessor einen schmaleren Consumer-Prozessor mit hoher Single-Thread-Leistung.

Das Problem ist, dass diese Rechnung, zumindest für die erste Generation, nicht aufgegangen ist. Man hätte die FX wohl auf über 5GHz takten müssen, damit sie im High-End-Consumer-Bereich vollauf konkurrenzfähig sind.
Aber diese Taktbereiche hat man entweder aufgrund von Fertigungsproblemen oder Desingschwächen, oder einer Mischung aus Beidem, einfach nicht erreichen können.
 
Zuletzt bearbeitet:
Lübke schrieb:
und wie macht intel es heute? richtig: server: sandy, desktop: sandy, laptop: sandy ;) mittlerweile kommt der wechsel auf ivy, aber ivy-e dauert noch etwas daher das beispiel noch mit sandy
Und was ist mit Xeon Phi (Server) & Atom (Billig-Desktop & Notebook-Markt)?
Okay, Atom ist wegen Grafik zu schlecht für den Billig-Markt und kann nicht so verkauft werden, wie es Bobcat bei AMD schon wird.

Der Server-Markt ist mit ARM/ATOM/Bobcat und Phi/GPGPU momentan auch im starken wandel. Dazu unterscheiden sie Masse-Desktop-CPU viel mehr von Gamer-CPUs, als es früher der Fall war.

Herdware schrieb:
Fähige Ingenieure, die es besser wissen müssten, waren auch für Netburst verantwortlich oder für Kepler. Die machen auch Fehler. ;)
Das Architektur-Konzept war nicht die höchste Effizienz zu erreichen, sondern bei hohem Stromverbrauch eine noch viel höheren Performance zu erreichen.
Das ist ein ganz anderes Konzept, weil die Grundstromverbrauch bei Netburst um so viel höher war.

Und schon damals hatte Intel eine bessere Fertigung.
Nochmal
Bis heute konnte keiner zeigen, ob Bulldozer in der Effizienz überhaupt schlechter ist und die Fertigung den ganzen Vorsprung rausbring. Daher muss man vorsichtig sein, wenn man die Archtitektur bewertet.

Das Problem ist, dass diese Rechnung, zumindest für die erste Generation, nicht aufgegangen ist. Man hätte die FX wohl auf über 5GHz takten müssen, damit sie im High-End-Consumer-Bereich vollauf konkurrenzfähig sind.
Das eigentliche Problem ist, dass es nur im Desktop-Gamer-Markt nicht ganz so aufgegangen ist. In den anderen Bereichen machten sie ja schon in der ersten Generation leichte Fortschritte, aber das wollen viele nicht anerkennen und träumen dass der Weihnachtsmann mit 32nm-K10 das Wunder gebracht hätte.
Nur zeigte es ja, dass mit 32nm-K10 @ Llano nicht das Wunder gekommen ist.

Und wozu 5-10% Verbesserungen (siehe IPC steigerungen der K10, K10.5, K10.7 @ K10 (Ich betone IPC und nicht durch L3 (K10) und L3-vergrößerung (K10.5), wenn man jetzt in jährlich bei Bullbozer 10-15% bekommen kann?
Vorallem hat Bulldozer einen höheren Taktpotential und einen höheren Taktpotential bekommt man nicht gratis.
 
Zuletzt bearbeitet:
Was soll das Problem mit Kepler sein?
 
Ich meinte eigentlich Fermi, nicht Kepler. War grad etwas in Eile (deshalb auch die vielen Tippfehler ;) ).

Was 15%-Steigerung bei Bulldozer jedes Jahr angeht. Warten wir es erstmal ab.
Wenn man mit einer doch eher murksigen ersten Generation anfägt, kann man natürlich auch erstmal mit relativ wenig Aufwand relativ viel verbessern. Es ist ja reichlich Verbessertungpotential da. ;)

Aber andererseits schafft Intel auch bei kontinuierlicher Weiterentwicklung 10% und mehr. sogar bei "Ticks".

Ich denke immer noch, dass ein "Phenom III", also z.B. ein 8-Core-K10.X (oder K11 oder wie auch immer) auf 32nm mit diversen "Tweaks" mit viel weniger Entwicklungsaufwand und Risiko als Bulldozer ein deutlich besseres Ergebnis gebracht hätte.

Was das zukünftige Potenial angeht, werden wir wie gesagt noch sehen. Vishera kann schon einen gewissen Ausblick darauf geben.
 
Herdware schrieb:
Was 15%-Steigerung bei Bulldozer jedes Jahr angeht. Warten wir es erstmal ab.
Das sage ich doch ja über die Leute, die Bulldozer/Piledriver als Fail & schlecht und somit auch für die Jahre bezeichnen. Trotzdem wird es gemacht und von einigen schon als Fakt dargestellt.

Als Bulldozer rauskam galt es für viele Experten auch als Fakt, dass Bulldozer @ Trinity geringere CPU-Performance bekommt als Llano.

Aber andererseits schafft Intel auch bei kontinuierlicher Weiterentwicklung 10% und mehr. sogar bei "Ticks".
Nö, Laut CB erreichte Ive-Bridge @ Andwenungen und nur 7%.

Das ist ja das Problem, während große Steigerungen bei AMD immer in Frage gestellt werden, werden die Steigerungen bei Intel viel höhere eingeschätzt.

Ich denke immer noch, dass ein "Phenom III", also z.B. ein 8-Core-K10.X (oder K11 oder wie auch immer) auf 32nm mit diversen "Tweaks" mit viel weniger Entwicklungsaufwand und Risiko als Bulldozer ein deutlich besseres Ergebnis gebracht hätte.
Das ist deine Meinung.
Aber man darf nicht den Fehler machen, diese Meinung als Fakt zu sehen.
Ich glaube, dir ist nicht bewusst, dass man für einen FM4-FPU die K10-FPU trotzdem mehr als verdoppeln musste. Und die FPU ist einer der größten Core-Flächen, wenn nicht die Größte.

Ein paar Twecks sind sicher Nett.
Aber jährlich ein paar Tweaks könnte schon zu wenig gegen die Konkurenz sein, die mal größere und Riskante Schritte geht. Dieser Weg kann genauso der Falsche sein.
 
@Caanon

Aber doch nicht an erster Stelle. Ottonormals Desktop braucht im Gegensatz zum Notebook keine Batterie und ist im Gegesatz zum Server üblicherweise nicht 24/7 unter Volllast.

oh doch! bei mir steht das an aller erster stelle!
auch ottonormal bekommt seinen strom nicht geschenkt und gerade in deutschland ist strom sehr teuer. deshalb legen immer mehr menschen, mich eingeschlossen, wert auf sparsame und effiziente systeme.
auch wenn ottonormal keine laufzeiten von 24/7 hat, macht sich selbst ein kleiner jedoch unötiger strom-mehr-verbrauch, über das jahr gerechnet durchaus bemerkbar.
es ist überhaupt nicht einzusehen, sich ein verbrauchsmonster ins system zu knallen, das selbst im idle und für einfache aufgaben mehr strom verbraucht, als ein sparsamer prozessor.
das sollte auch amd endlich mal kapieren.
alle sprechen von green it und amd scheint es mit seinen verbrauchsmonstern zumindest im desktopbereich, völlig zu ignorieren.
auch das war für mich ein grund, bei meinem neuen system diesmal auf intel zu setzen.
nur wegen amd, schmeisse ich doch dem abzocker von stromanbieter nicht unötig geld in den rachen. von dem geld gehe ich lieber mit freunden etwas trinken oder mache jemanden den ich gut leiden kann, eine freude.

Gruß
gman
 
Zuletzt bearbeitet:
ganja_man schrieb:
oh doch! bei mir steht das an aller erster stelle!
Du hast anscheinend nicht begriffen, warum ich explizit über das Top-Modell gesprochen habe.
Zuviel Ganja geraucht? :D

Es darf für jemanden wie dich ja gerne an erster Stelle stehen und daher sollte es nun mal auch Desktop-CPUs mit wesentlich geringeren TDPs als 125W geben.
Die hat AMD in letzter Zeit tatsächlich vernachlässigt, das war mal anders, das sollten sie wieder ändern und im Laufe des Jahres ihre 95W-CPUs und 65W-APUs nicht mehr nur an OEMs gehen lassen. Aber da sie nun nicht mehr so mit der 32nm-Fertigung zu kämpfen haben, sollte das dieses Jahr auch möglich sein.


ganja_man schrieb:
es ist überhaupt nicht einzusehen, sich ein verbrauchsmonster ins system zu knallen, das selbst im idle und für einfache aufgaben mehr strom verbraucht, als ein sparsamer prozessor.
das sollte auch amd endlich mal kapieren.
alle sprechen von green it und amd scheint es mit seinen verbrauchsmonstern zumindest im desktopbereich, völlig zu ignorieren.
Im idle?!
Wenn man keine Ahnung hat... du kennst den Spruch sicherlich. ;)
AMD setzt seit Llano und Bulldozer wie Intel auf eine ganze Menge hochmodernes Power Gating etc., da haben sie wirklich hervorragend aufgeholt!

Aber AMD vorzuwerfen, dass sie bei der Leistung pro Watt unter Last nicht mit Intel mithalten können, ist sagen wir mal fast so absurd wie irgendeinem Armen aus der dritten Welt vorzuwerfen, dass er kein Abitur hat! Denk mal drüber nach.
 
Zuletzt bearbeitet:
Mal sone Rechnung, i7 2600K vs. 8150, Differenz im Verbrauch ca. 25W
1000W/h kostet ~0,25€.
Also müsste ich den PC 100 Stunden laufen lassen um 25 Cent rauszubekommen.
 
ganja_man schrieb:
hier mal eine beispielrechnung:

seit beginn der messung am 26.05.2011, habe ich bisher im vergleich zu 24/7 betrieb, schon 62,74e gespart! das macht also ganz schön was aus und mit einer dieser verbrauchsintensiven amd cpu`s, hätte ich eine viel geringere ersparnis.

Nehmen wir doch mal die Idle-Leistungsaufnahme aus dem CB-Test vom Bulldozer.
Intel Core i7-2600K, 4C/8T, 3,40 GHz, 32 nm, Turbo, SMT: 80 Watt
AMD FX-8150, 4M/8T, 3,60 GHz, 32 nm, Turbo: 85 Watt
Differenz sind 5 Watt. Wenn man beide Systeme genau 1 Jahr vor sich hin idlen läßt macht es ca 9,82€ unterschied.

Volllast
Intel Core i7-2600K, 4C/8T, 3,40 GHz, 32 nm, Turbo, SMT: 168 Watt
AMD FX-8150, 4M/8T, 3,60 GHz, 32 nm, Turbo: 228 Watt
Differenz sind 60 Watt. Wenn man beide Systeme genau 1 Jahr Voll auslastet macht es ca 117,79€ unterschied.

Bei deinem Nutzungsprofil (91 Betreibstage bei 1 Jahr und 41 Tage Gesamtzeit) braucht man, wenn die CPUs immer Volllast laufen würden, ca 4,5 Jahre bevor du soviel Strom gespart hast, dass du den 80€ teureren i7-2600K wieder drinne hast.
 
Hallo Matzegr

Nehmen wir doch mal die Idle-Leistungsaufnahme aus dem CB-Test vom Bulldozer.
Intel Core i7-2600K, 4C/8T, 3,40 GHz, 32 nm, Turbo, SMT: 80 Watt
AMD FX-8150, 4M/8T, 3,60 GHz, 32 nm, Turbo: 85 Watt

die zahlen sind für mich keinesfalls! nachvollziebar.
keine ahnung was die da noch für peripherie mitgeschleppt haben.
wahrscheinlich eine über monster-mega-gamer-karte am besten noch im sli mal zwei oder ähnlichen unsinn.

im idle verbrauch das system aus meiner signatur, gemessen mit energy-check 3000:
35watt!
also im idle sowie für einfache dinge wie surfen, musikhören usw. verbraucht mein system nicht mehr wie 35watt.
ich habe keine ahnung wie man da auf 80 watt kommen kann.
vielleicht haben die mit der sonnenuhr gemessen, kein plan.


@Caanon

Du hast anscheinend nicht begriffen, warum ich explizit über das Top-Modell gesprochen habe.

ich hatte deinen beitrag nur überflogen und dabei den eindruck, das du versucht zu suggerieren, das der energieverbauch moderner prozessoren für den desktop irrelevant sei.
dem wollte ich halt entschieden widersprechen.


Gruß
gman
 
Zuletzt bearbeitet:
@ ganja_man
also die 80 Watt beziehen sich auf dieses System:
https://www.computerbase.de/artikel/prozessoren/intel-ivy-bridge-test.1728/seite-27

Aber der Punkt der herausgerarbeitet werden solte ist, der 5 Watt Unterschied zwischen dem AMD System und dem Intel System. Ich persönlich finde eine niedrige Leistungsaufnahme auch wichtig. Allerdings ist zu beachten, dass je nach Szenario die CPU Leistungsaufnahme nicht wirklich ins Gewicht fällt.
Bsp. 1: 16 jähriger Junge kommt nach der Schule heim hockt sich an seinen Rechner zockt 4 Std., vor allesm GPU Last und der Rest ist surfen usw. sagen wir mal nochmal 8 Std. saugt über Nacht was weiß ich. Hier sind die 5 Watt egal.
Bsp. 2 Großer Konzern kauft 1000 PCs, ob Last oder nicht Last interessant.

Es gibt viele Szenarien. Bei mir ist es ein Entscheidungskriterium, aber nicht DAS Entscheidungskriterium es muss halt jeder abwägen.

PS: Bei mir war z.Bsp. ein Entscheidungskriterium den Underdog zu Unterstützen und ich habe nen 905e gekauft
 
Zuletzt bearbeitet:
@dichter-karl

Aber der Punkt der herausgerarbeitet werden solte ist, der 5 Watt Unterschied zwischen dem AMD System und dem Intel System.

das ist dann aber nur der unterschied im idle, der ja noch zu akzeptieren wäre. bei vollast dürfte die differenz ja größer sein.

ok, in dem genanten system, steckt wohl wie befürchtet eine monster graka und noch andere stromfresser drin. die neuen graka`s sollen doch aber angeblich so sparsam im idle sein, weshalb es mir trotzdem schwerfällt zu glauben, wie man damit nur nur im idle schon auf 80watt kommt...wenn es aber so ist, ist es eben so;)
das wäre für mich ein absolutes ko-kriterium. ein solches system, würde ich nicht haben wollen. das ist keinesfalls zeitgemäß meiner meinung nach.


Es gibt viele Szenarien. Bei mir ist es ein Entscheidungskriterium, aber nicht DAS Entscheidungskriterium es muss halt jeder abwägen.

dem kann ich mich nur anschließen. für mich ist es auch nur ein entscheidungskriterium, aber eben ein wichtiges. wieviel gewichtung man darauf legt, muß natürlich jeder für sich selbst entscheiden. wenn zwischen einem vergleichbaren amd und intelsystem wirklich nur ein unterschied von 5 watt besteht, sehe ich das auch eher als vernachlässigbar an.
danke für dein nettes feedback!

Gruß
gman

p.s.:
PS: Bei mir war z.Bsp. ein Entscheidungskriterium den Underdog zu Unterstützen und ich habe nen 905e gekauft

das war auch viel jahre lang, eines meiner entscheidungskriterien für amd und auch weil ich einfach nicht mehr leistung gebraucht habe. wie gesagt, ich bin amd durchaus gewogen.
 
Zuletzt bearbeitet:
ganja_man schrieb:
das ist dann aber nur der unterschied im idle, der ja noch zu akzeptieren wäre. bei vollast dürfte die differenz ja größer sein.

Wie gesagt, bei Volllast 60 Watt unterschied zwischen Intel i7-2600K und FX-8150.
Klingt viel, aber für den Normalbürger unerheblich. Wie oben schon geschrieben bei deinem Nutzungsprofil als Grundlage (Betriebszeit:91 Tage in 1 Jahr und 41 Tagen) würde man 4,5 Jahre brauchen um durch die Stromersparnis, den höheren Prozessorpreis wieder rein zubekommen, wenn der Prozessor während der Betriebszeit immer Volllast läuft.

Nehmen wir mal an eine CPU befindet sich zu 80% im Idle und zu 20 % unter Volllast, während des Betriebs, dann bräuchte ein Normalbürger rund 11 Jahre bevor sich ein i7-2600K gegenüber einem FX-8150 rentiert. Und das obwohl der FX-8150 unter Last desaströse 60Watt mehr braucht als der Intel. Davon mal abgesehen das ein Normalbürger keine der genannten CPUs benötigt. ;)
 
Zuletzt bearbeitet:
Wie gesagt, bei Volllast 60 Watt unterschied zwischen Intel i7-2600K und FX-8150.
Klingt viel, aber für den Normalbürger unerheblich.

klar, 60 watt unterschied bei vollast, hört sich im ersten moment erschreckend an.
es relativiert sich aber, da man mittlerweile weiss, das vollastsituationen eher die ausnahmen sind. die meiste zeit und das macht ca 80 bis 90% aus, langweilt sich das system im idle.
ich muß dir deshalb aus rationaler sicht zustimmen.

für mich war das übrigens der grund, mit spielen auf dem pc aufzuhören.
diese externen stromfresser von graka, die ständig mitlaufen und strom ziehen, obwohl man sie nur einen bruchteil der zeit braucht in der das system eingeschaltet ist, nämlich wenn man spielt, sind mir schon sehr lange ein dorn im auge.

nvidia hatte da mit hybrid-power ein brauchbares konzept, bei dem die dezdierte gpu bei nichtgebrauch abgeschaltet wurde und zwar so, das sie auch keinen strom mehr verbraucht hat. leider hat nvidia dieses viel versprechende konzept auf dem desktop sterben lassen.
bei notebooks ist es aber mittlerweile standard und nennt sich optimus.
Lucid Virtu MVP ist dagegen die reinste mogelpackung, weil es eben nicht die externe graka so abschalten kann, das sie keinen strom mehr verbraucht.
sollange es so etwas wie optimus aber nicht für desktops gibt, werde ich mir keine externe zocker-monsterkarte mehr einbauen.
tut aber nichts zur sache und ist o.t;)

Gruß
gman
 
Zuletzt bearbeitet:
Also bei Intel klappt es ja ganz gut, mit dem kontinuierlichen Weiterentwickeln. Zumindest hat man damit realitöve Sicherheit, dass der Nachfolger nicht plötzlich schlechter abschneidet, als der Vorgänger.

Naja ganz einfach, hätte AMD genug Geld könnten sie die Bulldozer Architektur nur im Server und Notebook Markt frei lassen, und im Desktop hätte man ein besseren Phenom verkauft, falls wie schon aylano erwähnt, mit 32nm non ULK überhaupt möglich gewesen wäre.
Da man aber für den Desktop die gleiche Maske hat wie im Server-Bereich, zeigt es, dass es durch gerechnet worden ist, ob sowas sinnvoll ist, und da AMD aber Gewinne machen konnte, und Schulden abarbeiten konnte, macht es scheinbar gar nicht soviel, keine weitere Maske auf dem Markt gebraucht zu haben, die eventuell in Games etwas schneller gewesen wäre.

Fähige Ingenieure, die es besser wissen müssten, waren auch für Netburst verantwortlich oder für Kepler Edit: meinte natürlich Fermi. Die machen auch Fehler
Netburst war im dem Sinn nicht dumm, nur ist die Taktik nicht so gut aufgegangen wie jetzt mit der Core-Architektur. Das Ziel war es von Anfang an, die Fertigung voran zu bringen, und es zu bewerkstelligen viele und billig Prozessoren zu produzieren und diese teuer zu verkaufen.
AMD hat ihnen nur ein Strich durch die Rechnung gemacht. Hätte damals Intel AMD nicht verboten 1 zu 1 die gleichen Prozessoren herzustellen, vllt hätten wir jz einen 10 ghz single core :O ^^

Fermi war vllt in Games nicht der Burner, zu mindestens was dem Verbrauch anging, schneller als die Konkurrenz war er, aber schau mal wie stark NV im professionellen gpgpu Bereich geworden ist. Jetzt gibt es Kepler dazu der zeigt, obwohl die erste Architektur komplett auf gpgpu ausgerichtet war, ist es möglich mit der neuen Generationen Gamer Herze schneller schlagen zu lassen, obwohl die erste Generation quasi Fehl am Platz war...

Es ist nunmal auch für uns Laien relative leicht, im Nachhinein zu sagen, dass etwas falsch gelaufen ist.
Wir sind nun mal die Kunden, die bezahlen, doch viele vergessen, dass wir selbst nur den Desktop Bereich, Notebook Bereich und wenige andere Bereiche privat abdecken.
Ein Gamer bewertet die Hardware eben nur nach seinen Anforderungen.

Das ist so, als ob jemand einen Krapfen isst und weil er es in seiner Heimat diesen gewohnt ist, sagt dieser, dass der Donat im Vergleich scheiße ist, dabei schlägt sich das andere Produkt in anderen Länder dann wieder wesentlich besser als in der Heimat.

AMD rechnet mit einen gewissen Absatz und produziert dementsprechend, wenn die gezielte Absatzmenge erreicht wurde, macht man Gewinn. Klar wenn man mehrere Produkte anbieten kann, kann man auch mehr absetzten, das bedeutet aber nicht gleich, dass man mehr Gewinn macht. AMD beliefert aber Desktop und Server mit dem gleichen Produkt, anders bei Intel wo man jeweils eine andere Maske verwendet.
Intel gibt zwar die Preise an, doch es ist nicht wirtschaftlich AMD zu unterbieten. Erstens weil er nicht nur AMDs Gewinne hinig macht, sondern auch seinen eigenen. So destruktiv sind nur Kinder am Spielplatz. Hier gibt es übrigens Spielregeln, auf die auch Intel zu gehorchen hat. Die beste Taktik die so große Firmen machen können, sind Barrieren aufzubauen. Manche sind halt illegal, wie bsp bestechen, andere legal, wie Patente ect.
AMDs Möglichkeiten konkurrenzfähig zu sein, ist es mit den Preis zu spielen, wenn man anfangs den Preis höher hat, hat man mehr Spielraum später die Preise fallen zu lassen.

Typische Server-Workloads haben herzlich wenig mit denen auf einem normalen Consumer-PC oder Notebook gemeinsam.
Notebook geht es um Mobilität und Mobilität ist quasi ein Zauberwort ^^ Denn für Freiheit ist man bereit gewisse Abzüge zu machen. Piledriver hat es geschafft bei der Akkulaufzeit mit Intel gleichzuziehen. Die CPU hat aber genug Performance für den 0815 User. Dafür aber auch eine stärkere igp die es erlaubt Games zu spielen.
Weiteres wird die igp vllt immer eine größere Rolle im mobilen Sektor bekommen. Denn nicht nur AMD ist bemüht mehr Performance durch die igp für den Alltag rauszuholen. Auch andere Firmen
http://www.telekom-presse.at/AMD_und_ARM_schliessen_sich_zur_HSA-Foundation_zusammen.id.20639.htm
 
Zuletzt bearbeitet:
zum thema zu hoher verbrauch im idle:

https://www.computerbase.de/artikel/prozessoren/amd-bulldozer-test.1581/seite-19

(ok, bei dem test hab ich nichts gefunden, ob so kleine feinheiten wie unterschiedlicher spreicher genutzt wurde - 1,5v vs 1,65v - womit ja auch ein paar watt gedreht werden können, aber so ein testverhalten möchte ich nicht unterstellen)

ja, amd ist langsamer und ja, amd verbraucht auch mehr. langsamer jedoch leider auch oft, weil programme für intel optimiert wurden (siehe cinebench). hier hat intel einfach die bessere unterstützung an die entwickler auf der softwareseite, da kann amd ohne kopieren der architektur einfach nie gleichziehen, wenn stark intellastige entwicklung statt fand. und wieso können sie es sich heute auch (auch, nicht allein) leisten? weil sie marktanteile gekauft haben bzw. den wettbewerb "erschwert" haben und die entschädigungszahlung an amd kann nun mal keine verloreren marktanteile reinholen ergo fehlen gelder, was so einen luxus wie entwicklung für software unterstützung erschwert.

leider ist diese ganze verbrauchsdiskusion langsam ad absurdum geführt. wieso beschweren sich nutzer über den verbrauch, wenn eine geforce 570 oder größer im rechner werkelt? die vergleiche sind alle entweder unter vollast oder unter idle getroffen worden. unter idle haben wir schon gesehen, dass es sich nichts nimmt. weiter unterstelle ich, dass jemand der eine geforce570 oder höher im rechner hat, zum großteil spiele spielen wird (außer natürlich den nutzern, die den ganzen tag winrar files und videos umwandeln, aber dennoch nicht auf die vorzüge einer highend grafikkarte verzichten müssen..ja ne, ist klar). bei spielen ist auch mehr oder weniger klar, dass die cpu fast nie 100% auslastung erreicht, also ist ein vergleich der höchst möglichen belastung in watt vollkommen praxisfern, grade weil halt nicht 24 stunden am tag videos umgewandelt werden oder rar files ge- oder entpackt werden. somit relativiert sich die schere einmal mehr. auf der anderen seite, sind auch rechner die meistens die 24/7 betriebsdauern haben (file-server ... was weiß ich), mit einem i5/phenomII oder größer schon meist vollkommen überdimensioniert.

wenn einer wegen 30 watt weint, dann sollte er weder eine dicke graka noch einen dicken 24zoll widescreen monitor haben, komischer weise sieht man solche kombinationen hier sehr selten in den signaturen...

die kritik an der leistung ist definitiv berechtigt, wenn auch in manchen bereichen einfach nicht einzuholen (stichwort software - unterstützung), jedoch ist die verbrauchsthematik in bezug auf die cpu buchstäblich die mücke, die zum elefanten gemacht wird.
 
Zuletzt bearbeitet:
selbst die gamer zocken eben nicht nur mit ihren systemen.
im vergleich zu der zeit in der das system eingeschaltet ist, mach spielen da nur einen kleinen bruchteil aus. hier sehe ich aber auch eher die grafikkarten in der kritik.

wenn einer wegen 30 watt weint, dann sollte er weder eine dicke graka noch einen dicken 24zoll widescreen monitor haben,

halb ack;) in bezug auf die dicke graka gebe ich dir recht, in bezug auf den 24" screen jedoch nicht. ein großer screen, bietet auch mit einer integrierten gpu einen mehrwert.

Gruß
gman
 
im idle verbrauch das system aus meiner signatur, gemessen mit energy-check 3000:
35watt!
Das ist doch egal was dein System verbraucht, es geht um das gleiche System, das heißt wenn du ein ähnlich genügsames Board und FX nimmst, hast du im idle eventuell eine Last von 40 watt ??? Wobei es bei AMD mehr am Board ankommt, ob man einen niedrigen oder hohen Idle Verbrauch hat.

das ist dann aber nur der unterschied im idle, der ja noch zu akzeptieren wäre. bei vollast dürfte die differenz ja größer sein.
Ja siehe Rechnung oben, 4,5 Jahre um den Verkaufswert von 80 euro zu erreichen.
Was in der Rechnung vergessen hat, wenn man 2 Rechner vergleicht, sollte man das andere System auch laufen lassen. Der Verbrauch den der andere Rechner verbraucht in den 4,5 Jahre, sollte man natürlich auch abziehen. Erst wenn dann der Break-Even-Point erreicht ist, kann man von einer Ersparnis reden. Wann wäre das :D in 8 Jahren :D ?

nvidia hatte da mit hybrid-power ein brauchbares konzept, bei dem die dezdierte gpu bei nichtgebrauch abgeschaltet wurde und zwar so, das sie auch keinen strom mehr verbraucht hat. leider hat nvidia dieses viel versprechende konzept auf dem desktop sterben lassen.
Die zuschaltbare Grafikkarte hat AMD in meinen Erinnerungen früher am Markt gehabt. Denn das HybridCF kam mit dem 780G chipsatz, der übrigens der erste war der es ermöglicht mit einer schwachen CPU auch HD Filme anzusehen
Übrigens heißt das bei AMD Enduro, und mich würde es nicht wundern, wenn man das bei AMD bald auch im Desktop Markt sehen wird.

für mich war das übrigens der grund, mit spielen auf dem pc aufzuhören.
diese externen stromfresser von graka, die ständig mitlaufen und strom ziehen, obwohl man sie nur einen bruchteil der zeit braucht in der das system eingeschaltet ist, nämlich wenn man spielt, sind mir schon sehr lange ein dorn im auge.
Viele belächelt man jetzt Hybrid Crossfire. Wenn aber Kaveri tatsächlich eine Performance einer 7750 auf den tisch zaubert, könnte man im Hybrid CF mit einer 7750 eine 6870 + CPU zaubern, wobei der Verbrauch des APU System dem einer 6870 entsprechen könnte.
Im Desktop würde sich die dgpu dann deaktivieren und die APU würde bis auf wenige Teile ebenfalls deaktivieren... Hoffe das Konzept geht nächstes Jahr auf.

http://wccftech.com/amds-kaveri-bas...s-steamroller-cores-compatibility-fm2-socket/
(Kleine News über Trinity Nachfolger und Erwähnung von Steamroller)
 
Zuletzt bearbeitet:
Zurück
Oben