• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Warum AMD Chip-Lieferant für PS4 und Xbox One wurde

Ich weiß garnicht, warum einige hier der Meinung zu sein scheinen, dass AMD mit den Konsolen kein Gel verdienen wird.
Schließlich haben sich die Konsolen der beiden Konkurenten bisher immer sehr gut verkauft, zum anderen ist es für AMD immer wichtig, ein FESTES Standbein mit sicheren Einkommen zu haben.
DAS werden sie mit den Konsolen sicherlich (Ich kann mir nicht vorstellen, dass AMD ohne Gewinn kalkuliert hat).
Was Nvidia betrifft, die haben doch soweit ich weiß gar keine X86er Lizenz.
Dürfen also so ohne weiteres gar keine APU bauen für die sie keine Lizenz haben.
Und ARM ist eben noch nicht soweit, auch wenn die Architektur ganz gute Steigerungsraten hat.
In der letzten Gamestar war ein Vergleich mit dem 3Dmark 2011 zwischen PC und ARM Technik.
In den meisten Fällen blieben dabei die APU Sieger, die ARM Architektur schafft es lediglich über ATOM und Brazos zu siegen, welche ja bekanntlich in vielen Netbooks ihren Dienst tun.
Ich wünsche AMD jedenfalls viel Erfolg und dass die nächste APU/CPU Generation wieder zu Intel aufschließen kann.
Einen wirklichen Intel-Monopolisten möchte von uns wohl niemand bezahlen, oder?
 
Kenneth Coldy schrieb:
wie steht es Deiner Meinung nach mit der HuMA Fähigkeit der PS4-APU?
hUMA steht für einen gemeinsamen RAM Pool. Was spricht dagegen, außer dass nichts bestätigt wurde? Wofür sonst die Entwicklung?
 
du bist echt lustig, aber mir ist es ja egal, bin nur froh das ich mehr ahnung als du habe^^
 
Yuuri schrieb:
hUMA steht für einen gemeinsamen RAM Pool. Was spricht dagegen, außer dass nichts bestätigt wurde? Wofür sonst die Entwicklung?

HUMA steht für weit mehr als nur gemeinsames RAM. Gemeinsamen kohärenten RAM hatten bereits Llano und SandyBridge ( http://www.heise.de/ct/artikel/Teile-mit-Eile-1194892.html )

HuMA soll den Speicher komplett vereinheitlichen. Also inklusive der Caches und inklusive der Verwaltung des virtuellen Speichers.

AMD hat sich diesem Ziel von Llano über Trinity bis Kaveri langsam genährt. AMD selbst hat erst neulich bei der Veröffentlichung der Serverpläne bekräftigt das Kaver die erste Sever-APU sein wird die HuMA bietet. Kabini-ServerAPUs gabs da aber schon. Der Sony Schlips hat nur betont das die Daten der GPU am Cache vorbei ins RAM geschrieben werden können. Das vereinfacht die Programmierung, hat aber mit HuMA-Tauglichkeit erstmal wenig bis nichts zu tun auch wenn das selbsternannte "Experten (die feige in der Deckung verschwinden wenn man sie auffordert mal ihre eigene Meinung zu äußern) nicht oder anders sehen mögen.

Natürlich bleibt die Möglichkeit das AMD hier nur wieder mit irgendwelchen nicht genannten Bezugsssystemen hantiert. In meinen Augen wahrscheinlicher ist aber das Kabini noch kein HuMA hat und Sony und MS es ebenfalls nicht eingefordert haben.

Ich habe nur die deutsche babelfisch-googelung des Artikels from freundlichen Japaner gesehen, vermute aber auch dort in einem Satz gelesen zu haben das er HuMA für die PS4 APU als unwahrscheinlich ansieht.

[Edit:] Inzwischen habe ich auch die englische Verbabelfischung.
" In addition, since the APU of PS4 is Garlic / Onion, I can also be seen that the PS4 is not provided with a functionally hUMA."

Natürlich ist hochspekulativ was damit gemeint war. Es wird sich hoffentlich bald eine kompetente Übersetzung finden.

Reicht das als Antwort?
 
Zuletzt bearbeitet:
Kenneth Coldy schrieb:
Wieso wird hier eigentlich immer "SoC" als Stichwort genannt obwohl die APU doch angeblich eine Southbridge hat?

Bitte halte dich fest ! Die letzte XBOX 360 MCM Chip ist bereits ein SoC :O AMD mit XBOX einen MCM Chip entwickelt, auf dem IBM Prozessor und GPU platz finden. Jeder der etwas über die XBOX 360 Konsole weiß, weiß dass bei der XBOX 360 der Chipsatz in der GPU integriert ist. Deshalb ist die XBOX 360 eben eine zwei und keine drei Chip Lösung.

Somit, glaubst du wirklich, dass Sony oder MS, ein AMD Design, Jaguar, nimmt das übrigens bei AMD als SoC verwendet wird, nehmen, es zurückentwickeln um dann am Ende wieder eine zwei Chip Lösung zu haben ? :freak:

AMD war sicherlich von Anfang an die erste Wahl für den nächsten Chip. Denn MS hat bereits mit NV, Intel zusammengeabeitet. Mit AMD hat man aber bei der XBOX 360 bereits zusammen ein SoC entwickelt.
Und bis jetzt waren Firmen mit AMDs Politik und Kundendienst immer zu frieden. Bei NV dagegen hat man öfters negatives gehört. Bei Intel ist es eher so, dass man da schon teils für den Namen zahlt. Eventuell hätte man dann auch bei Intel produzieren müssen, was sicherlich nicht billig geworden wäre.
Somit auch kein Wunder wieso Sony auch auf AMD mit X86 gesetzt hat. Deren Ziel war ja folgende. Mache die Konsole so einfach zum Programmieren, am besten einfacher als bei MS. Da ist es klar dass man fast auf die gleiche Hardware setzt. Hier hat aber Sony mit AMD weiter in eine Richtung HSA optimiert. Sonys APU kann die CPU und GPU direkt kommunizieren ohne dass man über den Speicher muss. Beider XBOX ONE oder WiiU muss man über den schnellen onDIE Cache kommunizieren.
Bei eine MCM Lösung Intel und NV wäre ebenso nur ein onDIE Cache möglich gewesen. Somit hätte Sony nicht den gewünschten Vorteil und deren Optimierungen (CPU direkter Zugriff auf die GPU) gehabt.
Bei den jetzigen Konsolen (PS3, alte XBOX360) war ja sogar der Nachteil dass man über einen Bus kommunizieren musste.

Meine Vermutung also. PS4 wird zwar eine bessere Grafik haben, doch glaube ich, dass die Grafik in Form einer bessere Physics und vllt KI sehen werden. Da Sony irgendwie das damalige Cell-Konzept verfolgt. Wieso sonst sind sie so bemüht, dass die CPU so einfach an GPU power (directcompute ect) kommt.

bitte Trennen zwischen Wunsch/Fiktion/MarketingGeblubber/Spekulation und Fakt. Einheitlicher Adressraum ist für die PS4 bestätigt, Huma aber nicht.
Nein, nur ein Bus der die Kommunikation zwischen dem Cache der CPU und GPU erlaubt :freak:
Somit, hUMA erlaubt das bei PC-Systemen. Da man bei Konsolen immer schon anders, optimaler programmieren kann, wäre dieser Bus oder der Cache eine Form von HSA.
Wer sagt mir dass der Programmierer in Zukunft auf den Konsolen Prozessoren nicht so programmiert, dass Daten nicht mehr umständlich von CPU zu GPU gebracht werden muss, sondern der Cache dazu verwendet wird um Daten zwischen CPU und GPU schnell möglichst zu verarbeiten. Aus den Ram holt man nur zusätzliche Daten.
Also, es ist ähnlich wie HSA nur dass man bei der PS4 APU durch den Bus eben den Zwischenschritt reduziert. Siehe es als Vorstufe von hUMA an, die wohl durch Optimierung gegenüber dem Desktop kaum einen Unterschied ausmacht. Somit es kann gut sein dass diverse Konsolen Games deshalb auf HSA APUs leicht portiert werden kann, weil diese APUs eben die direkte Kommunikation zwischen CPU und GPU ermöglicht. Das über den onDieCache kommunizieren war ja bis heute eigentlich nur auf Konsolen üblich. Jetzt wäre das auf Kaveri auch möglich. Denn da greift CPU und GPU nicht nur auf den selben Speicher sondern hat eben den eigentlich großen Vorteil auf die Cache und Register zuzugreifen was ja der Verarbeitung einen Vorteil bringt.
Intel hätte sich vermutlich das KnowHow für eine GPU-Integration kaufen können, zum Beispiel NV. Aber ebenso wie vorher AMD hätte Intel mehrere Jahre gebraucht. Vielleicht nicht ganz so lange, aber zu lange als das man bereits ein konkretes Angebot für den potentiellen Kunden hätte machen können. Und abgesehen davon wäre das kartellrechtlich spannend und finanziell kaum lohnend geworden.
Tja, sobald jemand sich nicht auskennt, muss er es kaufen ^^ Ist ja beim normalen Kunden auch so.
Intel hat bereits schon Lizenzen von NV (Wieso glaubst du hat Intel auf Einmal so eine igp ?). Was sollen sie da noch kaufen ? Sollen sie NV kaufen, was ja schon mal versucht wurde ?
Oder glaubst du NV sagt, hier nimm unsere Kepler Patente und reibe es AMD so richtig rein. Wir werden schon schauen wie wir in Zukunft um die Runden kommen ? Intel hätte auch bestimmt nicht lange gebraucht.
Deshalb versuchen sie ja schon seit wievielen Jahren eine ordentliche GPU (sry mein IGP, die Grafikkarten sind bis jetzt noch nicht gekommen) auf den Markt zu bringen und wie haben sie das geschafft ? Mit roher Gewalt die durch Fertigungstechnik schön gemacht wird.
Intel ist eine gute Firma, mit viel Power, kein Zweifel, aber auch Intel ist nicht unfehlbar. Sonst hätte AMD nicht so einige Standards eingeführt, wo Intel nach Jahren erst nachgezogen sind.

Sry, das sind Firmen und keine Kinder in einer Sandkistenburgschlacht.

PS: IBM PowerPC ist deshalb für einige nicht interessant, weil PowerPC Richtung effizienz nicht weiterentwickelt worden ist. Es gibt bei IBM echt starke Prozessoren, die sind aber sehr groß und haben auch hohen Verbrauch. Das passt also nur mit Umwegen in eine Konsole die klein sein soll.
Bei XBOX und Sony wird das OS zum Bsp am Prozessor abgewickelt. Diese beanspruchen dann ein paar Cores. (glaub bei sony sollen es 2 von 8 Cores sein die nur für das OS da sind, bei MS sogar 3 von 8)
Nimmt man die WiiU dessen IBM Prozessor ein selbst optimierter Power PC ist (IBM hat bestätigt, dass Nintendo da selbst stark Hand angelegt hat, somit handelt es sich nicht schlicht und einfach um ein IBM 750 wie oft nachgesagt wird), aber das OS trotzdem, aus Effizienzgründen auf ein ARM Prozessor laufen lässt. Da wird der IBM Prozessor also nur in Games dazu verwendet, das Game zu berechnen.

Somit die neuen Game-Titel, werden wohl noch teuerer werden als die bisherigen "block buster". Da erwarte ich mir jetzt schon Titel die einem den anderen ähneln weil das meiste Geld in Grafik gesteckt werden wird. Aber man wird es sehen. Am Anfang einer Konsolen-Generation kommt meist Gott sei Dank neuer Wind. Das ist der große Vorteil einer neuen Generation, neue Möglichkeiten. Somit ist x86 angeblich in erste Line deshalb gut, weil man da Entwicklungskosten spart. (Portierung). Weiteres somit nachvollziehbar, wieso Sony auf den gleichen Hersteller greift wie MS, um eine einfache Entwicklung auf deren Konsole zu garantieren.
Ein 60 Euro spiel muss sich im Schnitt 2mio mal verkaufen um Gewinn zu machen. Deshalb ist es wichtig die Games auf viele Konsolen zu portieren. Exklusiv Titel von dritt-Anbieter bei Nintendo ist momentan sehr rar, da die Konsole wohl nicht genug Kunden hat. Somit ist es ganz klar davon abhängig, wann eine Konsole genug Marktanteile hat, sodass die dritt-Hersteller für einen produzieren.
Nintendo ist somit mit deren IBM Prozessor alleine. Da aber diese Konsole den Fokus nicht nur auf Grafik setzt, wäre eine Portierung wohl billiger als viele denken, dafür müsste der Entwickler seine Kreativität im Gameplay und Steuerung stecken und Firmen wie EA fällt das scheinbar schwerer als Firmen wie Ubisoft. Somit wird es mich nicht wundern, wenn die Nintendo Konsolen ab einem gewissen Marktanteil dann einige Ports auf 720p bekommen wird. Oder gar exklusiv Titel, da eine Produktion wesentlich billiger ist.

Ich weiß garnicht, warum einige hier der Meinung zu sein scheinen, dass AMD mit den Konsolen kein Gel verdienen wird.
Weil es eben Leute gibt, die auf NVs PR immer wieder reinfallen. Denn das Gerücht kommt nur von denen, sonst gibt es ja keine anderen Meinung dazu. Die haben die Aussage gemacht, dass für NV kaum ein Gewinn drinnen gewesen wäre. Dabei sieht man, dass sie auch gar kein Produkt hatten, dass in Frage kommt. Eventuell hätte NV selbst einfach viel an Forschung investieren müssen, dann verstehe ich, dass man kaum Gewinn hätte machen können.
Weites hat NV auch öfters betont, man hat nur beschränkt Kapazitäten die man für NV Richtung SoC und Smartphones setzen möchte.
 
Zuletzt bearbeitet:
pipip schrieb:
Bitte halte dich fest ! Die letzte XBOX 360 MCM Chip ist bereits ein SoC :O

Bitte sei nicht überrascht - das Thema SoC hatten wir bereits abgehakt. Aber trotzdem schön das Du mal darüber reden konntest.


AMD mit XBOX einen MCM Chip entwickelt, auf dem IBM Prozessor und GPU platz finden. Jeder der etwas über die XBOX 360 Konsole weiß, weiß dass bei der XBOX 360 der Chipsatz in der GPU integriert ist.

Ach, ach was? Du bist ja wirklich eine Quelle der Weisheit. Ich kann gar nicht genug betonen wie dankbar ich dafür bin das Du mir nochmal erzählst was jeder weiß der etwas über die XBOX360 Konsole weiß.

Und bis jetzt waren Firmen mit AMDs Politik und Kundendienst immer zu frieden.

Bitte spoilere doch Deine Scherze, nun muss ich wieder den Kaffee vom Bildschirm wischen..

PS4 wird zwar eine bessere Grafik haben, doch glaube ich, dass die Grafik in Form bessere Physics und vllt KI sehen werden.

Bitte sag unbedingt bescheid wenn die deutsche Übersetzung dieser Buchstabensuppe vorliegt. Ich würde wahnsinnig gerne erfahren was Du uns sagen willst.

Nein, nur ein Bus der die Kommunikation zwischen dem Cache der CPU und GPU erlaubt :freak:

Quellenangabe bitte. Dieser Bus wurde bisher nirgends erwähnt, was ich gelesen habe war das der interne Bus der GPU erlaubt am Cache vorbei ins Ram zu schreiben. Das ist so ziemlich das Gegenteil von dem was Du beschreibst.

Intel hat bereits schon Lizenzen von NV (Wieso glaubst du hat Intel auf Einmal so eine igp ?). Was sollen sie da noch kaufen ?

Verwechselst Du Lizenz für eine Architektur mit Lizenz für eine Technik zu Implementierung bestimmter Funktionen? Ich kann mir nicht vorstellen das Intel die Baupläne von Kepler in der Schublade hat. Was ich meinte war das Intel um eine NextGen Konsole zu beliefern die GPU als IP hätte zukaufen und in ihr Design integrieren müssen. NV wäre dafür grundsätzlich - also wenn man den Preis als zweitrangig ansieht - ebenso in Frage gekommen wie AMD.
 
Kenneth Coldy
Es zeigt nur dass du kein Niveau hast zu diskutieren. Wo sind denn deine Quellen. Ich sehe dich nur fordern aber selber lieferst du hauptsächlich Vermutungen. Das zeigt ja dass du in erster Linie meine Argumentation lächerlich machen willst anstatt bei den wichtigen Punkten eine Gegenargumentation zu liefern.

Quellenangabe bitte. Dieser Bus wurde bisher nirgends erwähnt, was ich gelesen habe war das der interne Bus der GPU erlaubt am Cache vorbei ins Ram zu schreiben. Das ist so ziemlich das Gegenteil von dem was Du beschreibst.
Tja :
Bitte sei nicht überrascht - das Thema BUS hatten wir bereits abgehakt. Aber trotzdem schön das Du mal darüber reden konntest.
http://www.xbitlabs.com/news/multim...ecture_Details_It_Is_All_About_the_Speed.html
he graphics processor can write directly to system memory, bypassing its own L1 and L2 caches, which greatly simplifies data sync between graphics processor and central processor. Mr. Cerny claims that a special bus with around 20GB/s bandwidth is used for such direct reads and writes.

Blöd was, schau mal in vorherigen Post und du wirst den Link noch ein paar andere Male entdecken.
Du wirst merken dass ich die Themen bezüglich XBOX APU und dass die southbridge in der GPU ist auch schon Seiten vor deinen Fragen beantwortet habe. Dass du selbst davor kaum die Threads durchgelesen hast, solltest du nicht auf andere zeigen. Denn dann hättest du gesehen dass mein Post oben ein großteils eine Zusammenfassung meiner bisherigen Posts war.

Dein Problem ist, du hast keine Ahnung was hinter HSA steckt. Deshalb vestehst du auch nicht, wieso Sony HSA Foundation beigetreten ist und wieso sie sich auch für AMD entschieden haben.

Stattdessen kommst du mit, der Geld Argumentation.
Tja, vllt sollten die Welt noch mehr Geld in die Mars Mission stecken. Denn dann hätten wir heute schon eine Kolonie am Mars ! oder die Lösung für 10, 7, 5 nm Fertigungsarchitektur. Geld löst die Probleme der Welt, siehe Afrika !
Das ist bis jetzt die einige Argumentation die ich von dir gelesen habe. Wo sind jetzt deine Quellen, dass ein Intel CPU, NV GPU, + CHipsatz MCM Chip das ermöglicht was eine Sony APU kann ? Die hätten eben nur einen Chip wie die WiiU oder XBOX APU liefern können, die teurer in der Fertigung ist und von denen sie dann zwei statt von einer Firma Lizenzen brauchen und ebenso wohl einen onDieCache benötigt um die Aufgaben effizient abzuwickeln.
Hier im Forum wurde die Frage gestellt, wer weiß was Sony alles entwickeln wollte und wegen AMD dann nicht machen konnte, weil sie ja die einzigen SoC Anbieter wären. Scheinbar schaut es aber aus, dass sie mit AMDs SoC APU mehr verwirklichen können als mit einem MCM Chip. Außer Intel und NV arbeiten reibungslos mit Sony, wovon man mindestens von NV weiß, dass das in der Vergangenheit nie reibungslos war. Das wurde einfach von MS als auch von Sony schon öfters erwähnt.

Weiteres wurde schon klar besprochen, dass man von MS und Sony scheinbar gewisse TDP-Rahmen hatte, auf die die Hersteller wohl eingehen mussten.
Die XBOX One hat eine TDP von 100. Drei mal kannst du rechnen was für ein Prozessor Intel genutzt hätte, einen Intel Atom Prozessor, eventuell den SoC der gerade in Entwicklung ist.
NV hätte auch nur eine GPU verwenden können, die ca so potent wie eine 7770 ist aber wesentlich weniger gpgpu Power hat.


Verwechselst Du Lizenz für eine Architektur mit Lizenz für eine Technik zu Implementierung bestimmter Funktionen? Ich kann mir nicht vorstellen das Intel die Baupläne von Kepler in der Schublade hat.
https://www.computerbase.de/2013-06/nvidia-lizenziert-gpu-technologie-fuer-drittanbieter/

Somit klar Intel hätte von NV eine GPU integrieren können, doch dann hätte Intel die Forschung für die Konsolen ausgegeben ? Tja dann wäre es klar, Intel und NV hätten wahrscheinlich tatsächlich kaum Gewinn gemacht. Stattdessen dichtet man das jetzt AMD schon an.

Bitte sag unbedingt bescheid wenn die deutsche Übersetzung dieser Buchstabensuppe vorliegt. Ich würde wahnsinnig gerne erfahren was Du uns sagen willst.
he original AMD GCN architecture allows one source of graphics commands, and two sources of compute commands. For PS4, Sony worked with AMD to increase the limit to 64 sources of compute commands. If a game developer has some asynchronous compute you want to perform, he should put commands in one of these 64 queues, and then there are multiple levels of arbitration in the hardware to determine what runs, how it runs, and when it runs, alongside the graphics that's in the system. Sony believes that not only games, but also various middleware will use GPU computing, which is why requests from different software clients need to be properly blended and then properly prioritized.
Weiteres können eben besonders phsyics und KI davon profitieren.

//(Dein Signatur sagt übrigens alles über dich aus)
Aber hey wie war das ?
Kenneth Coldy schrieb:
(an Elkinator) Weil Du dich offensichtlich nicht für Technik sondern eher fürs Anmachen anderer die ihre Meinung äußern begeisterst?

Ach, ach was? Du bist ja wirklich eine Quelle der Weisheit. Ich kann gar nicht genug betonen wie dankbar ich dafür bin das Du mir nochmal erzählst was jeder weiß der etwas über die XBOX360 Konsole weiß.
Pass also auf dass du mit deinen Aussagen nicht gleich selber disqualifizierst.,

Und bis jetzt waren Firmen mit AMDs Politik und Kundendienst immer zu frieden.
http://www.amd.com/us/aboutamd/corp...petition/Pages/fair-and-open-competition.aspx
Weiters reden wir hier über kooperationen. Vllt war Kundendienst im dem Fall das falsche Wort, weil du dich da jetzt als Kunde angesprochen fühlst.
Tatsache ist, NV hat damals kaum Daten an Sony weitergegeben. Daten die zur Verbesserung des System von belangen waren, weil Fehlerberichte bei NV angeblich "geheim" sind.
Auch Microsoft hatte Schwierigkeiten mit NV. Die XBOX 1 war übrigens die erste Intel-NV Konsole.
Wenn ich die Links finde, wirst du sie von mir bekommen.
AMD war was das angeht eben immer wesentlich offener. Das sieht man auch daran, dass bei AMD Standards offen sind und NVs PhysicX oder Cuda geschlossen.
 
Zuletzt bearbeitet:
pipip schrieb:
Kenneth Coldy
Es zeigt nur dass du kein Niveau hast zu diskutieren.

In welchem Universum zeugt es von Niveau mir zu unterstellen das ich von der XBOX360 keine Ahnung hätte?

Wo sind denn deine Quellen.

Meine Quelle ist der Artikel zu dem die Diskussion hier gehört.

Ich sehe dich nur fordern aber selber lieferst du hauptsächlich Vermutungen.

Das war der Anfang. Ich habe meine Vermutung geäußert und begründet und wurde weil diese Vermutung einigen Dampfplaudertaschen nicht in den Kram passte dumm angemacht.

Nun hast DU aber eine Behauptung aufgestellt. Und wer behauptet muss beweisen, das ist ja hier kein Religionsunterricht.


Da steht genau das was ich schrieb. Die Daten werden am Cache vorbei ins Memory geschrieben. Du hast daraus einen Bus gemacht der die Kommunikation zwischen dem Cache der CPU und GPU erlaubt. Das ist aber m.E. etwas völlig anderes.

[...] Denn dann hättest du gesehen dass mein Post oben ein großteils eine Zusammenfassung meiner bisherigen Posts war.

Ach so. Das könntest Du vielleicht etwas deutlicher trennen beim nächsten Mal. (Palmzweig reich..)

Dein Problem ist, du hast keine Ahnung was hinter HSA steckt.

Aha. Und das ich keine Ahnung habe was HSA ist weißt Du daher weil ich darauf hingewiesen habe das HuMA mehr ist als eine GPU die am Cache der CPU vorbei ins RAM schreibt?

Deshalb vestehst du auch nicht, wieso Sony HSA Foundation beigetreten ist und wieso sie sich auch für AMD entschieden haben.

Und das ich nicht verstehe warum Sony der HSA Foundation beigetreten ist wieso sie sich für AMD entschieden habe weißt Du...woher? Was veranlaßt Dich zu dieser Unterstellung?

Stattdessen kommst du mit, der Geld Argumentation.

Ah, mir dämmert da was. Du hast offenbar gelesen "AMD ist Scheiße und HSA fürn Popo" wo ich lediglich geschrieben habe "Intel hätte mit entsprechend mehr Aufwand ein XBOX-Next- / PS4-SoC bauen können."

Das ist das typische Fanboy-Problem. Die Welt nur in Schwarz oder Weiß zu sehen und jede Schattierung auszublenden die einem nicht in den Betonschädel passt.


Das ist bis jetzt die einige Argumentation die ich von dir gelesen habe.

Nein, ist es nicht, siehe oben.

Wo sind jetzt deine Quellen, dass ein Intel CPU, NV GPU, + CHipsatz MCM Chip das ermöglicht was eine Sony APU kann ?

Derartige Quellen gibt es nicht denn das habe ich niemals behauptet. Lerne bitte lesen.

Die hätten eben nur einen Chip wie die WiiU oder XBOX APU liefern können, die teurer in der Fertigung ist und von denen sie dann zwei statt von einer Firma Lizenzen brauchen und ebenso wohl einen onDieCache benötigt um die Aufgaben effizient abzuwickeln.

Ganz genau. Und das dieser Chip teurer geworden wäre hat vermutlich eine erhebliche Rolle dabei gespielt das Sony AMD genommen hat - ebenso wie bei Microsofts Wahl.

Die XBOX One hat eine TDP von 100.

Hast Du mehr als einen Nebensatz in einem insgesamt recht anspruchslosen Artikel (engadged) dem diese TDP zu entnehmen ist?

Drei mal kannst du rechnen was für ein Prozessor Intel genutzt hätte

Das hat weniger mit Rechnen zu tun denn mit Spekulation und Raten. Ein gepimpter SandyBridge ULV mit vier Cores + HT @32nm wäre mein erster Gedanke. Bedenke das nicht die Cores sondern Cache und GPU den Löwenanteil der DieFläche beanspruchen.

Somit klar Intel hätte von NV eine GPU integrieren können, doch dann hätte Intel die Forschung für die Konsolen ausgegeben ? Tja dann wäre es klar, Intel und NV hätten wahrscheinlich tatsächlich kaum Gewinn gemacht.

Das meinte ich.

Stattdessen dichtet man das jetzt AMD schon an.

Das ging jetzt wieder an die Allgemeinheit, richtig?

//(Dein Signatur sagt übrigens alles über dich aus)

Diese völlig überflüssige Bemerkung wiederum sagt einiges darüber aus wes Geistes Kind Du bist.

Vllt war Kundendienst im dem Fall das falsche Wort, weil du dich da jetzt als Kunde angesprochen fühlst.

Bezüglich Deiner Wahnvorstellungen, insbesondere der aus einem Satz bereits zu wissen was mich anspricht, solltest Du unbedingt mal professionelle Hilfe suchen.

Aber zurück zu Deiner Aussage. Behauptest Du weiterhin das Firmen mit AMDs Politik und Kundendienst immer zu frieden waren? AMD hat also nicht mehrfach Firmen durch verspätete (Barcelona, Llano) und mangelhafte Produkte (TLB Bug im Opteron) sowie verspätete, fehlerhafte und mangelhafte Produktinfos verärgert?

Tatsache ist, NV hat damals kaum Daten an Sony weitergegeben. Daten die zur Verbesserung des System von belangen waren, weil Fehlerberichte bei NV angeblich "geheim" sind.
Auch Microsoft hatte Schwierigkeiten mit NV. Die XBOX 1 war übrigens die erste Intel-NV Konsole.

Tatsache ist das ich das nicht bezweifelt habe. Du hast aber nicht geschrieben das NV bei Sony und MS einiges an Porzellan zerbrochen hat sondern quasi behauptet AMD sei die Ballerina im Porzellanladen. Ok, bezogen rein auf die Konsolengeschäft mag das hin kommen, sonst wären nicht alle Drei hersteller bei AMD als Lieferant gelandet.


And now, for something completely different:
http://www.eurogamer.net/articles/digitalfoundry-xbox-one-memory-better-in-production-hardware

MS fängt an sich seine Specs schön zu rechnen. Da geht denen wohl der Arsch auf Grundeis. :-)
 
Zuletzt bearbeitet:
Bitte spoilere doch Deine Scherze, nun muss ich wieder den Kaffee vom Bildschirm wischen..
Das ist das typische Fanboy-Problem. Die Welt nur in Schwarz oder Weiß zu sehen und jede Schattierung auszublenden die einem nicht in den Betonschädel passt.
Das typische Problem hier im Forum ist, dass Leute schreiben, NV und Intel könnten ohne Problem so eine Lösung realisieren, aber gleichzeitig unterstellen AMD macht mit den APUs bei den Konsolen jetzt schon kein Gewinn.
Das ist und bleibt einfach ein verzerrtes Bild.

Ein gepimpter SandyBridge ULV mit vier Cores + HT @32nm wäre mein erster Gedanke
Dann vergleich mal die Größe eines SB core mit der größe eines kabini core. Wobei der Uncore wohl wichtiger für den Vergleich ist. Zuerst sollte man die Anwendung/Aufgabe hinterfragen, dann wüsste man ob ein SB überhaupt sinnvoll ist. So wie es aussieht, sollen Physics und KI sowieso von der GPU bewerkstelligt werden. Für was also eine so potente CPU ? Besonders wenn Kabini in Sache Effizienz dem IB zu vergleichen ist. Der Kabini ist sogar für eine niedrigen Verbrauch optimiert (low-power Design) und Intel bekommt die Effizienz gerade eben durch die Fertigung hin. Weiters dürfte es für AMD selbst nicht schwer gewesen sein die größere GPU zu integrieren da Kabini selbst mit Tools entworfen wurde, die AMD das designen von Custom Chips ohne viel Aufwand behilflich ist. Allein durch diese Tatsache dürfte AMD da nicht viel Aufwand gehabt haben und ein Grund dafür sein, wieso AMD eine eigene Abteilung gegründet hat die Custom Chips je nach Bedarf entwerfen.

Das nächste ist wieso nimmst SMT ? da ist ja sogar CMT wesentlich sinnvoller, da man die Performance gleichmäßig auf die Threads aufteilen kann.
Es hat ja auch einen Grund wieso manche Games durch SMT sogar ausgebremst werden.

Passend zu dem Thema.
http://www.golem.de/news/amds-custo...-nicht-will-bleiben-wir-still-1306-99804.html
Bis zum Tag der offiziellen Ankündigung hätten weder Sony noch Microsoft sicher gewusst, dass in der Konsole des jeweiligen Konkurrenten auch AMD-Technik steckt, sagte der Manager weiter. Dabei spielte er ganz offensichtlich die schon seit über einem Jahr kursierenden Gerüchte zu den Chips in den Konsolen herunter.

MD hat also nicht mehrfach Firmen durch verspätete (Barcelona, Llano) und mangelhafte Produkte (TLB Bug im Opteron) sowie verspätete, fehlerhafte und mangelhafte Produktinfos verärgert?
Ok, bezogen rein auf die Konsolengeschäft mag das hin kommen, sonst wären nicht alle Drei hersteller bei AMD als Lieferant gelandet.
Und hier geht es nun mal nicht um Server sondern um die Kooperation der Partner von Spielekonsolen . Und hier hat man meist negatives über NV gelesen, nicht aber über AMD, die scheinbar immer alles offen legen.

Sei mir nicht böse, ich will dich sicherlich nicht persönlich angreifen ! Aber MS und Sony hatten in der letzten Generation eben Probleme mit Überhitzung. Das ständige Austauschen von Konsolen auf Garantie war sicherlich nicht gerade günstig, wenn man bedenkt dass sie Konsolen selbst schon subventioniert worden sind.

Somit sind die Rahmenbedingungen von MS und Sony sicherlich einen Chip zu haben der viel Performance liefert und gewisse Temperatur Werte nicht überschreitet.
Da man soviel Grafikleistung wie möglich haben möchte, diese GPUs dann noch ordentlich gpgpu power haben, kann man den Fokus von der CPU (letzte Generation) auf die GPU richten. Die MS, Sony und Nintendo bewerben ja gpgpu stark.

Die Daten werden am Cache vorbei ins Memory geschrieben. Du hast daraus einen Bus gemacht der die Kommunikation zwischen dem Cache der CPU und GPU erlaubt. Das ist aber m.E. etwas völlig anderes.

Gut, dann kann die CPU eben über den Ram direkt in die CPU schreiben. Das ist dann quasi das, was die XBOX One über den onDIE Cache kann. Man erspart sich halt den Cache weil man stattdessen den Bus über die RAM verwendet.
Trotzdem ist dieser Bus dazu da, dass die CPU direkt mit der GPU kommunizieren kann.
Das ist das Prinzip des Heterogeneous Computing.

Ein Entwickler für die WiiU hat das übrigens gut beschrieben, wie man mit den großen Cache der XBOX One arbeiten müsste.
http://www.nintendolife.com/news/20...several_generations_ahead_of_current_consoles
You need to take advantage of the large shared memory of the Wii U, the huge and very fast EDRAM section and the big CPU caches in the cores. Especially the workings of the CPU caches are very important to master. Otherwise you can lose a magnitude of power for cache relevant parts of your code. In the end the Wii U specs fit perfectly together and make a very efficient console when used right.


Intel selbst arbeitet an einer Technik, wo man den L3 Cache nutzen kann, damit die IGP Aufgaben direkt an die CPU abgeben kann.
Auf die Frage hin, inwiefern sich Instant Access von AMDs Zero Copy unterscheide, stellt Richard klar, "hier bestehen in der Praxis nur wenig Unterschiede" und er betont erneut, "ich bin mir sicher, auch unsere Mitbewerber würden es begrüßen, wenn eine derartige Funktion Einzug in DirectX halten würde". Intel habe nur aus diesem Grund Instant Access als proprietäre Erweiterung konstruiert, denn im Prinzip seien sich beide Techniken sehr ähnlich.

Klar Intel wird sicherlich Richtung AMD gehen, aber bei AMD ist man einfach momentan wesentlich weiter.
Und die Verknüpfung von Intel CPU und NV GPU sicherlich kein leichtes oder gar schnelles Unterfangen.

Und selbst wenn die PS4 APU keine APU mit hUMA ist, könnte sie eben durch so ein Bus einen Kaveri dank besseren Optimierung durch die Programmierer zu Größtenteils simulieren.

Dass Intel im Desktop-High End effizienter ist, weiß auch ich. Hier geht es aber um SoC , um effiziente low-power designs und APU-Technologie im Form von HSA und nicht CPU+IGP wie es Intel momentan gegeben ist. Somit geht es hier genau um Bereiche wo AMD gut gegenüber der Konkurrenz steht. Besonders die Tatsache dass dessen IP überall fertigen lässt, je nach Bedarf. So kann AMD GF, TSMC anbieten.
Die WiiU GPU von AMD wird sogar bei Renesas Electronics gefertigt.
AMD hat seit ATI Kauf an "Fusion" gearbeitet und Intel soll in paar Jahren schaffen eine Intel CPU mit NV GPU so zu vereinen dass sie heterogeneous computing kann ? Besonders da man mit AVX und MIC in eine ganz andere Richtung forscht ?

//offtopic
@Thema Pro-PS4, Pro-XOne, Pro-WiiU
Ich behaupte mal knallhart. Viele die Core Gamer sind, kaufen sich Anfangs vllt eine von beiden Konsolen. Viele kaufen sich aber dann sogar die eine oder andere Konsole dazu.
Ich will gar nicht wissen, wieviele von diesen "coolen" Core Gamer eine Wii zuhause stehen haben.
Belegen kann ich das natürlich nicht. Aber ich sehe es mal so. Wenn 1-3 Games so geil sind, dass man diese spielen möchte, kauft man früher oder später das System, egal ob im ersten oder letzten Jahr die Konsole.
Bei der Aktion 100 Euro für eine XBOX 360 haben sicher genug zugegriffen, obwohl sie eventuell eine andere Konsole bereits haben.

Ich vertrete die Meinung, Games sind die Gründe wieso ich mir eine Konsole kaufe. Denn in erste Linie kaufe ich Games und keien Hardware-Specs.
Die XBOX ONe ist nur dann für mich uninteressiert, wenn MS diese als Werbefläche nutzen möchte und Tracking Cockies oder ähnliches verwendet.
Sobald diese aber offline läuft, gibt es keinen Grund wieso man eine XBOX ONE nicht kaufen sollte.
Außer man definiert ein gutes Spiel rein durch Performance/Grafik.

Übrigens eine Interessante Aussage von Reggie Fils-Aime über Prozessor-Power:
Reggie Fils-Aime
http://youtu.be/CrGIjmpE9xs?t=3m1s

Bezüglich Deiner Wahnvorstellungen, insbesondere der aus einem Satz bereits zu wissen was mich anspricht, solltest Du unbedingt mal professionelle Hilfe suchen.
Deine Reaktion zuvor
Bitte spoilere doch Deine Scherze, nun muss ich wieder den Kaffee vom Bildschirm wischen..
Also verdreh die Dinge bitte nicht. Bei so einer Aussage muss ich annehmen dass du dich als Kunde scheinbar angesprochen gefühlt hast. Außer du bist natürlich Kunde von Serverprodukten.
 
Zuletzt bearbeitet:
pipip schrieb:
Das typische Problem hier im Forum ist, dass Leute kommen sagen, NV und Intel könnten ohne Problem so eine Lösung realisieren, aber gleichzeitig Unterstellen AMD macht mit den APUs bei den Konsolen jetzt schon kein Gewinn.

Da die Unterstellung nicht von mir geäußert wurde kann ich Dir nur raten Dich nachhaltig beim Universum über diese ungeheure Frechheit zu beschweren.

Dann vergleich mal die Größe eines SB core mit der größe eines kabini core.

Schön zu sehen das Du außer den Stichworten nichts gelesen oder verstanden hast.

Das nächste ist wieso nimmst SMT ?

Ich nehme nicht, ich habe nicht das Problem eine passende CPU zu errechnen oder zu erraten. Ich habe lediglich das geäußert was mir dazu als erstes einfiel. Und ob ein physischer plus Core plus HT wirklich langsamer ist als zwei Jaguar Cores wäre sicher eine interessante Frage.

Sei mir nicht böse, ich will dich sicherlich nicht persönlich angreifen ! Aber MS und Sony hatten in der letzten Generation eben Probleme mit Überhitzung.

Du schreibst das so als würde es irgendwas belegen. Was denn?

Somit sind die Rahmenbedingungen von MS und Sony sicherlich einen Chip zu haben der nur effizient ist.

Falsche Schlußfolgerung. Aus Hitzeproblemen folgt die reduzierung der TDP, nicht die die Forderung nach Effizienz. Letztere gibt es unabhängig von der TDP in jedem Fall.

Da man soviel Grafikleistung wie möglich will, nimmt man nun mal eine große GPU

Ja, das erscheint logisch.

und dazu kommen kleinere Cores.

Ja, tut man. Aber nicht klein im Sinn von Fläche sondern klein im Sinn von Performance so wie die GPU nicht groß im Sinn von Fläche sondern groß im Sinn von Performance dimensioniert wird.

Da passt ein quadcore SB einfach nicht hin, außer man hätte dann eine kleinere GPU gewählt.

Deine (etwas seltsame) Logik.
 
Kenneth Coldy
Da die Unterstellung nicht von mir geäußert wurde kann ich Dir nur raten Dich nachhaltig beim Universum über diese ungeheure Frechheit zu beschweren.
Leider bist du auch eine Seifenblase des Universums.

Schön zu sehen das Du außer den Stichworten nichts gelesen oder verstanden hast.
Wobei der Uncore wohl wichtiger für den Vergleich ist
Schön dass du ständig alles aus den Kontext nimmst und die Dinge zurecht drehst.

Dazu kann ich dir aber noch ein schönes Bild zeigen.
Kabini_die_shot_labled.jpg

Bedenke das nicht die Cores sondern Cache und GPU den Löwenanteil der DieFläche beanspruchen.
DU siehst dass bei Kabini die GPU, oder Cache in Relation zur gesamten CPU steht.
Bei Sony APU werden sogar zwei Module arbeiten, wo die IGP fehlt, weil diese Module ja an der GPU gekoppelt sind.
Des weiteren stellt sich die Frage ob mal zwei Unified Video Decoder benötigt und was sonst noch gekürzt wird.
Der Cache steht übrigens im Verhältnis zu den CPU Cores und nimmt weniger Platz ein.

Ich nehme nicht, ich habe nicht das Problem eine passende CPU zu errechnen oder zu erraten.
=>
Ein gepimpter SandyBridge ULV mit vier Cores + HT @32nm wäre mein erster Gedanke. Bedenke das nicht die Cores sondern Cache und GPU den Löwenanteil der DieFläche beanspruchen.
Dann brauchen wir auch nicht mehr über eine passende Intel Variante diskutieren.

Nur
Drei mal kannst du rechnen was für ein Prozessor Intel genutzt hätte
hast du zitiert, geschrieben habe ich
Drei mal kannst du rechnen was für ein Prozessor Intel genutzt hätte, einen Intel Atom Prozessor, eventuell den SoC der gerade in Entwicklung ist.
Somit wieso ?
Das hat weniger mit Rechnen zu tun denn mit Spekulation und Raten. Ein gepimpter SandyBridge ULV mit vier Cores + HT @32nm wäre mein erster Gedanke. Bedenke das nicht die Cores sondern Cache und GPU den Löwenanteil der DieFläche beanspruchen.
Ich nehme nicht, ich habe nicht das Problem eine passende CPU zu errechnen oder zu erraten. Ich habe lediglich das geäußert was mir dazu als erstes einfiel. Und ob ein physischer plus Core plus HT wirklich langsamer ist als zwei Jaguar Cores wäre sicher eine interessante Frage.

Also was nun ? Ich habe selber einen Verdacht angegeben. Der Atom hat genauso eine low-power design wie die Jaguar-cores.

Falsche Schlußfolgerung. Aus Hitzeproblemen folgt die reduzierung der TDP, nicht die die Forderung nach Effizienz. Letztere gibt es unabhängig von der TDP in jedem Fall.
Tja, blöd, man sollte halt wissen dass eine Effizienz eben schon wichtig ist. Kabini steht ja gegenüber den ULV SB bereits gut da, weil man nicht nur in ähnlicher TDP-Klassifizierung ist, sondern weil die Architektur eben für diese Bereich 3,9-25 watt tdp gezielt optimiert worden ist. Somit Jaguar kann seine Performance optimal bei 1,6-2 Ghz rausholen. Und bei 2 Ghz quadcore hat es auch der IB i3 1,8 ghz mit 4 threads schon schwer. Der Verbrauch auf die Gesamtplattform ist ca das selbe.

SB ULV stattdessen ist aus einer Maske die für den Notebook Bereich optimiert ist. Klar die Fertigung packt das, dass man 17 watt tdp Varianten auf den Markt bringt. Weiteres ist ein SB einfach größer, nur die Frage ist
" steht die Relation mehr Performance auf weniger cores zu weniger Performance auf doppelt soviele Cores? "
Denn soviel ich gelesen habe, ist ein Jaguar core gerade mal 1/5 so groß wie ein IB core, hat aber ca die halbe IPC.

http://www.tomshardware.de/kabini-a4-5000-performance-Benchmarks,testberichte-241289-6.html
Ein Pentium B960 (2ghz, 35 watt tdp) kommt gegen ein A4 5000 (1,5 ghz, 15 watt tdp SoC) ins Hinterfeld kommt.

Ja, tut man. Aber nicht klein im Sinn von Fläche sondern klein im Sinn von Performance so wie die GPU nicht groß im Sinn von Fläche sondern groß im Sinn von Performance dimensioniert wird.
Tja falsch geraten.
die Cores sind deshalb ausgesucht worden, weil sie in der kleinen Flächen die höchste Effizienz haben und zur Aufgabe passen. Wie ich bereits erwähnt habe, liegt der Fokus in der Generation auf der GPU. Und ich bin schon gespannt wie die nächsten Generation der Games aussehen werden, wenn die meisten Games auf GPUs optimiert werden, sodass eine starke CPU (sinne von single Thread Performance) vllt gar nicht mehr von großer Bedeutung ist. Denn eines ist klar, dass wir bis jetzt von der starken Single Thread Performance profitieren können, liegt wohl an der jetzigen Generation und deren Fokus auf den Prozessor.

Auch bei der Performance der GPU darf man behaupten, eine hohe Effizienz steht in Relation zur FLäche. Denn AMD hat hier lange alleine gestanden wenn es um Performance/Watt geht. Die NV Karten sind zu teils bei den Frames besser, leider hat NV diese Karten aber so sehr beschnitten dass die gpgpu Power sogar unterhalb des Vorgängers stand. Zu mindestens was die 600 Serie angeht.
Also da die GPU dazu genutzt werden soll, Physics und KI auszulagern, ist wohl auch hier AMD die bessere Wahl.

Übrigens wieso kann ich behaupten dass die Effizienz in Relation zur Fläche steht ? Ganz einfach weil AMD eben auch VLIW5 integrieren hätte können. VLIW5 ist zwar etwas effizienter, benötigt aber wesentlich mehr Optimierungen.

Und ob ein physischer plus Core plus HT wirklich langsamer ist als zwei Jaguar Cores wäre sicher eine interessante Frage.
Tja wird schwer sein für den zweiten Thread eines Core mit SMT. Denn SMT kann im besten Fall 25% der Performance eines cores mit sich bringen.
Das CMT Modul eines Bulldozer FX zeigt sich gegenüber einem single Intel Core in multithread-Anwendung schon, dass man hier optimal mithalten kann.
Hier vergleichst du aber ein single core mit SMT mit einem quasi Dualcore Jaguar.

Aber egal, das was ich eigentlich aussagen wollte ist folgendes. Die Entwickler würden wohl SMT bei einer OoO Architektur verwenden. Das liegt einfach daran, bei CMT oder bei bisherigen multi-cores. kann man die Perforamance gleichmäßig verteilen.
Zum BSP ein CMT modul hat man im im optimalen Fall (siehe anandtech) 50% auf Thread A und B. Das heißt hier wird ein Modul tatsächlich wie auf einem Jaguar dualcore 50 zu 50 verteilt.
Jetzt schaut man sich ein SB Core mit SMT an. Das problem ist dass ca 75% auf einen Core, 25% aber maximal auf SMT ausgelagert werden kann.
Bei vielen Games die Multithread-Lastig sind, sieht man dass die Performance steigt, wenn man SMT deaktiviert. (siehe Crysis). Das leigt einfach daran, das SMT einfach ausbremst und die Performanc so nicht optimal verteilt werden kann.
Weiteres hättest du die Folge, dass man auf einem Jaguar 8 core, das OS einfacher je nach Bedarf verteilen könnte.
Das heißt bei Sony sind es glaub ich 2 für das OS und bei MS sogar 3 für das OS.

/Allgemeinheit.
Eines möchte ich noch klar stellen.
Ich bezweifle nicht, dass Intel oder NV eine Gegenlösung anbieten könnte. Klar ist aber, AMD hat zu richtigen zeit die richtige Entwicklung/Produkte gehabt. Deshalb konnten sie zu dem Zeitpunkt die Aufgabe einfach optimal erfüllen.
Trotzdem darf ich mich dazu äußern, dass die "Geld" Argumentation nicht immer ausspielbar ist.
Denn AMD hat den Zuschlag bekommen, obwohl sie verglichen zu Intel vllt gerade mal ein 1/5 an Resssourcen für Forschung zur Verfügung haben.
Es ist klar, dass NV und Intel ebenso irwann mit einem Gegenpart zu HSA antanzen werden. Mit NV Denver, Intels CPU+IGP Bemühungen + MIC zeigt ja dass hier stark entwickelt wird. Die frage ist nur wer setzt sich durch ?
Der letzte Meilenstein war ja AMD mit 64 Bit. Mal sehen ob das mit HSA wieder gelingt. Intel könnte das sicherlich integrieren.


Deine (etwas seltsame) Logik.
Nein, weil wenn Sony und MS zwei Chips haben, die ca die gleiche Performance haben, nehmen sie den, der kleiner und günstiger ist.
Im Sinne von Superposition, müsste man bei einem Chip, der eine CPU hat, der mehr Abwärme abgibt auch eine GPU nehmen die das innerhalb eines TDP Rahmen ausgleicht.
Aber ja vllt ist das eine seltsame Logik.
 
Also wenn ich das richtig sehe

- meine Argumentation bezüglich der Zweifel an der HuMA-Fähigkeit der APU wurden akzeptiert nachdem klar wurde das ein Zugriff am Cache vorbei ins Memory was anderes ist als der direkte Zugriff von Cache zu Cache
- dass Intel oder NV eine Gegenlösung anbieten könnte wird ebenfalls nicht mehr bezweifelt. Der Lynchmob kann also wieder nach Hause gehen

Das weitere Geplänkel zu Die Größen, Effizenphantasien und Deiner esoterischen Behauptungen zu wissen was AMD zu ihrer Entscheidung geführt hat - das sehe ich als Rückzugsgefecht ohne jeden Informationsgehalt an. Kannst Du auch einer Parkuhr Deiner Wahl erzählen..
 
Zuletzt bearbeitet:
Kenneth Coldy schrieb:
- dass Intel oder NV eine Gegenlösung anbieten könnte wird ebenfalls nicht mehr bezweifelt. Der Lynchmob kann also wieder nach Hause gehen
NV ohne x86 Lizenz kann erstmal allein nicht viel. Intel könnte zwar entwickeln, Geld haben sie, manpower könnten sie auch einkaufen, Erfahrung aber nicht, demnach brauchen sie weiterhin Zeit - die sie nicht haben.

AMD hat für beide die Zuschläge bekommen, ganz offenbar weil sie die richtigen Produkte, sowohl was Leistung als auch Preis, und entsprechende Flexibilität angeboten haben. Aus die Maus. AMD verdient daran mehr als Intel oder nvidia, selbst wenn es nur 1€ pro chip wäre, denn in beiden Konsolen ist keine nvidia oder Intel Technik...

Da kann man noch soviel rumlabern, Sony und Microsoft haben sich entschieden und haben weitaus mehr Kompetenz als ein paar Forenklugscheißer...

Kannst Du auch einer Parkuhr Deiner Wahl erzählen..
Solche Großkotzsprüche kannst du dir stecken... :rolleyes:
 
Kenneth Coldy
Erstens, dass Sony hUMA unterstützt habe ich anfangs auch angenommen. Doch war ich nie ein Vertreter, die PS4 APU unterstützt hUMA. Also gilt dein Rat an mich auch für dich. Lege mir nicht Worte in den Mund.
Das Intel eine Gegenlösung anbieten könne habe ich nicht angezweifelt. Was ich anzweifle ist, dass sie nicht von heut auf morgen Weg machen können, sonst würden die HSW Prozessoren jetzt anders aussehen.

Wenn du Bestätigung und "Gewinn"-Gefühle brauchst bitte.
Das einzige was sich hier im Forum bestätigt hat ist die Tatsache, dass du nicht gewillt bist zu diskutieren, denn dann hättest du es nicht nötig andere zu beleidigen oder die Worte im Mund zu verdrehen.

Übrigens bleibe ich bei meinem Stand, dass HSA-Fähigkeiten gegeben sind, die bei Intel eben noch nicht möglich sind. Zu mindestens ist da nichts offizell bekannt. Ob hUMA vorhanden ist durch den Bus der PS4 oder der onDieCache auf der Xbox One mehr oder weniger egal, weil man auf den Konsolen gegenüber sowieso richtung HSA optimieren/programmieren kann was im Desktop ja nur bedingt möglich ist. Deshlab versucht ja AMD durch ein HSA Programm und durch ein hUMA Barrieren für Programmierer zu entfernen.
Das gute an Konsolen ist, die verwendeten Chips und hier sind AMD chips müssen nicht auf Intel Compiler zurückgreifen sondern werden Hardware-nahe optimiert/programmiert.

Weiteres, habe ich schon gesagt, für eine Intel NV Lösnung hätte man Richtung MCM Chip wie bei der WiiU gehen müssen. Das wäre sicherlich nicht billiger gekommen.
Da auch damals ein Celeron bei der XBOX 1 verwendet worden und war tortzdem die teuerste Konsole
Inflationsbereinigte-Konsolen-Startpreise-1372682844-0-11.jpg

http://scr.wfcdn.de/8843/Inflationsbereinigte-Konsolen-Startpreise-1372682844-0-11.jpg

Hätte man nämlich eine stärkere CPU gesucht, hätte man genauso ein piledriver/steamroller core nehmen können. Der wäre durch CMT nämlich optional gewesen weil man eben die threads optimal verteilen und so auch das potential von Bulldozer/piledriver/steamroller Cores ausschöpfen könnte
Ich bleib also meiner Meinung treu, wenn dann wäre es bei Intel der neue Atom geworden. Aber man muss meine Meinung auch nicht unterstützen.
//Weiters darf man sich mal die Frage stellen, wieso die XBOX 360 am Ende einen SoC mit Hilfe von AMD entwicklet wurde, bei der PS3 eine solche Kompination nie passiert ist. Aber auch hier könnte man nur spekulieren.

Das weitere Geplänkel zu Die Größen, Effizenphantasien und Deiner esoterischen Behauptungen zu wissen was AMD zu ihrer Entscheidung geführt hat
Tja, AMD ist es aber geworden. NV hat gesagt es ist zu teuer und Intel gab es kein Statement.
Spekulationen hin oder her, das ist Tatsache. Es steht übrigens jedem frei Vermutungen zu äußern. Ebenso die Vermutung Intel könnte wenn sie wollten.

Kannst Du auch einer Parkuhr Deiner Wahl erzählen..
Tja, wahrscheinlich sinnvoller als hier im Forum mit einigen Leuten zu diskutieren.
 
Zuletzt bearbeitet:
PiPaPa schrieb:
NV ohne x86 Lizenz kann erstmal allein nicht viel. Intel könnte zwar entwickeln, Geld haben sie, manpower könnten sie auch einkaufen, Erfahrung aber nicht, demnach brauchen sie weiterhin Zeit

Und wieder sind wir uns einig. Ist doch schön das Du nach zig Runden beschimpfungen und unterstellungen das gleiche schreibst wie ich von Anfang an.

- die sie nicht haben.

Sie hätten 6 Jahre gehabt. Hätte Hätte Fahrradkette...

AMD hat für beide die Zuschläge bekommen, ganz offenbar weil sie die richtigen Produkte, sowohl was Leistung als auch Preis, und entsprechende Flexibilität angeboten haben. Aus die Maus.

Erneut eine Nacherzählung dessen was ich zu Anfang bereits schrieb. Schön das Du das nochmal wiederholst und nun endlich nicht behauptest das AMD unter seine Herstellungskosten gehen musste um ins Geschäft zu kommen.

Da kann man noch soviel rumlabern, Sony und Microsoft haben sich entschieden und haben weitaus mehr Kompetenz als ein paar Forenklugscheißer...

Einsicht ist der erste Weg zur Besserung. Ich sehe noch Hoffnung für Dich.
 
Zurück
Oben