• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Neues Dev Kit zur PlayStation 4 „Orbis“ basiert auf AMDs A10-APU

[F]L4SH schrieb:
8-16GB Speicher bedeutet doch nicht etwa, dass es RAM ist?
Wenn doch: dem Himmel sei dank! Hatte schon wieder gefürchtet, dass da kaum was rein kommt. In 8GB passt ordentlich was rein. Dann gibt es vielleicht endlich mal echte Open World spiele. Und am PC sind dann 12-16GB endlich mal gerechtfertigt.
16GB wäre natürlich der Oberhammer.

Hoffe nur zur der A10 APU kommt noch eine vernünftige GPU dazu. Eine Art HD7800 wäre gut. Fürchte aber fast, dass es weniger werden wird :(

Das hab ich auch gedacht, hoffentlich sparen sie nicht am RAM. 8-16gb wär echt geil
 
@dlux

Echt... die Leistung eines Ivy Bridge mit 40 bis 60 Kernen? (Unter der unrealistischen Annahme, dass die Leistung perfekt mit der Kernanzahl skaliert) Das Ding hätte dann mehr Leistung als der Xeon Phi! Genial! :freak:

An deinem Vergleich stimmt etwas nicht.

Und man kann wirklich viel aus der Hardware heraus holen, wenn man eine feste Konfiguration hat - aber nicht mehr, als theoretisch möglich ist. ;-)
 
Zuletzt bearbeitet:
Ein ziemlich genialer Schachzug von AMD, da wohl alle zukünftigen Konsolenspiele auf die APU optimiert werden und man so erwarten kann, dass AMD auch im PC-Markt in Zukunft die Lösung für Gamingrechner sein wird.

Bisher war ich nicht sehr begeistert vom AMD-Management, aber falls sich diese Prognose bewahreiten sollte, hätte sich das Unternehmen einiges an Entwicklungskosten gespart, da durch die Sicherung des Konsolenmarktes nahezu alle relevanten Engines wohl an AMD's Architektur angepasst werden anstelle der umgekehrten, heutigen Situation. Aber dies gilt nicht nur für die Hardware: Treiberupdates von Grafikkarten würden überflüssig (ausser im Falle von neuen Betriebssystemen oder einer neuen Generation), da die jeweilgen Spiele schon auf den "Standard-Treiber" hin optimiert sind.

Zudem würden wohl nahezu alle Spiele mit einer günstigen APU von AMD Spielbar sein, wohingegen Intel und Nvidia die unoptimierte Hardware entweder durch eine hohe Anzahl Rechenheiten oder durch viel Arbeit in die Treiberoptimierung ausgleichen müsste.
 
calluna schrieb:
@dlux

Echt... die Leistung eines Ivy Bridge mit 40 bis 60 Kernen? (Unter der unrealistischen Annahme, dass die Leistung perfekt mit der Kernanzahl skaliert) Das Ding hätte dann mehr Leistung als der Xeon Phi! Genial! :freak:
Jo. Die theoretische Rechenleistung von Trinity ist etwa 10 mal höher als bei Ivy Bridge: Stichpunkt GPGPU und HSA. :D

Übrigens: Xeon Phi (Larrabee) ist doch Schrott. :) Die HD7970 wischt mit Xeon Phi den Boden auf. ^^
 
Was sich die Leute vorstellen, am Anfang die ersten paar jahre werden spiele so aussehen wie high auf dem computer und nicht ultra.
 
Das liegt an den wechselnden Devkits.

Die Entwickler können sich darauf nicht voll und ganz verlassen, wählen dann lieber den konservativen Weg und die Spiele im ersten Jahr sehen dann meistens deutlich schlechter aus als die Spiele die von Anfang an auf dem finalen Devkit entstehen.

Das war schon immer so und wird sich auch mit der Next-Gen nicht ändern. Die Grafik die wir auf der E3 2013 zu sehen bekommen wird nicht die maximal Leistungsfähigkeit der neuen Konsolen darstellen.
 
Neben der Leistung wäre für mich zumindest auch das Drumherum wichtig:
Verbrauch, Abwärme etc. Wenn das Ding nachher zwar die Leistung bringt, aber da wieder ein 250W-schluckender Heizwürfel mit Lüftern wie Staubsaugern steht, ist das auch nicht mehr Zeitgemäß.

Ich hatte für etwa ein halbes Jahr eine PS3 ( nicht slim ) und hab die damals mit einer Wärmebildkamera vermessen. Ein Heizkörper war ein Dreck dagegen.
 
pipip schrieb:
Was mich noch immer sehr irritiert. Ist BF3 nun für den PC oder für die Konsole optimiert worden ?
Anfangs hieß es, BF3 ist einer der wenigen Games seit langem die für den Desktop-Rechner optimiert worden sind und dann hab ich gelesen man hat sich wieder Richtung Konsole geschwenkt ect. Ohne das konkret beantworten zu können, wie sehr kann ich BF3 als Bsp nehmen ?

Uncharted ist Bsp (soviel ich weiß) ein Game das für die Konsole ausgelegt worden ist.

Alle Spiele die für PC und Konsole rauskommen sind Konsolenspiele. Die Ports sind manchmal ~ 1:1 und manchmal kriegt man eben aufm pc bissl bessere Features. Aber eig seit Jahren werden alle Spiele mit Konsolen im Hinterkopf gemacht.
 
@hardwarekäufer:

Eine HD 7970M hat eine TDP von 100W, allerdings werden da noch 2GB GDDR5 RAM und ein 256Bit Speicherinterface mit einberechnet, die einzelne GPU an sich wird weniger verbrauchen.

Ein Bobcat hat in der maximalen Ausbaustufe eine 18W TDP, der Nachfolger Kabini in 28nm wird da sicher noch ein wenig einsparen können.

Geht man jetzt von einer stark aufgepumpten Kabini-APU aus, dessen iGP rein auf GPGPU optimiert ist und dessen überarbeiteten Jaguarkerne perfekt auf die Anwendungsbereiche einer Spielekonsole zugeschneidert sind, dazu eine perfekt optimierte GCN GPU mit ähnlicher Rechenleistung einer HD7970M und den ganzen Rest (RAM, SSD/HDD, BluRay-Laufwerk, etc), dann kann man eine extrem leistungsstarke Konsole bauen, die die 250W TDP der PS3 deutlich unterschreitet. Vor allen Dingen dürfte der Idle-Verbrauch der neuen Konsolen massivst sinken, denn in dieser Beziehung waren XBox360 und PS3 eine totale Katastrophe.
 
nanoworks
Kabini wird es mit einer TDP von 25 watt geben, dafür aber wird es ein SoC sein. Schlussendlich sollte der Verbrauch deshalb geringer sein, als bei den Vorgänger.

Würde Sony und Microsoft ihre Konsolen eher GPU-lastig (ich nenne es mal so) ausrichten, die KI und Physikcs ebenfalls über gpu berechnen lassen, können sich die Grafikkartenfirmen, AMD und NV freuen.
Könnte gut sein dass CPU(-only) uninteressanter werden könnte im Bereich gaming, da ja mehr oder weniger mehr Aufgaben übernommen werden können.
Ich denke ein Großer Vorteil von AMD gegenüber NV ist, dass AMD von Anfang an auf OS gesetzt haben, somit ist man einfach unabhängiger.

Ich hatte schon ein itx-Board mit rund 10W TDP in der Hand, welches Lauter war als mein damaliger Rechner mit rund 140W TDP
Verbrauchen beide Systeme gleich viel Platz, und kosten sie (genauer die Kühlung) auch gleich viel :D ?

Geht man jetzt von einer stark aufgepumpten Kabini-APU aus, dessen iGP rein auf GPGPU optimiert ist und dessen überarbeiteten Jaguarkerne perfekt auf die Anwendungsbereiche einer Spielekonsole zugeschneidert sind,
Wenn man bedenkt dass die Pro-MHz-Verbesserung um ca 15% steigen soll, ist man von Trinity nicht mehr weit entfernt
Man muss aber bedenken dass Kabini keine so hohe Taktraten wie Trinity erreichen kann, und dass der Sweet Point bei Trinity sicherlich in einem höheren Takt liegt, bei Kabini weiter unten.
 
Zuletzt bearbeitet:
modena.ch schrieb:
Wie kommst du darauf?

Die paar Dinge die man heutzutage an eine Konsole hängen kann ist in keiner Weise vergleichbar mit einem PC. Es ist sind nicht ansatzweise so viele Treiber integriert und das Konsolen OS ist nicht ansatzweise so umfangreich und gross.

.........

Doch es war so das im Verhältniss zu viel Speicher fürs OS draufging deshalb musste Sony ja auch reagieren (was sie auch eindrucksvoll getan haben!). DIe erste Iteration des PS3 OS verbrauchte noch 120mb an RAM aufgeteilt auf XDR und DDR RAM, hört sich im Vergleich zum PC nicht viel an wo auch schon mal 1-2gb anfallen nur fürs OS aber setzt man es in relation zum Gesamtspeicher schaut die Sache wieder anders aus.

Mittlerweile hat Sony da ja sehr gut reagiert und trotz der ganzen zusätzlichen features den Verbrauch auf >50mb reduziert aber die erste Iteration hat damit häufig Probleme und erst release x.3 oder x.4 regeln das.

Schaut man sich das ganze jetzt in Relation zu einem "standard" Windows PC an der mit, sagen wir mal, konservativen 4gb RAM ausgestattet ist und geht davon aus das OS macht wie alle Windows Iterationen seit Vista regen Gebrauch von pre fetching dann gehen 2gb also 50% fürs OS drauf. Wobei hier gesagt werden muss das diese 2gb nicht nur das OS sondern vorallem dem pre fetching geschuldet sind und freigegeben werden bei Bedarf.
Nehmen wir jetzt die 120mb der PS3 OS erste Revision sehen wir das ungefähr 25% (war zu faul zum rechen :p) fürs OS reserviert sind ohne prefetching. Ziehen wir das in Betracht kommen wir auf beiden System auf annähernd ähnliche RAM Auslastung des OS!

Wobei hierzu natürlich zu sagen ist das die PS3 hier ein extrem Beispiel in negativer Hinsicht war (XBox hatte zu Beginn 32mb RAM fürs OS!) aber eben auch massig neue Funktionen für eine Konsole brachte. Ausserdem wird das Problem immer weniger relevant je länger eine Konsole auf dem Markt ist denn desto mehr lernen die Entwickler und durch neue Versionen des OS wird dieser "Speicherhunger" erheblich reduziert so das sie nach ~2 Jahren wieder auch einen relativen Vorsprung und nicht nur einen absoluten Vorsprung zum PC hat.

Edit: Hier was über die Entwicklung des PS3 OS:
http://research.scee.net/files/presentations/acgirussia/Hardware_Overview_ACGI_09.pdf
 
Das mag jetzt im Verhältniss etwa stimmen, aber 50-120MB fürs OS sind einfach bei weitem kein GB fürs OS. (Prefetch nimmt sich nur viel Ram wenn mehr als 2GB vorhanden sind).

Man kann schon davon ausgehen, dass die neuen Konsolen mindestens 2GB Ram haben werden, interessant wären eher 4-8 GB. Dann ist es auch mit dem Verhältniss zum PC nicht mehr weit her.

Auch Treibermässig ist es kein Vergleich. Es müssen sehr viel mehr beim PC vorhanden sein.

Und auch bei der Effizienz ist das Konsolen OS viel besser auf die vorhandene Hardware abgestimmt (logischerweise da nur eine Plattform). Deshalb kann man auch davon ausgehen, dass die vermutete A10 APU viel mehr Power hätte und auch viel effizienter arbeiten würde als dieselbe APU im Windows PC.
Wenn dann noch Spezialitäten der APU wie die GPU zur Berechnung herangezogen werden
würden oder gar HSA, ist das kleine Kästchen äusserst potent unterwegs.
 
@dlux

Die theoretische Leistung der HD7970 bei DP liegt unter der realen Leistung (und das unabhängig von der Matrizengröße) des Xeon Phi. Ich frage mich auch, was die HD7970 macht, wenn es nicht nur um Datenparallelität geht und es einige Verzweigungen im Code gibt.

Du solltest besser auf deine Vergleiche achten.

Jo. Die theoretische Rechenleistung von Trinity ist etwa 10 mal höher als bei Ivy Bridge: Stichpunkt GPGPU und HSA.

HSA ist kein Wunderding (vor allem kann die GPU den langsamen CPU-Part nicht kompensieren...). Ebenso wenig wie GPGPU. Vor allem dann nicht, wenn die GPU mit dem, was sie am besten kann, der Berechnung von Grafik (und vielleicht noch Physik), bereits bestens beschäftigt ist.
 
Zuletzt bearbeitet:
ein 256 GB großes Laufwerk. Es ist nicht bekannt, ob es sich dabei um eine herkömmliche Festplatte oder eine SSD handelt.
Au man, da muss man wohl kein Einstein für sein, um das Rätsel zu lösen: es gibt keine regulären Festplatten mit 256 GB Speicherkapazität. Entweder 250 oder 320 GB. Es gibt aber SSDs mit 256 GB Kapazität => Rätsel gelöst.

Gruß FatFire

Edit: Wtf? Fast zwei Monate alt der Thread, ist mir jetzt erst aufgefallen. Warum wird mir das Thema auf der Startseite angeboten?
 
Zurück
Oben