News Intel Xe-HPG DG2: Mutmaßlich erstes Foto der Gaming-Version als Prototyp

konkretor schrieb:
@cunhell Xeon Phi basiert auf Intel Pentium p54c Chips
Das ändert aber nichts daran das dessen Cores mehr oder weniger ein i386 derivat ist und keine Architektur benutzt wie sie normalerweise GPGPUs oder GPUs haben.

Cunhell
 
Hayda Ministral schrieb:
Wie kommst Du darauf?

Hmm. Ich kenne mich da nicht aus.

Allerdings gehe ich schwer davon aus, das die Verteilung der Chips von AMD ungefähr so aussehen wird...
30 % Zen
30 % PS5 Soc
30 % Xbox Soc
10 % GPU

Ob man nun so schnell von einem aufs andere switchen kann, weiß ich nicht.
 
Für Q4 2020 sind diese Zahlen bekannt:

PCGH schrieb:
Für das vierte Quartal sieht der Plan laut einem Bericht aus Taiwan so aus, dass man aus 120.000 Wafern Kontingent für Konsolen ca. 80.000 Wafer für die Playstation 5 und ca. 40.000 Wafer für die Xbox Series X verwendet. Das seien bereits 80 Prozent des Gesamtkontingentes.; bleiben 30.000 für Epyc, Ryzen und Radeon.
https://www.pcgameshardware.de/Hard...lechte-Verfuegbarkeit-verantwortlich-1362635/

Das ändert sich von Quartal zu Quartal, und kann für Q1 2021 schon wieder anders aussehen.
Aber die Relationen werden gut sichtbar, also dass ein Großteil der Wafer für die neuen Konsolen eingeplant sind.
 
Fuchiii schrieb:
Wie kommst du auf die Idee..? Intel hechelt ja sogar bei den CPUs zurzeit hinterher.
Glaubst du Intel kommt und wirft jetzt 3080 Niveau für den halben Preis auf den Markt..?
Don't Feed the Troll!
Der Typ ist bei mir schon seit einem Jahr im Aquarium Dank seiner sehr "interessanten" Kommentare.
 
  • Gefällt mir
Reaktionen: Fuchiii
Das erste was ich sehe: GRÜNES PCB ... iiiiih... bitte nicht, ich dachte die Zeiten sind vorbei! lol

ABER, Intel ist nicht auf TSMC angewiesen, Intel hat eigene Fabriken um die Chips herzustellen, wenn die jetzt endlich mal zu Potte kommen würden und die Teile releasen (wollten die nicht schon ende 2020 mit gaming GPUs auf den Markt?) dann können sie in der momentanen Situation jede GPU sofort verkaufen die sie herstellen können, selbst wenn das Zeug direkt an die Cryptominer geht kann das nur gut für alle sein weil dann die hohe Nachfrage etwas besser gesättigt wird und dadurch die Preise sich vielleicht auch mal wieder etwas nach unten regulieren.

Ich mein ich würde jetzt keine kaufen, ich hab ne 1080, unter 3080 lohnt sichs für mich nicht aber unter 2000€ passiert da nix auf Geizhals, das ist nur noch absurd.
Aber wenn die 1080 morgen verreckt und ich nichts anderes kaufen kann als ne theoretische Intel GPU auf 3060 niveau ... äääh besser als nix, her damit!
 
Kryss schrieb:
Hmm... 275 Watt mit dem mickrigen Kühler?! Ich hoffe mal, da tut sich noch was mit den anderen Prototypen... Daran sollte es bei Intel dann nicht scheitern.

Vg Chris
micrig soll jedoch nicht bedeuten das der kühler nicht effektiv ist. wir müssen tests und die finale version abwarten. bis dahin kann sich noch vieles ändern.
würde das nur begrüßen. wir können davon nur profitieren wenn noch ein konkurrent im grafikkarten markt hinzukommen würde.
 
@ZeroBANG Intel lässt die GPUs bei TMSC fertigen. Ich denke, Intel braucht seine besten Prozesse für CPUs.
 
Blackfirehawk schrieb:
Zwischen 3070 und 3080 für n erstprodukt kommt mir erstaunlich stark vor..
Mir ebenso !
Wenn man bedenkt, dass die 3070 auf einer Stufe mit der 2080Ti ist,
jene welche letztes Jahr die absolute Spitze (Titan außen vor) darstellte ... :confused_alt:
Was NICHT heißen soll dass ich dies nicht gut fände wenn´s so kommt !

MfG Föhn.
 
Onkel Föhn schrieb:
Mir ebenso !
Wenn man bedenkt, dass die 3070 auf einer Stufe mit der 2080Ti ist,
jene welche letztes Jahr die absolute Spitze (Titan außen vor) darstellte ... :confused_alt:
Was NICHT heißen soll dass ich dies nicht gut fände wenn´s so kommt !

MfG Föhn.
Naja.. derjenige der das Ding entwickelt hat auch AMD Vega entwickelt.. wer weiß was er da übernommen hat.. ich denke Mal die Dinger sind auf Compute Power und dementsprechend Mining optimiert.. spart man sich auch das Treiber gefuddel..
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Die Grafikkarte sieht furchtbar aus. Als hätten Gigabyte Mitarbeiter ein Design von vor 10 Jahren verwendet.
 
Zurück
Oben