News Kaby Lake-G: Intel listet erste Modelle mit Vega-Grafik offiziell

Chismon schrieb:
Mit Koduri im Schlepptau dürfte Intel das auch nicht mehr brauchen, auch wenn sie AMDs Technik natürlich direkt nicht abkupfern können.....
Abkupfern wäre ja auch dumm. Wenn dann macht man die Ideen, die der Koduri im Kopf hat aber bei AMD wegen Geld Mangel nicht realisieren konnte.
 
Was Koduri wirklich geleistet hat bei AMD, wird man erst mit Naavi sehen. Und so wie es ausschaut zielt Intel mit der GPU-Sparte nicht auf den "Gaming Bereich" ab sondern will nVidia und AMD im Bereich Deep Learning Konkurrenz machen.
 
Hopsekäse schrieb:
Da es sich um eine normale PCIe-Anbindung handelt, wird der GPU-Speicher wohl nicht als L4-Cache für die CPU nutzbar sein, oder?

Das wäre völlig sinnlos, da mit katastrophaler Latenz versehen.

Inxession schrieb:
Hoffentlich konnte AMD im Vertrag durchbringen, das jedes Notebook auch mit AMD Sticker ausgeliefert wird.

So'n Quatsch, seit wann sind Aufkleber auf den Macbooks? ;)
 
wozu soviel effiziente Leistung auf 1 chip knallen?
-> HoloLens
-> MobileVR
Haha, die Zukunft wird gut!
 
@ Aldaric87
Das sehe ich ähnlich, ich gehe auch davon aus das es dabei vielmehr um solche professionellen Bereiche geht für die AMD ohnehin nicht genug Ressourcen hätte um da ernsthaft Konkurrenz zu machen. Ich sehe das eher als Nachfolger des eingestellten Larrabee Projektes.
Vermutlich ist das auch der Grund für die cooperation in der letzten Zeit.
 
Eben, zudem ist dieser Bereich das Steckenpferd von Koduri. Dort wollte er immer hin, der Bereich ist aber für Intel vorallem nur so interessant, da sie später ein Komplettpaket aus CPU und GPU für diesen Bereich anbieten können. Ich denke das auch AMD in dem Bereich sich weiter steigern wird, was für Probleme bei nVidia sorgen könnte. Denn sie sind der einzige Marktteilnehmer der kein Komplettpaket aus CPU und GPU anbieten kann.

Das dauert aber vermutlich im großen Stile noch ein paar Jahre um da zu sehen wie der Hase läuft.
 
Ich sehe das recht pragmatisch.
Intel hat die finanziellen Mittel um nvidia in dem Bereich Konkurrenz zu machen aber ihnen fehlt eine entsprechende GPU Architektur.
AMD fehlen die finanziellen Mittel aber sie haben eine passende Architektur, zudem könnte das der Aufhänger für ein erweitertes Patenttauschabkommens sein und Intel sorgt letztendlich mit für die Verbreitung ihrer GPU Architektur, was ihnen indirekt auch weitere Türen öffnen könnte. Unterm Strich wäre es aber für beide eine Win Win Situation.
 
teufelernie schrieb:
War nicht von etwa auf dem Niveau einer GF150 die Rede?

Wenn du überlegst das ne 580Polaris ihre 185W zieht und ne Vega64 ihre 285?
Dann überlegen wir mal, dass es Igp Design ist und Vega generell nicht sooo effizient und erinnern uns an die TDP 66W dieser IGP und fangen an zu spekulieren. Also ich sag ja mal, etwa das Niveau ner 1040 oder darunter, wenn überhaupt. Alles andere würde mich wundern.

Faselei...
Vega und Polaris in Grafikkarten laufen alle weit über dem Sweetspot um die gewünschte Leistung zu erzielen. Eine IGP kriegt keine 1.5GHz samt 200W zu Verfügung, sondern wird um die 1GHz laufen, der Strombedarf sinkt dabei beachtlich.
 
psYcho-edgE schrieb:
Faselei...
Vega und Polaris in Grafikkarten laufen alle weit über dem Sweetspot um die gewünschte Leistung zu erzielen.

Ok des stimmt, habe ich dabei nicht beachtet. Habe aber zu Spekulation aufgerufen: Auf welches Niveau tippst du hier?
Ich denke ich würde fast um Geld Wetten, dass es für ne 1050 nicht reicht.
 
teufelernie schrieb:
[...]Habe aber zu Spekulation aufgerufen: Auf welches Niveau tippst du hier?
Ich denke ich würde fast um Geld Wetten, dass es für ne 1050 nicht reicht.

Wenn ich mitraten darf: Irgendwo zwischen 1050 und 1050Ti, hoffentlich näher an Letzterer. Alles Andere wäre für mich eine Enttäuschung.

Immerhin wird bei der 1050 von ~50 Watt und bei der Ti von ~70 Watt TDP ausgegangen, da sollte eine 'kleine' Polaris/Vega im Sweetspot mit sparsamem HBM Speicher doch min. ähnliche Werte erzielen.
 
Nitschi66 schrieb:
Noch einer, der sagt, Vega und Polaris würden über dem SweetSpot arbeiten.
Kann mir mal da einer eine verlässliche quelle zu verlinken?
Bis jetzt ist das doch nur hören sagen :-/

CB selbst sagt das mehr oder weniger. Ich suche mal gerade den Test und ediere dann.

Edit:
Vega 56 @ Doom:
Sekundäres BIOS Power Save vs Primäres BIOS Turbo:
1.219MHz vs. 1.399 MHz
57,1 fps 62,5 fps
187 Watt vs. 269 Watt

~15% mehr Takt geben uns 9% mehr Frames und erhöhen den Stromverbrauch des Gesamtsystems um knackige 43%. Sollte für sich sprechen und gilt mit leicht anderen Werten für alle getesteten Spiele.

Edit2: Tomshardware und hardwareluxx sehen das übrigens auch ähnlich.
 
Zuletzt bearbeitet:
@teufelernie
Für die Vega64 gab es ja einen Test bei dem die Standard Einstellungen verglichen wurden.
https://www.computerbase.de/2017-09...schnitt_die_auswirkungen_vom_bios_und_treiber

Zwischen der sparsamsten Einstellung und der leistungsfähigsten lagen ca. 200 MHz GPU Takt, ca. 20% durchschnittliche Grafikleistung aber fast 200W System Verbrauch. Ich denke mal das die Werte bereits für sich sprechen. ;)

Edit:
Fehler meinerseits, mit der schnellsten Standard Einstellung waren es nur 10% Mehrleistung und ca. 130W mehr Verbrauch, die +20% +200W kamen mit angehobenen Power Target zu stande.
 
Zuletzt bearbeitet von einem Moderator:
Neue Quellen geben bei der 100 Watt APU eine Leistung von ~7 bis 13% über der Kombination 7700HQ+1060 Q-Max an...

Man darf gespannt sein.
 
Hoffentlich wird es den Intel 8809G auch abseits des Nuc Hades Canyon geben.

Zum Beispiel in einem größeren und günstigeren Gehäuse.

Man könnte da erheblich einsparen.
Denn der Nuc kostet alleine in der Bare Bone Version bereits 1000 Dollar.
 
Zurück
Oben