News Skylake-Technik: Intel erklärt Stromversorgung einer möglichen GPU

Dabei seit
Feb. 2018
Beiträge
13
#21
Interessant, wäre schön mal eine dritte Partei im GPU Segment zu sehen. Falls allerdings gamingtaugliche GPUs das Ziel sind wird Intel, genau wie AMD ziemliche Probleme dank Nvidias Gameworks(-schrott:evillol:) bekommen, habe das Gefühl dass in letzter Zeit immer mehr Spiele Teile davon implementieren...ganz zu schweigen von der Unreal Engine, die Nvidia Karten extrem bevorzugt...
 
Dabei seit
Sep. 2012
Beiträge
2.010
#22
Ich nehme Intel im GPU Bereich erst dann ernst, wenn sie was brauchbares liefern können. Selbst aktuelle Intel iGPUs sind für alles außer Desktop (und selbst da nur bedingt, Stichwort Multimonitor) nicht geeignet. Und bisher hat mich noch kein einziger von Intels Versuchen überzeugen können.
 
Dabei seit
Dez. 2010
Beiträge
4.244
#23
Hallo @ all,

Intel ist nunmal Weltmarktführer an verkauften Grafikchips, rechnet man iGPUs mit ein. Wenn wundert's wenn sie bei dem ganzem Mining-Hype nicht auch Blut geleckt hätten und etwas entwickeln, daß speziell fürs Mining interessant wäre?

Die können sich leisten mal geschwind 1 Mrd $ für Experimente auszugeben, und selbst wenn es schief geht, schreiben sie immer noch schwarze Zahlen und erzielen Rekordgewinne.
 
Dabei seit
Juni 2001
Beiträge
898
#24

Seby007

Lt. Commander
Dabei seit
Nov. 2003
Beiträge
1.804
#25
Seit ich mit einem Billigst-Intel GMA950 von 2005 selbst Dungeon Siege 2 auf FullHD via VGA spielen konnte bzw. Stalker in mittleren-hohen Einstellungen @1680x1050 flüssig spielbar war genauso wie HL² und auch YT-Videos auf dem System noch mitbeschleunigt worden sind (C2D 1.66Ghz), halte ich Intel in Sachen GPU nicht gaanz so unfähig :D
 
Dabei seit
Apr. 2010
Beiträge
8.323
#26
Seit ich mit einem Billigst-Intel GMA950 von 2005 selbst Dungeon Siege 2 auf FullHD via VGA spielen konnte bzw. Stalker in mittleren-hohen Einstellungen @1680x1050 flüssig spielbar war genauso wie HL² und auch YT-Videos …
genau.. deswegen läuft ja im jahr 2018 ohne zusatz chip (teuer) oder per adapter auf hdmi, noch kein hdmi mit 4k in notebooks mit der intel cpu/gpu lösung (an den meisten monitoren) .. hab nen 7600u und bei den 8000-ern soll es genau sein..

super profis.. technik von 2009 im jahr 2018..
 
Dabei seit
Juli 2010
Beiträge
4.161
#27
Man wird sehen wo die Reise hingeht bei Intel. Allerdings ist das Steckenpferd von Koduri ja AI / Enterprise, weniger der Gaming-Bereich.

Und ob er dort etwas zustande bringt (Gaming) wird man bei Navi sehen, wo er maßgeblich ja beteiligt war an der Entwicklung.

Bei Intel selbst wird es vermutlich noch Jahre dauern, bis wir dort erste Produkte von Koduri sehen, und dann wird es fraglich sein ob sie Konkurrenzfähig zu nVidia und AMD sind. :D
 
Zuletzt bearbeitet:

RdW

Cadet 2nd Year
Dabei seit
Aug. 2005
Beiträge
31
#28
genau.. deswegen läuft ja im jahr 2018 ohne zusatz chip (teuer) oder per adapter auf hdmi, noch kein hdmi mit 4k in notebooks mit der intel cpu/gpu lösung (an den meisten monitoren) .. hab nen 7600u und bei den 8000-ern soll es genau sein..

super profis.. technik von 2009 im jahr 2018..
Falsch: ich habe den Intel Treiber manuell an 4K angepasst und seit dem keine Probleme mehr mit HDMI an 4K Monitoren in der nativen Auflösung.
 
Dabei seit
Juni 2008
Beiträge
2.579
#29
Das kann ich mir absolut nicht vorstellen.


das Steckenpferd von Koduri ja AI / Enterprise, weniger der Gaming-Bereich.
This.


NVIDIA sagt seit Pascal "datacenter first" und spätestens seit den Tensor-Cores in Volta hat man sich innerhalb des Enterprisemarktes auf AI / deep learning spezialisiert.

AMD versucht momentan mit ROCm, den Radeon Instinct Karten, diversen HPC-libs usw. das gleiche.

Intel hat Xeon Phi auslaufen lassen. Ein Ersatz hierfür scheint mir am wahrscheinlichsten.

Das Gaming die beiden Branchenriesen AMD & NVIDIA nicht mehr sonderlich interessiert, sagt doch schon alles. Ich wüsste auch nicht, warum Intel da in Konkurrenz gehen sollte: viel theoretische Rechenleistung anbieten für Server/HPC kostet viel weniger Arbeit & Patente, als Treiber und andere Lösungen für DirectX & Co. zu programmieren um in den Gamingmarkt zu vorzustoßen (siehe die Versuche mit Vulkan, NVIDIA's Gameworks, usw.).

Nein, der Fokus von Intel in diesem Bereich war schon immer Enterprise und HPC.

HPC, AI / Deep Learning sowie Mining sind derzeit mit Abstand die größten Wachstumsmärkte. Mindestens bei Deep Learning wird sich das auf absehbare Zeit auch nicht ändern, da das mittlerweile in so ziemlich jede Branche integriert wird.

Man sollte auch nicht vergessen, dass Intel mit Movidius, Nervana und vielen anderen Unternehmen im Bereich AI / deep learning bereits sehr fleißig auf Einkaufstour war.
Jetzt auch diskrete Beschleuniger für den HPC-Bereich anzubieten auf denen man entsprechende Simulationen laufen lassen kann, wäre nur logisch und würde die Produktpalette sinnvoll ergänzen.
 
Zuletzt bearbeitet:
Dabei seit
März 2001
Beiträge
2.924
#30
genau.. deswegen läuft ja im jahr 2018 ohne zusatz chip (teuer) oder per adapter auf hdmi, noch kein hdmi mit 4k in notebooks mit der intel cpu/gpu lösung (an den meisten monitoren) .. hab nen 7600u und bei den 8000-ern soll es genau sein..
Die gleiche Einschränkung gibt es bei AMDs IGPs bis inkl. Bristol/Stoney Ridge. HDMI 2.0 (4K@60hz über HDMI) wird nativ erst seit Raven Ridge unterstützt. Auf der Zeitachse ist Intel damit bei der Implementierung kaum langsamer da Gemini Lake (aktuellster Chip mit IGP von Intel) ebenfalls HDMI 2.0 mit bringt: https://www.golem.de/news/gemini-lake-asrock-und-gigabyte-bringen-atom-boards-1801-132271.html
 
Zuletzt bearbeitet:

Volker

Ost 1
Ersteller dieses Themas
Teammitglied
Dabei seit
Juni 2001
Beiträge
14.298
#31
Artikel-Update: Intel hat noch einmal ausdrücklich darauf hingewiesen, dass es sich nicht um einen echten Prototypen einer diskreten GPU handelt. Es geht um Forschungen im Bereich der Stromversorgung. Die Meldung wurde an zwei Stellen präzisiert und die Überschrift angepasst.

Zitat von Intel:
Last week at ISSCC, Intel Labs presented a research paper exploring new circuit techniques optimized for power management. The team used an existing Intel integrated GPU architecture (Gen 9 GPU) as a proof of concept for these circuit techniques. This is a test vehicle only, not a future product. While we intend to compete in graphics products in the future, this research paper is unrelated. Our goal with this research is to explore possible, future circuit techniques that may improve the power and performance of Intel products
 

Camicace

Lt. Junior Grade
Dabei seit
Jan. 2015
Beiträge
343
#32
Ich fände einen zusätzlichen Sockel auf dem Board toll.
​ Da könnt man dann stecken wie man will.
so wie früher ... ganz früher...als man zum 386 einen co-Prozessor stecken konnte.
 
Dabei seit
Apr. 2007
Beiträge
795
#33
Ähm ... wie kommst du jetzt darauf? :D

Für solche Dinge gibt es heute Erweiterungskarten, so gesehen ist eine Grafikkarte auch nichts anderes als ein Co-Prozessor mit spezifischem Anwendungszweck und eigener Infrastruktur ^^
 
Dabei seit
Dez. 2010
Beiträge
4.244
#34
Also das mit dem GPU-Sockel wünsche ich mir auch schon lange. Man könnte CPU- und GPU-Sockel nebeneinander plazieren, und so mit einem gemeinsamen Kühler kühlen. Und btw, auch Sockel für VRAM-Module wie es bei DRAM der Fall ist.

Aber das wird natürlich aus Gründen der geplanten Obsoleszenz niemals kommen, leider.
 
Dabei seit
Jan. 2015
Beiträge
2.905
#35
@ BlackWidowmaker
Mit etwas gesundem Menschenverstand sollte klar sein dass das herzlich wenig mit geplanter Obsoleszenz zu tuen hat.
Das Konstrukt dürfte eher kontraproduktiv sein da bereits gesockelter RAM mehr Platz fressen würde, die schlechtere Signalqualität den Einsatz von schnelleren Speicher verhindert, der Sockel für die GPU dessen gesammte Anschlussmöglichkeiten einschränkt und deren Spannungsversorgung für weitere Einschränkungen sorgt.
Es würde also konstruktionsbedingt langsamer sein, erheblich mehr Platz als eine Grafikkarte fressen, ev. auch noch auf die Effizienz gehen und durch die ganzen Einschränkungen leidet vermutlich auch die Aufrüstbarkeit denn wenn die GPU nach einem anderen Speicher verlangt ist dann auch ein MoBo Wechsel fällig.
Von den zusätzlichen Kosten ganz zu schweigen.
 
Zuletzt bearbeitet:
Dabei seit
Dez. 2010
Beiträge
4.244
#37
Genau diese gefährliche Denkweise macht geplante Obsoleszenz überhaupt erst möglich. So wie der Irrglaube daß ein wechselbarer Akku bei einem Mobilgerät nicht nötig wäre, und sich deshalb "nicht durchgesetzt" hätte. Da kann man sich genau so gut ein Schild auf der Stirn kleben mit: "Ich bin ein DAU - bitte beutet mich aus".
 
Top