News Skylake-Technik: Intel erklärt Stromversorgung einer möglichen GPU

Interessant, wäre schön mal eine dritte Partei im GPU Segment zu sehen. Falls allerdings gamingtaugliche GPUs das Ziel sind wird Intel, genau wie AMD ziemliche Probleme dank Nvidias Gameworks(-schrott:evillol:) bekommen, habe das Gefühl dass in letzter Zeit immer mehr Spiele Teile davon implementieren...ganz zu schweigen von der Unreal Engine, die Nvidia Karten extrem bevorzugt...
 
Ich nehme Intel im GPU Bereich erst dann ernst, wenn sie was brauchbares liefern können. Selbst aktuelle Intel iGPUs sind für alles außer Desktop (und selbst da nur bedingt, Stichwort Multimonitor) nicht geeignet. Und bisher hat mich noch kein einziger von Intels Versuchen überzeugen können.
 
Hallo @ all,

Intel ist nunmal Weltmarktführer an verkauften Grafikchips, rechnet man iGPUs mit ein. Wenn wundert's wenn sie bei dem ganzem Mining-Hype nicht auch Blut geleckt hätten und etwas entwickeln, daß speziell fürs Mining interessant wäre?

Die können sich leisten mal geschwind 1 Mrd $ für Experimente auszugeben, und selbst wenn es schief geht, schreiben sie immer noch schwarze Zahlen und erzielen Rekordgewinne.
 
nebulus schrieb:
Die sollten die IGPU rauswerfen und den Platz für mehr Cache und zwei weitere Kerne nutzen. ENDE.
Setzen, sechs! Nochmal lesen.
Hier ist nicht von einer iGPU/APU die Rede.
ENDE!
 
Seit ich mit einem Billigst-Intel GMA950 von 2005 selbst Dungeon Siege 2 auf FullHD via VGA spielen konnte bzw. Stalker in mittleren-hohen Einstellungen @1680x1050 flüssig spielbar war genauso wie HL² und auch YT-Videos auf dem System noch mitbeschleunigt worden sind (C2D 1.66Ghz), halte ich Intel in Sachen GPU nicht gaanz so unfähig :D
 
Seby007 schrieb:
Seit ich mit einem Billigst-Intel GMA950 von 2005 selbst Dungeon Siege 2 auf FullHD via VGA spielen konnte bzw. Stalker in mittleren-hohen Einstellungen @1680x1050 flüssig spielbar war genauso wie HL² und auch YT-Videos …

genau.. deswegen läuft ja im jahr 2018 ohne zusatz chip (teuer) oder per adapter auf hdmi, noch kein hdmi mit 4k in notebooks mit der intel cpu/gpu lösung (an den meisten monitoren) .. hab nen 7600u und bei den 8000-ern soll es genau sein..

super profis.. technik von 2009 im jahr 2018..
 
Man wird sehen wo die Reise hingeht bei Intel. Allerdings ist das Steckenpferd von Koduri ja AI / Enterprise, weniger der Gaming-Bereich.

Und ob er dort etwas zustande bringt (Gaming) wird man bei Navi sehen, wo er maßgeblich ja beteiligt war an der Entwicklung.

Bei Intel selbst wird es vermutlich noch Jahre dauern, bis wir dort erste Produkte von Koduri sehen, und dann wird es fraglich sein ob sie Konkurrenzfähig zu nVidia und AMD sind. :D
 
Zuletzt bearbeitet:
Mr.Smith schrieb:
genau.. deswegen läuft ja im jahr 2018 ohne zusatz chip (teuer) oder per adapter auf hdmi, noch kein hdmi mit 4k in notebooks mit der intel cpu/gpu lösung (an den meisten monitoren) .. hab nen 7600u und bei den 8000-ern soll es genau sein..

super profis.. technik von 2009 im jahr 2018..
Falsch: ich habe den Intel Treiber manuell an 4K angepasst und seit dem keine Probleme mehr mit HDMI an 4K Monitoren in der nativen Auflösung.
 
BlueLightning schrieb:
Falls allerdings gamingtaugliche GPUs das Ziel sind

Das kann ich mir absolut nicht vorstellen.


Aldaric87 schrieb:
das Steckenpferd von Koduri ja AI / Enterprise, weniger der Gaming-Bereich.

This.


NVIDIA sagt seit Pascal "datacenter first" und spätestens seit den Tensor-Cores in Volta hat man sich innerhalb des Enterprisemarktes auf AI / deep learning spezialisiert.

AMD versucht momentan mit ROCm, den Radeon Instinct Karten, diversen HPC-libs usw. das gleiche.

Intel hat Xeon Phi auslaufen lassen. Ein Ersatz hierfür scheint mir am wahrscheinlichsten.

Das Gaming die beiden Branchenriesen AMD & NVIDIA nicht mehr sonderlich interessiert, sagt doch schon alles. Ich wüsste auch nicht, warum Intel da in Konkurrenz gehen sollte: viel theoretische Rechenleistung anbieten für Server/HPC kostet viel weniger Arbeit & Patente, als Treiber und andere Lösungen für DirectX & Co. zu programmieren um in den Gamingmarkt zu vorzustoßen (siehe die Versuche mit Vulkan, NVIDIA's Gameworks, usw.).

Nein, der Fokus von Intel in diesem Bereich war schon immer Enterprise und HPC.

HPC, AI / Deep Learning sowie Mining sind derzeit mit Abstand die größten Wachstumsmärkte. Mindestens bei Deep Learning wird sich das auf absehbare Zeit auch nicht ändern, da das mittlerweile in so ziemlich jede Branche integriert wird.

Man sollte auch nicht vergessen, dass Intel mit Movidius, Nervana und vielen anderen Unternehmen im Bereich AI / deep learning bereits sehr fleißig auf Einkaufstour war.
Jetzt auch diskrete Beschleuniger für den HPC-Bereich anzubieten auf denen man entsprechende Simulationen laufen lassen kann, wäre nur logisch und würde die Produktpalette sinnvoll ergänzen.
 
Zuletzt bearbeitet:
Mr.Smith schrieb:
genau.. deswegen läuft ja im jahr 2018 ohne zusatz chip (teuer) oder per adapter auf hdmi, noch kein hdmi mit 4k in notebooks mit der intel cpu/gpu lösung (an den meisten monitoren) .. hab nen 7600u und bei den 8000-ern soll es genau sein..

Die gleiche Einschränkung gibt es bei AMDs IGPs bis inkl. Bristol/Stoney Ridge. HDMI 2.0 (4K@60hz über HDMI) wird nativ erst seit Raven Ridge unterstützt. Auf der Zeitachse ist Intel damit bei der Implementierung kaum langsamer da Gemini Lake (aktuellster Chip mit IGP von Intel) ebenfalls HDMI 2.0 mit bringt: https://www.golem.de/news/gemini-lake-asrock-und-gigabyte-bringen-atom-boards-1801-132271.html
 
Zuletzt bearbeitet:
Artikel-Update: Intel hat noch einmal ausdrücklich darauf hingewiesen, dass es sich nicht um einen echten Prototypen einer diskreten GPU handelt. Es geht um Forschungen im Bereich der Stromversorgung. Die Meldung wurde an zwei Stellen präzisiert und die Überschrift angepasst.

Intel schrieb:
Last week at ISSCC, Intel Labs presented a research paper exploring new circuit techniques optimized for power management. The team used an existing Intel integrated GPU architecture (Gen 9 GPU) as a proof of concept for these circuit techniques. This is a test vehicle only, not a future product. While we intend to compete in graphics products in the future, this research paper is unrelated. Our goal with this research is to explore possible, future circuit techniques that may improve the power and performance of Intel products
 
Ich fände einen zusätzlichen Sockel auf dem Board toll.
​ Da könnt man dann stecken wie man will.
so wie früher ... ganz früher...als man zum 386 einen co-Prozessor stecken konnte.
 
Ähm ... wie kommst du jetzt darauf? :D

Für solche Dinge gibt es heute Erweiterungskarten, so gesehen ist eine Grafikkarte auch nichts anderes als ein Co-Prozessor mit spezifischem Anwendungszweck und eigener Infrastruktur ^^
 
Also das mit dem GPU-Sockel wünsche ich mir auch schon lange. Man könnte CPU- und GPU-Sockel nebeneinander plazieren, und so mit einem gemeinsamen Kühler kühlen. Und btw, auch Sockel für VRAM-Module wie es bei DRAM der Fall ist.

Aber das wird natürlich aus Gründen der geplanten Obsoleszenz niemals kommen, leider.
 
@ BlackWidowmaker
Mit etwas gesundem Menschenverstand sollte klar sein dass das herzlich wenig mit geplanter Obsoleszenz zu tuen hat.
Das Konstrukt dürfte eher kontraproduktiv sein da bereits gesockelter RAM mehr Platz fressen würde, die schlechtere Signalqualität den Einsatz von schnelleren Speicher verhindert, der Sockel für die GPU dessen gesammte Anschlussmöglichkeiten einschränkt und deren Spannungsversorgung für weitere Einschränkungen sorgt.
Es würde also konstruktionsbedingt langsamer sein, erheblich mehr Platz als eine Grafikkarte fressen, ev. auch noch auf die Effizienz gehen und durch die ganzen Einschränkungen leidet vermutlich auch die Aufrüstbarkeit denn wenn die GPU nach einem anderen Speicher verlangt ist dann auch ein MoBo Wechsel fällig.
Von den zusätzlichen Kosten ganz zu schweigen.
 
Zuletzt bearbeitet von einem Moderator:
Genau diese gefährliche Denkweise macht geplante Obsoleszenz überhaupt erst möglich. So wie der Irrglaube daß ein wechselbarer Akku bei einem Mobilgerät nicht nötig wäre, und sich deshalb "nicht durchgesetzt" hätte. Da kann man sich genau so gut ein Schild auf der Stirn kleben mit: "Ich bin ein DAU - bitte beutet mich aus".
 
Zurück
Oben