News Prozessoren: Intel stellt die ersten 14-nm-Skylake-CPUs ein

Hmm wieviel onchip extra GPU würde man wohl noch brauchen wenn man das 'Videoram' mal für die normalen CPUs zugänglich machte? Oder auch ein stacked DRAM wie bei den KNLs vorsehen würde? Insbesondere bei den CPUs mit ein paar mehr Kernen und den höheren AVX2+ Weihen?

Vielleicht reicht ja auch bald endlich mal die normale CPU für eine Alltagsgrafik ..
 
Das Produkt an sich war sehr gut, aber meiner Meinung nach ist Intel da absolut falsch herangegangen.

Sehr teure Quadcores mit 45W TDP (welche dazu noch deutlich überschritten werden) landen eben eher in Workstation- und Gamingnotebooks, welche sowieso eine dGPU haben. Mit dGPU nimmt man dann aber doch lieber die billigeren Quadcores mit HD530, die ist mehr als stark genug für alle Alltagsaufgaben, bei denen man aus Effizienzgründen die dGPU nicht verwendet.

Im Desktop ist sowieso genug Platz für eine dGPU vorhanden, natürlich gibt es Nischen wie HTPC oder NUC, aber ansonsten ist die dGPU sinnvoller als eine aufgemotzte iGPU. Die meisten hier wollen ja auch nur den eDRAM haben, um die iGPU selbst geht es denen nicht.
 
Iris Pro ist eben nicht nur teuer im Verkauf sondern auch in der Herstellung: Chipfläche für IGP und der extra EDRAM Chip machen das Ganze sehr teuer. Auch ein i3 hilft da schlicht nicht weil ein CPU Kern einfach nur winzig ist. Wir haben ja mittlerweile ~60% der Fläche für den IGP auf jeder GT3 CPU, und den Rest für System Agent und die 4 Kerne. D.h. ein Kern ist 10% groß oder kleiner. Ein i3 würde da also weniger als 20% Fläche, also weniger als 20% Herstellungskosten einsparen. Wenn man den aber billig verramscht, versaut man sich die Marge.

Es "lohnt" sich für Intel nur die teuersten CPUs mit Irisi Pro anzubieten, weil sie eben bessere Margen mit einem i3+GT2 oder i7+GT3 fahren als mit Iris Pro.
 
Dolph_Lundgren schrieb:
Hab gerade folgenden Text auf FB gefunden: The licensing deal between AMD and Intel is signed and done for putting AMD GPU tech into Intel's iGPU.

Oha! Ja warum trennt sich Intel von Nvidia? Und nun auch von Iris Pro? Nvidia Fanboys werden jetzt bestimmt sagen, weil AMD die Lizenzen viel günstiger angeboten hat :rolleyes:
 
Erkläre mir mal jemand inwiefern sich Intel von nvidia "trennt"? Um was genau für ein Abkommen ging es da welches nicht mehr bestehen soll?
Mir fällt da einfach nix ein. Selbst SLI ist jeweils ein Vertrag zwischen nvidia und dem Boardhersteller, nicht Intel.
 
Vielleicht geht es dabei auch um eine mögliche HBM Einbindung oder die Integration von deren umschalt Technologie oder sie sind einfach nur kooperativer?
 
HominiLupus schrieb:
Erkläre mir mal jemand inwiefern sich Intel von nvidia "trennt"? Um was genau für ein Abkommen ging es da welches nicht mehr bestehen soll?
Mir fällt da einfach nix ein. Selbst SLI ist jeweils ein Vertrag zwischen nvidia und dem Boardhersteller, nicht Intel.

Intel hat ja nicht extra eine komplett eigene Architektur von 0 an entwickelt, die iGPUs basierten teilweise auf einem Lizenzabkommen mit NV.
Das scheint wohl ausgelaufen zu sein, die genauen Bestandteile des Abkommens und was das Auslaufen jetzt konkret bedeutet, muss jemand anders beantworten.
 
Da läuft afaik nix aus:
Under the patent cross license agreement, Intel has granted to NVIDIA and its qualified subsidiaries, and NVIDIA has granted to Intel and Intel’s qualified subsidiaries, a non-exclusive, non-transferable, worldwide license, without the right to sublicense to all patents that are either owned or controlled by the parties at any time that have a first filing date on or before March 31, 2017,

D.h. es gilt für alle Patente die bis März beantragt werden. D.h. diese Patente kann Intel weiterhin nutzen. Nur die neuen Patente ab 2017 nicht. Der Grund für dieses Abkommen war auch daß Intel nvidia verklagt hat, d.h. es sollte wäre also eher problematisch für nvidia, nicht für Intel. In dem Patentstreit ging es wohl um Intel Chipsätze die nvidia hergestellt hat.
 
Zuletzt bearbeitet:
Ohje... na sowas...
Im Grunde tuns ja eh sowieso 1-3 Modelle... alles drüber ist doch Unfug... einen Schnellen, einen Langsamen, einen in der Mitte für die Unentschlossenen...
 
Hat irgendwer den Link zu dem Test, wo ein i5-5675C auf das CPU Niveau eines A10-7850K herunter getaktet wurde?

Dieser Test war sogar recht umfangreich, und unter diesen Bedingungen hatte Iris Pro überhaupt keine Sonne mehr gesehen.
Den 'Hype' um die ach so tolle iGPU Iris Pro verdankt man nur dem schnellen CPU Unterbau, sonst nix.

Aber ich bin ebenfalls der Meinung Vieler hier, daß diese Lösung wunderbar auf eine Einsteiger-CPU gepasst hätte, am besten auf Celeron oder Pentium. Diese 'APU' hätte dann auch gern eine 10W höhere TDP haben und nen 10er mehr kosten dürfen!

edit: Könnte auch ein 7870(K) gewesen sein, eine russische oder polnische Webseite
 
Zuletzt bearbeitet:
Intel zockt Poweruser mit integrierter Grafik ab.

Die Hälfte des i7-6700 Dies ist Grafik. Bei Iris Pro sinds sogar 70%. Das alles bezahlt der Käufer. Ja, richtig, von der 400 Euro CPU gehen 200 Euro für die Grafik drauf. Das ist praktisch der Preis einer massiv schnelleren Radeon 470.

Und jetzt mal ehrlich, wer einen i7 kauft der braucht

a) wenig Grafikleistung - da ist sogar die normale i7-Grafik völlig überdimensioniert, es würde eine Minimal-GPU mit 1-2 Shadern statt 24 (Standard) geschweigedenn 72 (Pro) völlig genügen.

b) grosse Leistung - da ist ein i7 einfach ein Witz. Sogar die Iris Pro erreicht nur einen Bruchteil der Leistung einer 100 Euro Grafikkarte. Oder anders gesagt, niemand ausser Intel fertigt so lahme Grafik für den PC.

Also weg mit dem Mist. Bitte i5 und i7 ohne Grafik und dafür entweder billiger oder mit mehr Kernen, Danke.
 
zeedy schrieb:
Oha! Ja warum trennt sich Intel von Nvidia? Und nun auch von Iris Pro? Nvidia Fanboys werden jetzt bestimmt sagen, weil AMD die Lizenzen viel günstiger angeboten hat :rolleyes:

Es gab doch vor einiger Zeit stress zwischen Intel und NVIDIA bei der Entwicklung vom Cube Speicher als Konkurrenz zu AMDs HBM.
Da wurde NVIDIA am Ende von Intel rausgeschmissen wodurch NVIDIA nun wieder genau wie bei GDDR5 auf AMD Speichertechnologien angewiesen ist.
 
@Crass Spektakel
Das redest du dir ernsthaft ein?
Mach dir nichts vor. Hätte er keine integrierte Grafik wäre er kaum billiger, wenn überhaupt.
 
@Crass Spektakel
Das gibt es schon...Prozessoren die auf ein P enden haben eine kleiner oder gar keine iGPU:
z.B. i5 6402P mit einer HD510 statt der üblichen HD530, dafür aber meist mehr Basis und Boosttakt.
Und sind die billiger? Für uns nicht wirklich. Aldi zahl vielleicht etwas weniger.
UVP von Intel ist die gleiche:
http://ark.intel.com/de/compare/93277,88185
 
Crass Spektakel schrieb:
Intel zockt Poweruser mit integrierter Grafik ab.

Die Hälfte des i7-6700 Dies ist Grafik. Bei Iris Pro sinds sogar 70%. Das alles bezahlt der Käufer. Ja, richtig, von der 400 Euro CPU gehen 200 Euro für die Grafik drauf. Das ist praktisch der Preis einer massiv schnelleren Radeon 470.

Und jetzt mal ehrlich, wer einen i7 kauft der braucht

a) wenig Grafikleistung - da ist sogar die normale i7-Grafik völlig überdimensioniert, es würde eine Minimal-GPU mit 1-2 Shadern statt 24 (Standard) geschweigedenn 72 (Pro) völlig genügen.

b) grosse Leistung - da ist ein i7 einfach ein Witz. Sogar die Iris Pro erreicht nur einen Bruchteil der Leistung einer 100 Euro Grafikkarte. Oder anders gesagt, niemand ausser Intel fertigt so lahme Grafik für den PC.

Also weg mit dem Mist. Bitte i5 und i7 ohne Grafik und dafür entweder billiger oder mit mehr Kernen, Danke.

Na, das halte ich für etwas übertrieben, hast Du da irgendeine Quelle ?

Was mir an dem ganzen Design jedoch gar nicht gefällt ist, dass es beim Audio Playback über ASIO Aussetzer gibt. Zumindest wenn man zB in einem Lenovo T540P die interne Grafik verwendet. RME UFX Recording Interface (~€1950 mit anerkannt super Treibern) und Playback von Musik via Musicbee (unterstützt ASIO) = Knackser bei ASIO Buffersizes < 256 samples. Und zwar dann, wenn man mit Firefox eine Internet Seite mit Bildchen geladen hat und dann am Mausrad nur ein paar Zeilen hoch oder runterscrollt.

Wenn man Firefox über den dedizierten nVidia Grafikchip laufen läßt (das lässt sich ja zum Glück im Treiber einstellen, welche Apps mit der nVidia GPU betrieben werden sollen) dann hat man keine Probleme und man kann auch die niedrigste ASIO Buffersize von 48 samples einstellen.

Das zeigt recht deutlich, dass die intrgrierte Grafikeinheit und das zwischen CPU und GPU gesharte RAM vom Design her nicht der wahre Jakob sind. Für Office Anwendungen ist es sicherlich unerheblich, aber bei allem was Grafikperformance oder geringe Latenzen (Verfügbarkeit CPU) benötigt würde ich das eher skeptisch betrachten. Zumal eine GPU innerhalb einer CPU noch zusätzlich Wärme erzeugt. Es wäre mE vom Design her cleverer, wenn sich die Abwärme von CPU und GPU auf mehrere Chips verteilen.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben