News Grafik-Patente: Intel und AMD angeblich in Lizenzgesprächen

roterhund07 schrieb:
Hä?
Andersrum wäre es doch cooler: Intel Prozzi mit AMD iGPU
Warum, die APUs sind doch Gurken. Die schnellsten Intel Iris Graphics schlagen jeden A10 mit Abstand.
 
pipip schrieb:
Aber ich vermute, es wird in erster Linie um HSA Geschichten gehen, denn Intel ist der HSA Geschichte sogar weit aus näher als NV. Letzteres führen shared virtuel Memory erst jetzt mit Pascal ein.
Es muss also in erster Linie gar nicht um die Grafikkarte-Architektur gehen, sondern es kann sehr gut um hUMA gehen.
Aus Hardwaresicht ist Intel schon seit Broadwell eleganter unterwegs, als AMD.
Shared Virtual Memory, Cache-Kohärenz usw. ist alles drin.
Zusätzlich genießt man bei Intel einen schönen LLC für CPU und GPU, aber das ist schon seit Sandy-Bridge, wenn auch damals noch primitiver, vorhanden.
 
Diablokiller999 schrieb:
Von der Architektur her jedenfalls nicht, sobald der eSRAM entfällt, der auch schweineteuer ist, liegt die GPU weit hinter den AMD-Lösungen. Intel schummelt sich mit teurem eSRAM um den Flaschenhals herum.

Wenn die Architektur nicht schnell wäre, dann würde auch der eSRAM nichts helfen! Intels GPU-Architektur ist sehr leistungsfähig und sowohl AMD als auch Nvidia können froh sein, dass Intel kein Interesse daran hat, dedizierte GPUs zu entwickeln.
 
Es ist nicht das selbe, denn Intel hat die CPU bisher immer per Ringbus integriert. Auch wenn die GPU Zugriff auf den L3 Cache hatte, ist das lange kein gemeinsamer Adressraum. Den ersten Schritt, per pointer Daten der andere Einheiten anzusprechen, Zero-copy (AMD) kam auch weit später in die Intel CPU Cores.
Es geht tatsächlich um den Fakt, dass ale Cores gleich berechtigt sind, Aufgaben anstoßen können und Daten im Arbeitsraum je nach Problem/Aufgabe in die zugehörige Unit geschoben werden kann. hUMA ist weiterhin etwas anderes als shared virtuell Memory. Aber ich begrüße es, wenn Intel da Mega aufholt und SoCs in Zukunft performanter wird. Da Samsung, Qualcom und Co bereits ihre HSA SoC vorgestellt hat, muss Intel da mit etwas vergleichbaren mitziehen.
 
Siemens-Nixdorf schrieb:
Warum, die APUs sind doch Gurken. Die schnellsten Intel Iris Graphics schlagen jeden A10 mit Abstand.

Du meinst die Iris Pro z.b. im i7-5775C? Der schlägt die A10er nur, weil diese im MI Limit liegen. Hätte der A10 7870K auch etwas edRAM verbaut wäre dieser wieder schneller als der i7 in Sachen iGPU.
 
@kisser

Intel Core i7-5775C Intel Iris Pro 6200
768 GFlops

AMD Kaveri A10-7850K GCN 1.1
737 GFlops

Hast recht. Intel hat sogar 4% mehr GFlops an Leistung. Und das bei nur 316% des Preises der APU.
Echt konkurrenzfähig.
 
Patente gegen Gleichberechtigung bei den OEMs + deren Vertriebswege. Wäre doch mal ein Verhandlungsansatz.
 
roterhund07 schrieb:
Du meinst die Iris Pro z.b. im i7-5775C? Der schlägt die A10er nur, weil diese im MI Limit liegen. Hätte der A10 7870K auch etwas edRAM verbaut wäre dieser wieder schneller...
Hat er aber nicht...
 
Als ob es so einfach wäre eine dedizierte GPU zu bauen. Hat Intel versucht ist mit Larrabee gescheitert konnte das know how aber anderweitig einsetzen.

Ein Beispiel für ne "APU" die leistungsmäßig (Grafik) alles in die Schatten stellt und nicht Bandbreitenlimitiert ist sind die Chips in PS4 und XBox one. Ohne das Bandbreitenlimit könnte Intel nicht mal an AMD schnuppern.
 
Dai6oro schrieb:
Als ob es so einfach wäre eine dedizierte GPU zu bauen.

Was soll daran schwer sein? Man lässt einfach den CPU-Teil weg und vervielfacht die GPU-Recheneinheiten. Ist mit Sicherheit einfacher, als eine GPU in eine CPU zu integrieren.
 
Aber klar doch, damit Intel die dann wie bei den Mehrkernprozis wieder über den Tisch ziehen kann! Wenn AMD dann wieder ausgelutscht wurde werden Sie wieder wie eine heiße Kartoffel fallen gelassen!
 
CCIBS

Das ist schön und gut, aber man sollte mal als Vergleich beide APUs(CPUs) ohne Edram nehmen und dann wird man sehen, dass die AMD und Intel APUs gleich schnell ins Limit laufen :rolleyes:

http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/2
viel interessanter :

Company AMD GCN Intel Gen7 Graphics NVIDIA Kepler
Building Block GCN Compute Unit Sub-Slice Kepler SMX
Shader Building Block 16-wide Vector SIMD 2 x 4-wide Vector SIMD 32-wide Vector SIMD
Smallest Implementation 4 SIMDs 10 SIMDs 6 SIMDs
Smallest Implementation (ALUs) 64 80 192

Der i5 5775c hat 48 EUs. Ein Sub-Slice mit 80 Alus soll 10 EUs sein. Somit sind das auch ca 386 ALUs(Shaders) und der Takt geht bis 1.15 GHz.
Im Vergleich der A10 7850k hat einen Takt von 720MHz. Das sind ca 37% weniger Takt, dafür hat der A10 512 Shader.
Somit ein AMD GPU mit 386 Shader und auch 1Ghz+ wäre vermutlich gleich schnell.

Der Große Unterschied, liegt eigentlich in der SIMD Breite. Im Endeffekt müsste die AMD GPU eine höhere Packdichte haben. Der Vorteil der Intel GPU könnte es aber sein, dass bei halbwegs guter Software Optimierung, die AMD GPU besser ausgelastet werden könnte.

Doch gehen wir mal davon aus, dass Intel eine sehr große GPU machen würde, Beispiel Mittelklasse oder Performance. Kann gut sein, dass die GPU dann doch bemerkbar größer ausfällt als bei NV oder AMD, speziell, wenn kein Fertigungsvorteil da wäre. Immerhin gibt es ja mehr Schaltungen, die nur für das Frontend da ist.
Ich sehe die Hersteller eher auf einem ähnlichen Niveau, und es eher auf die Anwendung und den Fall ankommt, wer nun die bessere Architektur hat. Was Games angeht, kommen wir ja jetzt auch noch zu DX12 und andere low level APis die ein besseres Multithreading haben und die Shader besser auslasten können. Dazu kommt noch Async Compute usw, was wieder ein vorteil für breitere SIMD Units ist.

Gespannt bin ich dann eben auf 2017. Da wird es hoffentlich AMD APUs und Intel "APUs" auch ohne eDRAM und HBM geben, sodass man die GPUs, beide in 14nm Finfet, vllt besser Vergleichen kann.

Wenn überhaupt, macht aber nur der direkte Verglich mit ALUs aus, denn ein Compute Core/Unit, könnte man auch als 1 AMD "EU" bezeichnen. Dann hätte der A10 nur 8 EUs :rolleyes:

Btw, korrigiert mich, wenn ich mich irre ^^

kisser schrieb:
Was soll daran schwer sein? Man lässt einfach den CPU-Teil weg und vervielfacht die GPU-Recheneinheiten. Ist mit Sicherheit einfacher, als eine GPU in eine CPU zu integrieren.

Denke nicht, dass das so einfach ist, wie du dir das vorstellst. Die Shader sollten ja auch gut ausgelastet werden und gut skalieren. Sieht man ja bei AMD ab Fijii und teils bei Hawaii sehr gut, dass unter DX12 mit Async Compute einige Shader erst ordentlich ausgelastet werden können. Bei kleineren GPUs, tritt der Effekt nicht so stark oder gar nicht auf.

Aber versteht mich nicht falsch, hätte nichts dagegen, wenn es Intel Grafikkarten gäbe. Mehr Konkurrenz wäre schon zu begrüßen.
 
Zuletzt bearbeitet:
kisser schrieb:
Was soll daran schwer sein? Man lässt einfach den CPU-Teil weg und vervielfacht die GPU-Recheneinheiten. Ist mit Sicherheit einfacher, als eine GPU in eine CPU zu integrieren.

kisser der GPU-Spezialist. Falls du es noch nicht wusstest:

Man kann nicht einfach so beliebig viele EUs, ALUs etc. dranklatschen und eine gute GPU bekommen, da ergeben sich andere Flaschenhälse, die man erst durch grundlegende Designänderungen umgehen kann. Intel kann dementsprechend mit ihrer bestehenden Architektur nicht einfach so eine GPU auf dem Leistungsgebiet von AMD oder nVidia basteln. Wenn man auch noch den Fertigungsvorteil einrechnet steht Intels GPU-Architektur nicht mehr besonders gut gegen GCN und Maxwell/Kepler da.

Aber Polemik ohne belastbare Quellen ist man ja allgemein von dir gewohnt. Wenn du einmal offizielle Links zu deinen Beiträgen bringen würdest, die deine Aussagen stützen wären sie nicht so lächerlich. Du bist dem ganzem Forum z.B. immer noch Beweise dafür schuldig, dass Mantle von DX12 geklaut hat ;) (Stimmt, das ist laut deiner Aussage "Insiderwissen", dass du als 0815-Forenschreiber natürlich besitzt.)
 
jbauer schrieb:
Naja, wenn Intel Hilfe für die Treiber suchen würde, wäre AMD wohl jetzt nicht die allererste Adresse :-)


Aktuell wahrscheinlich um einiges besser als nVidia...

PCGH schrieb:
17.03.2016 um 10:15 Uhr: Zahlreiche Nutzer beklagen sich über Stabilitätsprobleme mit dem aktuellen Geforce-Treiber 364.51 WHQL. Ohne erkennbaren Grund starten sich PCs neu, zeigen Blue- beziehungsweise Black-Screens oder frieren einfach ein. Aktuell scheint die einzige Lösung ein Wechsel auf einen älteren Treiber zu sein.
 
Was soll daran schwer sein? Man lässt einfach den CPU-Teil weg und vervielfacht die GPU-Recheneinheiten.

"Im Dezember 2009 verkündete Intel, dass zunächst keine Larrabee-Grafikkarten auf den Consumer-Markt gebracht werden. Als Gründe gab Intel an, dass Larrabee die Erwartungen sowohl im Software-, als auch im Hardwarebereich nicht erfüllt habe. Gleichzeitig führte man aus, dass für konkurrenzfähige Larrabeeprodukte ein ausgereifter 32-nm-Fertigungsprozess notwendig sei, was darauf hindeutet, dass die Leistungsaufnahme zu hoch gewesen sein muss oder/und die Taktraten zu niedrig waren. Im November 2009 führte Intel auf der Supercomputing-Messe einen übertakteten Larrabee mit einer Leistung von über einem Tera-FLOP vor. Allerdings wurden diese Leistungsbereiche schon im Sommer 2008 von der Radeon HD 4870 oder Geforce GTX 280 erreicht."

https://de.wikipedia.org/wiki/Larrabee_(GPU)

Wohl doch nicht so einfach ...
 
pipip schrieb:
CCIBS

Das ist schön und gut, aber man sollte mal als Vergleich beide APUs(CPUs) ohne Edram nehmen und dann wird man sehen, dass die AMD und Intel APUs gleich schnell ins Limit laufen :rolleyes:
Man vergleicht, was es auf dem Markt gibt. Wenn AMD das nicht bringt, ihr Problem. Da brauchst auch nicht mit den Augen rollen. Aber mir ist schon lange aufgefallen, dass du herablassen wirst, wenn die Argumente ausgehen, oder du auf Fakten, die dir nicht passen, nicht kontern kannst.

Aber für Leute wie dich gibt es ja auch ein mittel.
 
Zuletzt bearbeitet:
pipip schrieb:
Denke nicht, dass das so einfach ist, wie du dir vorstellst. Die Shader sollten ja auch gut ausgelastet werden und gut skalieren. Sieht man ja bei AMD ab Fijii und teils bei Hawaii sehr gut, dass unter DX12 mit Async Compute einige Shader erst ordentlich ausgelastet werden können. Bei kleineren GPUs, tritt der Effekt nicht so stark oder gar nicht auf.

Wenn man bereits eine fertige Lösung, also eine GPU hat, schon. Auch ein einzelner Shader ist nicht allzu komplex. Mit mehr Shader skaliert das recht linear. Entsprechende Benches skalieren hier ja nicht durch AC sondern da die Arbeit schön aufgeteilt werden kann. Was du ansprichst ist, wenn die Arbeit nicht linear aufgeteilt wird bzw. werden kann und gegen eine obere Schranke der Anzahl der Teilaufgaben läuft. Dann können Techniken wie AC helfen, aber nicht wenn das Problem sich eh schon immer weiter linear zerlegen lässt.

Die andere Seite der Medaille ist natürlich die Treiberunterstützung. Im Bereich Spiele muss man da schon einiges an Arbeit reinstecken und laufend Anpassung durchführen. Das sieht man ja schon bei dem massiven Aufwand was NV betreiben hat, um DX11 zu beschleunigen. Das sich das einer wie Intel komplett spart, weil eh fast nicht verwendet oder zu langsam, sollte klar sein. Deshalb ist hier auch die Entwicklung Richtung Spiele im Intel Treiber bei nahe null.

Dai6oro schrieb:

Man hat wohl erkannt, dass wenn man Enterprise statt Totenkopf darauf druckt, den 10fachen Preis verlangen kann ohne sich massiv in Treiberunterstützung für Spiele zu stürzen. Die Treiber hat man hier wohl unterschätzt. Wie man gesehen hat, mit großen Erfolg. Innerhalb weniger Jahre einen großen Marktanteil den anderen beiden abgejagt und das im Sprint und als Newcomer. Erfolgreicher hätte es mit dem Produkt kaum laufen können. Mit der KNL hat man jetzt beide Konkurrenten massiv abgehängt, da beide anderen immer noch ein Host benötigen.
 
Zuletzt bearbeitet:
Zurück
Oben