News Arctic Sound: Details zu Intels diskreter GPU angeblich noch im Dezember

icetom schrieb:
Jetzt noch Desktop GPUs mit ImgTec Technik und wir haben wieder eine schöne Auswahl. :freaky:

Das bleibt leider Wunschdenken, außer einer bezahlt die Entwicklung.
 
swael schrieb:
Adaptive Sync ist Free Sync;)

Nein. Das ist nur ein hartnäckiges Missverständnis.

Free Sync nutzt Adaptive Sync um die Refreshs des Monitors zu kontrollieren, aber das ist halt nur eine standardisierte Schnittstelle bzw. ein Kommunikationsprotokoll zwischen Monitor und Grafikkarte. Zu Free Sync und jeder anderen, kompletten Lösung für dynamisch mit den FPS der GPU synchronisierte Monitor-Refreshraten gehört noch einiges mehr an Technik, die sich in den GPUs und den Treibern des jeweiligen GPU-Herstellers befindet.

Wenn Intel mit einer eigenen Technologie für dynamisch synchronsisierte Frameraten kommt, wird die hoffentlich/voraussichtlich mit den Monitoren kompatibel sein, die heute schon AMDs Free Sync unterstützen, weil beide die selbe Schnittstelle Adaptive Sync zum Ansprechen des Monitors nutzen. Aber es wird halt trotzdem nicht Free Sync sein. Intels Lösung wird anders heißen und im Detail auch anders funktionieren, weil sich Intels GPUs und Treiber von AMDs unterscheiden.

Adaptive Sync gibt es (in Notebookdisplays) übrigens schon einiges länger als AMDs Free Sync. Es kann auch für andere Anwendungen genutzt werden, als nur die Monitorrefreshrate dynamisch mit den FPS der GPUs zu synchronisieren. Zum Beispiel zum simplen Reduzieren der Refreshrate zwecks Energiesparen.
Und sogar Nvidia nutzt (mutmaßlich) Adaptive Sync für seine Mobil-Variante von G-Sync.
 
  • Gefällt mir
Reaktionen: psYcho-edgE
Frank schrieb:
Via Twitter hat Koduri erklärt, dass es am 11. Dezember allgemein um Intels Architekturen geht und nicht direkt um diskrete Grafiklösungen.

Schade, das wäre eine der (inwzischen) seltenen Gelegenheiten gewesen, wieder etwas mehr Detaileinsichten zu bekommen rund um GPU-Chips.
 
Herdware schrieb:
Nein. Das ist nur ein hartnäckiges Missverständnis.

Free Sync nutzt Adaptive Sync um die Refreshs des Monitors zu kontrollieren, aber das ist halt nur eine standardisierte Schnittstelle bzw. ein Kommunikationsprotokoll zwischen Monitor und Grafikkarte. Zu Free Sync und jeder anderen, kompletten Lösung für dynamisch mit den FPS der GPU synchronisierte Monitor-Refreshraten gehört noch einiges mehr an Technik, die sich in den GPUs und den Treibern des jeweiligen GPU-Herstellers befindet.

Wenn Intel mit einer eigenen Technologie für dynamisch synchronsisierte Frameraten kommt, wird die hoffentlich/voraussichtlich mit den Monitoren kompatibel sein, die heute schon AMDs Free Sync unterstützen, weil beide die selbe Schnittstelle Adaptive Sync zum Ansprechen des Monitors nutzen. Aber es wird halt trotzdem nicht Free Sync sein. Intels Lösung wird anders heißen und im Detail auch anders funktionieren, weil sich Intels GPUs und Treiber von AMDs unterscheiden.

Adaptive Sync gibt es (in Notebookdisplays) übrigens schon einiges länger als AMDs Free Sync. Es kann auch für andere Anwendungen genutzt werden, als nur die Monitorrefreshrate dynamisch mit den FPS der GPUs zu synchronisieren. Zum Beispiel zum simplen Reduzieren der Refreshrate zwecks Energiesparen.
Und sogar Nvidia nutzt (mutmaßlich) Adaptive Sync für seine Mobil-Variante von G-Sync.
Dann bekommt das Kind halt wieder einen anderen Namen, ist doch egal.
Wenn beide Hersteller die gleiche Schnittstelle nutzen, kann man seinen FreeSync-Monitor auch mit der Intel-Gpu nutzen.
Wie der Treiber dann heißt ist doch völlig Wumpe.
 
  • Gefällt mir
Reaktionen: Gaugaumera
Bei den Preisen am GPU Markt, auch wenn sie sich inzwischen etwas enspannt haben, kann man es ja mal versuchen. Wenn Ihnen was in eine Leistungsklasse einer 1050 gelingt halte ich einen Einstieg für durchaus machbar.
 
Cool Master schrieb:
Klar, es muss nicht mal eine super Graka werden. Ich denke eine Graka im Bereich 1060-1070 wäre für den Start schon mal extrem gut und ja, Intel sollte das Ding mal 1-2 Jahre laufen lassen und nicht wieder nach 3 Monaten alles einzustellen. Da aber mittlerweile so viel Talent von div. Unternehmen abgeworben wurde denke ich zeigen sie schon dass es ihnen ernst ist.


Ich bin gespannt. Wenn es Intel schafft, warum nicht. Ich denke tatsächlich bei den HPC Karten für Server werden sie auf dem Papier zumindest nicht weit hinter AMD / Nvidia sein. Was davon in Consumerkarten ankommt, mal schauen. Da wir die Karten wahrscheinlich erst 2020 zu Gesicht bekommen, sollten sie aber schon mehr Leistung als eine 1060 bringen, was dann wohl die Einstiegsklasse in etwa sein dürfte. Sie sollten 2020 schon mindestens die Leistung von Vega 64 / 1080 erreichen, um überhaupt als Gamingalternative wahrgenommen zu werden.

Das dürfte in 2020 wohl in etwa die Leistung der Mittelklasse sein.
 
XTR³M³ schrieb:
waren die nicht untereinander kompatibel? bzw. ist freesync nicht sogar adaptive sync?
Adaptive Sync ist eine halbfertige Basis, die der Monitor unterstützen kann indem er einen Scaler verbaut, der das kann. Das ist Bestandteil vom Display Port Standard und Lizenzfrei (für die Teilnehmer der DisplayPort-Gruppe).
FreeSync ist die finale und proprietäre Umsetzung für den Endkunden.

G-Sync nutzt nicht Monitore die nach dem adaptive Sync einen passenden Scaler verbaut haben sondern verkauft direkt am den Monitor Hersteller einen fertigen Scaler.

Intel kann jetzt, ähnlich FreeSync, eine fertige Umsetzung von Adaptive Sync anbieten und alle Monitore die Adaptive Sync bzw die fertige Komplettumsetzung AMD FreeSync unterstützen, können dann auch "Intel A-Sync", oder wie Intel die Umsetzung auch immer nennen mag.
 
Intel macht es sich einfach:
Es wird eine G3 xxxx geben. Eigentlich würde diese Grafikkarte völlig ausreichen, aber irgendwie will sie keiner.
Dann gibt es die G5 xxxxx, mit sehr gutem Preisleistungsverhältnis aber das ganze fühlt sich irgendwie beschnitten am im Vergleich zur neuen
G7 xxxx Grafikkarte. Diese hat nur minimal mehr Leistung aber dafür freigeschaltete Hardware Features, welche bei der G5 zwar vorhanden sind aber zur Differenzierung abgeschalten sind.
Und natürlich die G9 xxxx, das wird die absolute oberklopferturboaffent§$"§engeile Grafikkarte, leider benötigst du dazu ein neues Mainboard, da Intel mal eben den PCIe Sockel neu erfindet. Irgendeine Steuerleitung passt wohl nicht ins Schema...

Ab der G5 halbiert sich der Wohlfühfaktor für das Preisleistungsverhältnis.
Intel macht das schon...
 
  • Gefällt mir
Reaktionen: Dominicus1165
Also eigentlich dürfte es doch für Intel nicht unmöglich sein eine GPU mit ordentlicher Leistung rauszuhauen. Muss ja zum Einstieg keine Top-end Karte sein.
 
Shoryuken94 schrieb:
[...]Kann mir nicht vorstellen, dass Intel jetzt schon groß was zu einer ganz neuen Architektur zeigt. Also einfach mehr vom altbekannten.
[...]
Wird wohl wieder so ein Marketing Hypetag für Fans, Medien und Investoren. Dazu betont man mal wieder, dass man im Zeitplan liegt :)

So was in der Art würde ich auch erwarten, wobei wir gerade richtig spannende Zeiten haben, was die Design Vielfalt bei CPUs angeht. AWS bietet jetzt ARM Server an, AMD etabliert das Chiplet Design, ...

Kann ja sein, dass Intel doch noch die Geheimschublade gefunden hat und einen x86-64 kompatiblen Itanium 3 raushaut, oder man wirft im Zuge der ganzen Spectre & Meltdown Katastrophe HT über Bord und legt stattdessen durch die Bank 20% mehr Kerne drauf, oder man orientiert sich am bigLITTLE Design der ARM Prozessoren und bringt unterschiedliche Kerne auf einen Die, oder man integriert endlich das Wissen aus dem Altera Kauf und bringt FPGA Elemente in die CPUs.

Möglichkeiten gibt es da Viele. Über deren (Un)Sinn lässt sich streiten.
 
swael schrieb:
Dann bekommt das Kind halt wieder einen anderen Namen, ist doch egal.

Wie gesagt wird nicht nur der Name anders sein, sondern höchstwahrscheinlich auch, wie es im Detail funktioniert. Z.B. in welchem FPS-Bereich es funktioniert, wie es mit Latenzen oder möglichen Leistungsverlusten aussieht usw.
Intels Lösung könnte sich, von der monitorseitigen Kompatibilität abgesehen, ganz genauso von Free Sync unterscheiden, wie Nvidias G-Sync.

Alle auf Adaptive Sync aufsetztenden Lösungen einfach gleich zu setzen, wäre das selbe wie z.B. alle Monitore mit Displayport-Anschluss als gleich anzusehen, egal was für eine Panel-Technik sie verwenden.
 
Auf der Karte sind 8 x HD 620 drauf die sich um 4 GB DDR4 (genau, kein GDDR) RAM streiten und ein Pentium Silver N5000 an denen die gekoppelt sind und der versucht die Renderarbeit gerecht zu verteilen. An Ausgängen gibts 1 x VGA, 1 x DVI, und 1 x HDMI 1.4b (kein 2.0). :freak::D:lol:
 
Klosteinmann schrieb:
Nur baut Matrox schon länger keine eigenen GPUs mehr sondern verbaut AMD Chips. Aus deinem Link: "GPU: Cape Verde (GCN1)"

Die einzigen die im GPU Markt noch mitmischen könnten wären wohl PowerVR, aber denen fehlt das Geld für sowas (vor allem auch seit Apple eigene GPUs nutzt, hängen ja jetzt bei nem chinesischen Investor rum... mal schauen wie es weitergeht)
 
bigfudge13 schrieb:
Damit vermutlich nicht, deswegen habe ich ja geschrieben „einen auf AMD machen“. Intels Rolle als hochpreisiger (nahezu) Monopolist ist bei den Grakas schon an Nvidia vergeben.

wer weiß, vielleicht setzten Sie drauf das die "intel Fanboys" dann auch preise Zahlen die NV übertreffen sollte die Leistung stimmen.
 
Das scheint der Tagesplan zu sein. Sieht wohl schlecht aus für Consumerprodukte.

DtHzI4DWwAEcLc9[1].jpg
 
swael schrieb:
Dann bekommt das Kind halt wieder einen anderen Namen, ist doch egal.
Wenn beide Hersteller die gleiche Schnittstelle nutzen, kann man seinen FreeSync-Monitor auch mit der Intel-Gpu nutzen.
Wie der Treiber dann heißt ist doch völlig Wumpe.
Eben nicht zwangsweise. Beispiel: Intel und AMD verwenden adaptive Sync, der Moni soll HDR haben. Freesync 2 setzt HDR 400 vor raus, Intel aber sagen wir orientiert sich an Gsync und setzt HDR 1000 bei seinem Intel Sync HDR vorraus. Jetzt kauf ich mir einen Freesync 2 Monitor. Läuft an der AMD KArte mit Sync und HDR, bei Intel nicht, weil zumindest die Spezifikation für HDR nicht erreicht werden. Inwieweit Abwärtskompatibilitäten möglich sind, wird man sehen.
 
  • Gefällt mir
Reaktionen: Herdware
Benji18 schrieb:
wer weiß, vielleicht setzten Sie drauf das die "intel Fanboys" dann auch preise Zahlen die NV übertreffen sollte die Leistung stimmen.
Die Frage ist dann, ob der innere Intel Fanboy stärker ist als der innere Nvidia Fanboy :D
 
  • Gefällt mir
Reaktionen: Benji18
Müslimann schrieb:
Also eigentlich dürfte es doch für Intel nicht unmöglich sein eine GPU mit ordentlicher Leistung rauszuhauen. Muss ja zum Einstieg keine Top-end Karte sein.

Wenn das Projekt nicht durch die interne Firmenpolitik gegen die Wand gefahren wird sieht es mit Blick auf die Voraussetzungen ganz gut aus. Hier dürfte man inzwischen aus der Vergangenheit gelernt haben denn personell wurde einiges umgestellt und viel mit frischen Personal von außerhalb besetzt.

Eigene GPU Technologie ist bei Intel schon lange vorhanden und auch in Produkten am Markt. Die finanziellen und personellen Ressourcen um die GPU Sparte massiv zu skalieren hat man ebenfalls. Über die letzten 5-6 Jahre wurde das Unternehmen deutlich breiter aufgestellt und viel IP zugekauft welche auf die ein oder andere Art häufig auch GPU Technologie tangiert. Hinzu kommt das Intel ein dauerhaftes Nutzungsrecht für alle Nvidia GPU Patente welche bis 2017 eingereicht wurden besitzt. Das stammt aus dem ausgelaufenen Cross-licensing Abkommen mit Nvidia und hat schlappe $1,5. Mrd. gekostet.

Nvidia hat Intel damals bluten lassen (keine x86 Lizenz und keine Lizenz für Chipsätze auf LGAx bekommen). Gleichzeitig hat Intel mit den eigenen IGPs diverse Nvidia Patente verletzt. Die Einigung war entsprechend teuer für Intel. Aber man hat halt auch etwas bekommen und bei Nvidia ist man wohl nicht davon ausgegangen das Intel nochmal dGPUs entwickeln würde. Mit dem Geld von Intel konnte Nvidia AMD weiter abhängen (Investitionen in R&D sowie neue Geschäftsfelder). Mittel bis langfristig kann es sich aber noch als großer Fehler herausstellen. Intel kann eine GPU Architektur entwickeln und auf den Markt bringen welche sehr ähnlich zu Nvidias Pascal ist ohne Probleme zu bekommen.
 
Zuletzt bearbeitet:
@YforU 1.5Mrd halte ich bei Patentstreitigkeiten zwischen solchen Firmen für eine geringe Summe. Wie du schon hingewiesen hast, werden sie dafür auch einiges bekommen haben. Zumindest also nVidias Stand bis 2017, was bestimmt nicht wenig ist. Allerdings bin ich nicht so zuversichtlich, wenn es darum geht, daraus in kurzer Zeit eine konkurrenzfähige, universelle Plattform zu basteln. Wahrscheinlicher sind reine Rechenmonster, die in großen IT-Umgebungen eingesetzt werden können. Und genau das strebt doch Intel seit einiger Zeit an. Sie hatten angekündigt ihre Produktpalette im HPC-Bereich zu verbreitern. Optane und die FPGAs sind Anzeichen dafür.

Ob da irgendwas für einen Marktkampf mit AMD und nVidia übrig bleibt, wird man sehen müssen. Wie gesagt, ich meine das kurzfristig, was 2020 definitiv ist.
 
Es war eine außergerichtliche Einigung und die $1,5 Mrd. waren damals (2011) als das Abkommen geschlossen wurde für Nvidia sehr viel Geld. Entsprach ungefähr 2x dem Jahresgewinn von 2010. Seit dieser Zeit hat Intel ein Nutzungsrecht.

In kurzer Zeit ist relativ denn das GPU/HPC Projekt läuft bei Intel sicherlich schon seit über 3 Jahren. Um 2020 eine neue GPU Architektur auf den Markt bringen zu können muss das Design inzwischen nahezu fertig sein. Vermutlich hat man inzwischen auch schon einen kleinen Chip zur Validierung.
 
Zuletzt bearbeitet:
Zurück
Oben