News Auch für Spieler?: Intels erste diskrete GPU erscheint im Jahr 2020

Die Dinger werden sich, nur weil Intel drauf steht, besser verkaufen als die GPUs wo AMD drauf steht.
 
@SKu
Das glaube ich kaum. Ich habe noch nie jemanden sagen hören "Ui toll, den Rechner nehme ich, der hat eine Intel UHD 620..." :rolleyes:
 
Von iGPU ist auch keine Rede, sondern von den dGPUs.
Aber selbst die iGPUs sind praktisch. Nicht für das Spielen geeignet aber das System kann ohne dGPU weiterhin genutzt werden.
 
@SKu
Ja, nur hat die Intel iGPU keinen guten Ruf, da sie eben verhältnismäßig langsam ist. Letztes Jahr hat Intel sich ja sogar "Hilfe" bei AMD geholt und eine CPU mit Vega-Grafik angeboten, was für viele ja mehr oder weniger bereits ein Eingeständnis war, dass Intel bisher keine eigene vernünftige Grafik hat.

Ich glaube nicht, dass die Leute dann einfach blind zu einer dedizierten Grafik von Intel greifen, nur weil Intel drauf steht. Aber wir werden sehen ;)
 
Mustis schrieb:
Intel forscht seit weit über einem Jahrzehnt an einer dGPU. Von wegen kurzer Zeit. Wie naiv sind hier manche?
Er hat ja auch im ersten Satz geschrieben "nicht für Gamer".
Larrabee, welche mit 3 Jahren Verzögerung heraus kam, war auch eine dGPU und war nicht für Gaming... Und auch sonst kein großer Erfolg.

Vielleicht erstmal richtig lesen, bevor man andere als naiv abcancelt.
 
Die Leistung der iGPUs sind jetzt nicht so schlecht fürs Zocken, die Leistung der aktuellsten und schnellsten iGPUs sollten so bei einer GT 740 liegen.
Die iGPUs sind aber abgesehen von der Leistung nochmal deutlich im Vorteil als die kleinsten Fermi/Kepler karten da sie 4k bei 30/60 Hz können und jeden Aktuellen codec/encoder in sich tragen.
 
Häschen schrieb:
Die Gerüchte das Intel eine diskrete Grafikkarte macht haben auch erst begonnen seitdem bekannt ist das AMD mit Intel kooperiert. ( Intel CPU mit AMD Vega Graphics statt Intels iGPU )

Das ist definitiv falsch. Im Bereich Ray Tracing forscht INtel glaube ich seit 2007, an dGPU mit Sicherheit ähnlich lange. Erinnert sei hier nur an LArrabee. Sprich das ganze keimt bei Intel schon wesentlich länger als die Zusammenarbeit bei den iGPUs gibt. Es wäre auch reichlich schwachsinnig, diese Sparte abzugeben, da die Entwcilung oft genug parallel zu Computing Karten etc. verläuft und grade hier muss sich AMD nicht so vor Nvidia verstecken wie im High-end Bereich bei dGPUs. Im Prinzip ist dies der einzige Platz, wo AMD hinterherhinkt. Die Mittelklasse bedienen sie gut und man sollte nicht vergessen, dass im Grafikkartensegment bei AMD der gesamte Konsolenmarkt mit anhängend ist, wo AMD unangefochten Platzhirsch ist. DIe neuen Konsolenmodelle kommen in absehbarer Zeit, AMD wird sich dieses Geschäft ganz sicher nicht entgehen lassen.

Volkimann schrieb:
Larrabee, welche mit 3 Jahren Verzögerung heraus kam, war auch eine dGPU und war nicht für Gaming... Und auch sonst kein großer Erfolg.
Soweit ich mich erinnere, war Larrabee durchaus auch als Gamerkarte angedacht nur hat die Realität Intel damals eingeholt. Bzw. Nvidia und AMD Intels Pläne zunichte gemacht, da Intel zu weit hinterherhinkte. Man hat LArrabee dann eben "verwurstet, wo die mangelnde Leistung nicht so entscheidend war wie bei dGPUs. Allerdings forschte Intel zu diesem Zeitpunkt bereits an Ray Tracing und schon damals waren die enormen Vorteile von Ray Tracing im Rendering bekannt. Es würde mich ergo nicht wundern, dass man sich damals entschied, Ray Tracing soweit zu forcieren, dass man mit entsprechender Rechnenleistung dann in den Markt mit Ray Tracing einsteigt, wenn dies auch für Nvidia und AMD "Neuland" ist und man somit besser gleich ziehen kann. Quasi einen technischen Meilenstein abwartet, der einen Einstieg in das Segment leichter gestaltet.
Ich verweise dabei unter anderem auf diese News aus 2009: https://www.computerbase.de/2009-12/larrabee-als-consumer-grafikkarte-ist-geschichte/
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Hayda Ministral und Häschen
Raytracing um ein paar Spiegeleffekte auf ein von einem Rasterizer gerechnetes Bild zu legen ist eine Sache.

Wenn sie es mal hinbekommen das Bild einer aufwendigen Landschaft durch eine am Fenster hängende im Wind wehende Gardine durch Raytracing zu berechnen. DANN bin ich beeindruckt!

Ich drücke die Daumen, Intel!
 
  • Gefällt mir
Reaktionen: Rockstar85
Na wenn Intel schon Anfängt mit "World's First DX12 GPU" und "Worlds First Netflix 4K (wo Eindeutig GELD Geflossen ist um das Nutzen zu können)" dann is ... puh... dann wird da Demnächst wie bei 5G Momentan Ohne Bandagen gekämpft.
Intel und Marktmanipulierdende Machenschaften + Marktmanipulierende Public Relation ist so eine Sache...
Intel kann von Heute auf Morgen den Super "Steam Hardware Survey" Kippen den so viele ja als "100%" sehen!

Wie?
Sie machen es wie mit ihren Celeron,Pentium,i3, i5, i7...

Ganz einfache MarktPENETRATION!
Eine Gute GPU Bauen, und dann massssssiv Produzieren, Quasi den Markt Komplett Überschwemmen.
Das würde vielleicht mal 2-3 Quartale den Gewinn maßgeblich beeinflussen, aber der Umsatz... Puh ...

Intel könnte binnen 3 Jahren den Umsatz der GPU Sparte derart ausweiten, dass Nvidia's Umsätze mit GPU's Übertroffen werden würde!
Glaubt keiner Hm?
,
Was passiert aber wenn es nicht nur
1- RX560 2-RX570 3-RX580 4-Vega 56 5-Vega64
1-GTX*1030 2-GTX1030ddr3 3-1050 4-1050ti 5-1060 6-1070 7-1070ti 8-1080 9-1080ti 10-TitanV 11-TitanXYZ
sondern einfach
1-9110 2-9130 2-9140 3-4-5-6-7-8-9-10-11-12-13-14-15-16-17-18-19-20 gibt??

Sieht man doch Wundervoll an den Ganzen Modellen die Intel so hat?
G1820/G3450/G1850/G3460/G3320TE/G1820T/G3258/G3240/G3440/G3420T/i3-4170/i3-4170/i3-4130/3440T/i3-4350T/i3-4340/i5-4590/G3260

Oder einfacher...
Sockel 1150 (91-CPUs)
Sockel 1151 (131-CPUs) ->222 CPU Modell!!
Sockel AM4 (38-CPUs)

Ist doch Logisch dass Ich mehr Umsatz mache, wenn Ich "mehr" zu bieten habe?

Für jede kleine nuance an Takt, Speicher, Bandbreite, Feature, Cores einfach jeweils 1-2 verschiedene Modelle anbieten und Schon Überflügelt Intel den Markt!
"World's biggest GPU Seller" ... Schon klar mit 4000 Modellen pro Jahr?!?
 
Man macht doch mit mehr Modellen nicht automatisch mehr Umsatz. Was is das den für ne verquere Vorstellung? Oo
 
  • Gefällt mir
Reaktionen: Hayda Ministral und SaschaHa
Für mich eine handfeste Überraschung, dass Intel sich tatsächlich in die Niederungen von gaming consumer GPUs herablässt, wo die Margen nicht so dicke sein werden und wo ihnen dank eventueller Preiskämpfe ein sehr kostspieliger Markteintritt bevorstehen könnte.

Die scheinen demnach sehr überzeugt zu sein, sich dort zwischen nVidia und AMD noch einen Platz an der Sonne erstreiten zu können.

Da bin ich dann wirklich mal auf konkrete Produkte gespannt, ob Intel auch im HighEnd mitmischen will oder ob die nur auf die breite Masse abzielen.

Die nächste handfeste Überraschung wäre die, wenn sie es tatsächlich schaffen, sich vom Start weg mindestens in den Performanceregionen von AMD zu etablieren. Wenn sie in Sachen Performance sogar nVidia vom Thron stoßen, dann hätten wir sogar eine kleine Sensation.

Für uns Konsumenten in jedem Fall jetzt schon ein Gewinn. Ein dritter großer Player kann dem Markt nur gut tun und ich hoffe, dass Intel sich vom Start weg mit nVidia anlegen kann und anlegen wird.
 
Weil die Gerüchte über eine Intel Gaming GPU erst nach dem Vega-M Deal entstanden sind.
Vielleicht gibt AMD seine high-end grafikkarten sparte auch nicht auf, sondern produziert zusätzlich noch die Chips für Intel.
Aber wegen der Verfügbarkeit würde ich eher darauf tippen das AMD seine Grafikkarten für Spieler aufgibt.

Klar es gab immer wieder mal Gerüchte über eine Intel Grafikkarte aber das war immer ein ganz anderer zusammen Hang ( ging immer Richtung Server ).


Drei Mitbewerber im Grafikkarten Markt?
Zu schön um wahr zu sein
 
Zuletzt bearbeitet:
@Häschen

ja vielleicht. vielleicht arbeitet amd und intel gpu team zusammen und entwickeln eine gemeinsame gpu. das sind alles vermutungen.

ich finde es gut das intel auch an einer gpu arbeitet. kann nur von vorteil für die kunden sein. der gpu markt ist zur zeit sehr ruhig und nv entwickelt sich zu einem monopolisten der die preise diktiert.
 
Häschen schrieb:
Klar es gab immer wieder mal Gerüchte über eine Intel Grafikkarte aber das war immer ein ganz anderer zusammen Hang ( ging immer Richtung Server ).

Zuerst gab es Gerüchte das Intel nach dem Ende des Abkommens mit Nvidia (GPU Patente) ein neues mit AMD aushandelt. Das ist nicht passiert und die Ursache des Gerüchtes liegt darin begründet das diverse Analysten nicht verstanden haben das die Lizenzierung der Patente (von Nvidia) dauerhaft ist. Für Intel damit nicht die Notwendigkeit eines neuen Abkommens besteht (->Rechtssicherheit, GPU Patente).

Danach kam dann das Gerücht das Intel direkt GPU IP (in Form von Designs wie Polaris/Vega) von AMD lizenziert und in eigene SoCs integriert. War aber auch nicht korrekt denn Intel hat bei AMD schlichtweg ein Semi Custom Produkt (fertiger Chip) bestellt (wie es auch Sony, Microsoft und andere machen). Damit hat sich Intel bei dieser Generation die ganz großen Iris IGP Varianten gespart.

Die Entscheidung die großen Iris Varianten nicht mehr zu bringen/weiterzuentwickeln kann man nur in einem Zusammenhang sehen: Die Entwicklung einer neuen GPU Architektur und Produkten welche diese mittelfristig ersetzt. Macht damit keinen Sinn mehr hier Kapital zu versenken und für den Übergang kauft man einen Chip bei AMD zu um die Lücke solange zu füllen.
 
  • Gefällt mir
Reaktionen: Sun_set_1
Blutschlumpf schrieb:
Nicht nur das Ende.
Gehobener Mainstream: Vor ca. 10 Jahren hab ich ne damals aktuelle Radeon HD3850 für Region 150 Euro bekommen, die entspricht in Relation ner heutigen RX580 oder Vega56, die kosten das doppelte/dreifache.
Einstieg: Die günstigste Karte mit aktueller Architektur (also kein Rebrand von 5 Jahre alter Technik) ist die 1030, die fängt bei 70 Euro an. Ich kann mich durchaus noch an Entry-Karten (HD3450/4550/5550) Region 30-60 Euro erinnern. Heute bekommst du für 40 Euro ne GT 710 (Keppler, Technik von 2013) oder ne R5 230 (= HD 6450 rebrand, Technik von 2011).

Und was hat bitte die GeForce 8800gtx gekostet? Highend war schon immer teuer
 
YforU schrieb:

Genau Das. Womit viele, so zumindest mein Eindruck, ein Verständnisproblem haben:
AMD finanziell zu unterstützen (auch durch derartige Chip-Käufe), liegt sehr wohl in Intels sekundären Interessen.

Ohne dies genauer und umständlich zu erklären, die Erklärung mal kurz&knapp in Ruhrpottdeutsch:
Intel muss AMD am kacken halten, da ihnen sonst die Zerschlagung droht.

Somit widerstrebt der Zukauf vom AMD-GPUs in keinster Weise Intels primären Interessen. Hier geht’s ganz einfach darum, konkurrenzfähig zu bleiben bis die eigenen Chips da sind. Dass man AMD dabei Geld in den Rachen schmeißt, ist unter o.g. Gesichtspunkt weniger schlimm.

Ein Paradebeispiel dafür ist auch die seinerzeitige Finanzspritze von Microsoft an Apple Ende der 90er / 2000er. Ironie der Geschichte ist, dass Apple mit diesem Geld die iPod-Entwicklung finanzierte. Welche letztlich im iPhone resultierte und Apple damit wieder größer als Microsoft werden ließ.

In diesem Sinne: Go for it AMD ;)
 
Zuletzt bearbeitet:
Vega 56 & 64 waren 1 Jahr lang kaum lieferbar, es gab zudem fast keine custom Modelle.
Falls also AMD für Intel produziert und selbst noch High-end Chips braucht dann würde das niemals funktionieren.

Ich zu meinem teil glaube nicht das Intel einen eigenen Konkurrenzfähigen spiele Grafikchip produziert.

Man darf auch nicht vergessen das die gezeigte Render Grafikkarte im teaser sehr nach AMD ähnelt.
Von daher alter wein im neuen Schlauch.

AMD hat selbst gemerkt das sie kaum Grafikkarten absetzen, außer zum mining nutzt die eigentlich kaum jemand( übertrieben ausgedrückt ).
Wäre also ein logischer schritt ihre Produkte über Intels Namen zu verkaufen.


Wäre auch froh darüber das es bald drei Mitstreiter geben wird aber bis jetzt deutet alles darauf hin das Intel sicherlich keinen eigenen Spiele Grafikchip produziert.
 
Zuletzt bearbeitet:
Zurück
Oben