News Arctic Sound: Intels diskrete Grafikkarten starten nicht ab 200 Dollar

Der Nachbar schrieb:
@erazzed
Dann nutze mal bitte den VCE in XmediaRecode.;)
Funktionen bringen nichts, wenn sie in vielen Anwendungen nicht implementiert werden und intel Quick Sync schlug allein durch die hohe Marktpräsenz der intel IGP in der Software durch.
(P.S.:die neue Softwareversion scheint schon mal Teile des AMD VCE zu unterstützen.)

...

Naja, deine Aussage klang aber anders:
"Bei intel hat man Quick Sync in der CPU und AMD hat in der Zeit lange Meditationsreisen betrieben."

VCE gibt es auch schon ewig, dabei von "Meditationsreisen" zu sprechen ist etwas unpassend, oder? Warum es jedoch in vielen Multimedia-Anwendungen nicht vernünftig implementiert bzw. unterstützt wird - weiß ich nicht. Das liegt aber mMn. eher an den Entwicklern der Anwendungen...
 
  • Gefällt mir
Reaktionen: Der Nachbar
Teralios schrieb:
Ich habe auch nicht geschrieben, dass sie bei 0 Anfangen
Stimmt, aber du schriebst, dass sie Treiber für einige APIs entwickeln müssen und dass sie noch DX12-9 implementieren müssten. Da die Intel Grafikeinheiten das aber bereits alles können, weiß ich nicht worauf du hinaus wolltest.
 
tox1c90 schrieb:
Imho müssen sie da gar nichts mehr implementieren. Sie können ihre bereits guten Treiber nehmen und einfach eine GPU mit der 10fachen Leistung ihrer iGPUs reinstecken und der Laden läuft wie geschmiert.
Was mir wohl etwas an aktuellem Wissen bei Intel für den Treiber fehlt, das hast du vervielfacht an Naivität, was diese allgemeine Thematik angeht.

Wenn es SO einfach wäre, wie du es nun hier versuchst darzustellen, ist es für Intel am Ende nicht, denn wäre es so einfach, hätte Intel einfach ihre iGPU-Designs skalierne müssen, was sie aber wohl mit ihrer dGPU nicht machen werden.

Aktuell sind mir die Gerüchte und die Tatsachen, was dieses Thema angeht, viel zu vage und noch mal - ich habe mich da ein Stück weit schon korrigiert: Es kommt nicht darauf an, was sie alles an Features am Ende wirklich implementiert haben - und an der Stelle auch an dich @xexex : Am Ende ist entscheidend wie der Treiber damit umgeht und ob der Treiber gut genug ist den Murks von Entwicklern ggf. gerade zu biegen.

Feature-Checklisten sind eine tolle Sache, am Ende kann man daran aber nicht erkennen, ob die Features auch gut implementiert wurden. Dazu kommt aber auch, dass der Treiber auch aus mehreren Schichten besteht und hier ist am Ende auch die Schicht entscheidend, die die Hardware anspricht und nicht nur der Softwarepart der die API-Aufrufe entgegen nimmt. Man sieht es ja aktuell an Navi, dass dort Probleme auftreten, die man bei GCN eigentlich nicht mehr kannte.

Die Frage ist also jetzt auch: In wie weit unterscheidet sich die dGPU-Architektur von der iGPU-Architektur, was ist anders und dann ist die Frage: Worauf legt Koduri die Architektur aus, es hat ja ein Grund warum nVidia die HPC-Karten von den GPUs getrennt hat und nun auch AMD vorerst nun zwei Schienen fährt.

Hier wird bereits so getan, als hätte Intel bereits schon eine Highend-GPU veröffentlicht und sie würde mit nVidia und AMD den Boden aufwischen, dabei ist das Ding noch nicht mal auf dem Markt, sondern man hört nur Gerüchte und ein paar Interviews mit Koduri.

Klar Intel hat Geld wie Heu, nur Geld wie Heu nützt nichts, wenn die Expertise nicht vorhanden ist - erstaunlich wie viele von euch denken, dass man mit Geld alles lösen kann, gleichzeitig ist es auch traurig.

Intel hat jetzt den Kopf von Koduri, nur wie gut dieser wirklich ist, hat sich eigentlich noch nicht wirklich gezeigt, denn die Projekte, die er zu verantworten hatte waren in der Regel eher enttäuschend gewesen. Den besagten R300 hat ein andere zu verantworten.

Intel hat sich einmal auf die Nase gelegt mit einer dGPU, ein zweiter Versuch - Larrabee - hat sich als Fehlentwicklung erwiesen, weswegen man den Versuch der dGPU direkt aufgab und lieber nur im HPC-Markt ging, aber selbst da hat sich Larrabee als Sackgasse erwiesen.

Koduri soll nun eine neue Architektur entwickeltn, die sowohl HPC als auch dGPU abdeckt, er kann dabei zwar auf die iGPU-Entwicklung zurück greifen, die Frage ist aber in wie weit er es macht. Wenn es so einfach wäre, wie manche es hier opft hinstellen, dass man ja nur die iGPU hoch skallieren müsste, dann hätte das Intel bereits ohne Koduri tun können, aber anscheinend ist es nicht so einfach.

Als Randbemerkung und zum Abschluss: Ich finde es doch höchst interessant, dass so mancher Kommentator hier in entsprechenden Themen zu AMD immer sagt, dass man doch bitte realistisch bleiben solle, man doch tiefer stapeln solle, keine hohen Erwartungen schüren solle und man doch nicht so viel Vertrauen in AMD haben solle, gleichzeitig machen sie hier bei Intel all das, was man bei AMD bitte nicht machen darf.

Am Ende bleibt hier eigentlich nur zu sagen: Man wird abwarten müssen, was da auf uns zu kommt. Es kann gut sein, es kann aber genau so in die Hose gehen. Dieses blinde Vertrauen einiger in Intel ist aber - genau so wie gegenüber AMD oder nVidia - unangebracht.

r4yn3 schrieb:
Stimmt, aber du schriebst, dass sie Treiber für einige APIs entwickeln müssen und dass sie noch DX12-9 implementieren müssten. Da die Intel Grafikeinheiten das aber bereits alles können, weiß ich nicht worauf du hinaus wolltest.
Ich hab mich da auch missverständlich, nein - eigentlich hab ich mich da falsch ausgedrückt, weil ich es nicht komplizierter machen wollte, als nötig.

Treiber bestehen nicht nur aus dem Teil, der per Software die APIs unterstützt, sondern auch dem Teil, der die Hardware anspricht und dieser muss auch die ganzen Funktionen am Ende entsprechend ansprechen und wenn es da zu Problemen kommt, dann wird es eben unschön.

AMD gab es ja die DX9.0 Probleme bei GCN kurzzeitig und das zeigt halt eben auch, wie anfällig Treiber sein können für Fehler in einem ihrer beiden Hauptbestandteile.

Hoffe es ist etwas klarer.




Summerbreeze schrieb:
Wenn ich in "meiner" Firma jemanden zum Chefkonstrukteur oder was auch immer in sehr hoher leitender Position mache, (also direkt und einzig der GL unterstellt) dann kommt in den Vertrag eine Klausel zu welchen, oder welcher Art Wettbewerber er nicht / nur nach einer Karenzzeit von X Monaten wechseln darf.
Dies wird sich natürlich auch spürbar auf das Gehalt auswirken. Mit dem höheren Gehalt sind entsprechende potentielle Nachteile dann idR ausreichend abgegolten.
Ich habe dir sehr genau dargelegt, welche Anforderungen an ein nachträgliches Wettbewerbsverbot in Deutschland und auch in den USA gelegt werden. Für dich deswegen noch mal in Kurzfassung:

Solche Sperrklausen können sowohl in den USA als auch in Deutschland in einen Arbeitsvertrag hinein geschrieben werden, dass man nach Beendigung der Beschäftigung beim Arbeitgeber A für eine bestimmte Zeit nicht bei einem Konkurrenzen arbeiten darf. Diese Klauseln werden, besser wurden regelmäßig in Kalifornien einkassiert, weil sie den Arbeitnehmer unverhältnismäßig benachteiligen.

In Deutschland ist so eine Sperrzeit an eine Karrenzzahlung gekoppelt die mindestens 50% des letzten Gehaltes pro Montag entsprechen muss und genau da ist das Problem in den USA - besser Kalifornien und andere Bundesstaaten. Dort gibt es zwar in vielen Arbeitsverträgen entsprechende Sperrklauseln, diese enthalten aber oft keine Entschädigungszahlungen usw. und sind sehr einseitig zum Nachteil des Arbeitnehmers, was sie oft dann unwirksam macht.

Was du nun hier behauptest, dass ja das höhere Gehalt die Sperrklauseln hinreichend abgelte, ist Bullshit! Ganz ehrlich: Beschäftige dich mit der Rechtslage in den USA und auch in Deutschland.

Hier mal zwei Beiträge für dich:
https://www.lto.de/recht/hintergrue...erbsverbot-arbeitnehmer-karenzentschaedigung/
https://de.wikipedia.org/wiki/Wettbewerbsverbot

Im übrigen gab es diese Diskussionen bereits sehr oft hier, du kannst auch gerne hier mal nachlesen.

Grundlegend: Ja solche Klauseln sind möglich, oft scheitern sie aber an der einseitigen Benachteiligung des Arbeitnehmers.
 
  • Gefällt mir
Reaktionen: Wesir
xexex schrieb:
Der Launch der Desktop-CPUs in 10nm, wird dann erst vollzogen, sobald man die GPUs in 7nm fertigt.

Ich glaub ich hab den Grund der Verwirrung gefunden. So wie oben geschrieben ergibt's natürlich Sinn.
Zitat von xexex:
Daraus ergibt sich letztlich ein simple Logik, die GPUs kommen im kommenden Jahr in 10nm und sobald die Produktion dieser in 2021 auf 7nm umgestellt wurde, werden die Produktionsstraßen dann frei für Desktop-GPUs.
 
  • Gefällt mir
Reaktionen: xexex
Teralios schrieb:
Wenn es so einfach wäre, wie manche es hier opft hinstellen, dass man ja nur die iGPU hoch skallieren müsste, dann hätte das Intel bereits ohne Koduri tun können, aber anscheinend ist es nicht so einfach.

Ich glaube niemand hat behauptet das dies einfach wäre, es ist aber auch nicht so, also würde Intel hier in einen komplett neuen Markt ohne jegliche Patente und Wissen einsteigen.

Sie sind seit Jahren in diesem Markt, kennen DirectX und Vulkan, haben Treiber für Windows, Mac und Linux, unterstützen sämtliche Mediencodecs, sind derzeit sogar die einzigen die Integer Scaling unterstützen, haben Miracast und diverse anderen Standards mitentwickelt und haben auch eine Datenbank mit Settings für viele Spiele, also kennen sie sowohl die Spieleengines als deren Anforderungen und Probleme. Zu guter Letzt dürften die Intel Lösungen in einer größeren Anzahl Geräte die primäre Grafiklösung darstellen, als es bei Nvidia und AMD zusammen der Fall ist.

Daraus ergibt sich, dass die neue GPU Lösung ungefähr so viel Aufwand an Implementierung benötigt, wie es bei AMD oder Nvidia mit einer neuen GPU Generation der Fall ist und bei weitem nicht einem kompletten Neueinstieg in unbekannte Gewässer entspricht. Die Patente, das Wissen und die Erfahrungen sind da und zusätzliches Wissen hat man dazu gekauft, der Rest dürften lösbare Hürden sein, wie es sie auch bei AMD und Nvidia gibt.

Teralios schrieb:
Intel hat sich einmal auf die Nase gelegt mit einer dGPU, ein zweiter Versuch - Larrabee - hat sich als Fehlentwicklung erwiesen, weswegen man den Versuch der dGPU direkt aufgab und lieber nur im HPC-Markt ging, aber selbst da hat sich Larrabee als Sackgasse erwiesen.

Das "Problem" war doch etwas komplexer und man hat da den GP-GPU Markt etwas falsch eingeschätzt, auch der Cell Prozessor, hat einen ähnliche Entwicklung miterleben müssen obwohl der sogar in die Playstation geschafft hat.
https://en.wikipedia.org/wiki/Larrabee_(microarchitecture)

Am Ende hat damals aber auch die Fertigung nicht mitgemacht und die Anzahl der Kerne ließ sich nicht wie gewünscht skalieren, weshalb man nun auch auf Foveros und EMIB zurückgreifen wird und die Lösungen auch mehreren Dies zusammensetzen wird.
 
T3rm1 schrieb:
Warum genau soll "ab 200 €" nicht mit HBM2 zusammenpassen? Die Vega 56 gibt es regelmäßig um die 230 € zu haben.

Das sind aber eher Restbestände bzw. Abverkauf der Vega.

200€ um die Entwicklungskosten, Herstellung und Vertrieb von Arctic Sound abzudecken halte ich für sehr knapp. Auch wenn, wie hier schon vermutet, Intel ein Verlustgeschäft fährt um erstmal Marktanteile zu gewinnen, ist wohl eher mit ca. 250€ beim Launch zu rechnen. Was, wenn die Leistung stimmt, ja auch schon klasse wäre!
 
mkdr schrieb:
Jetzt sieht man ja, wer den HBM Mist bei AMD verbrochen hatte und bei Intel macht er das nun genauso. HBM ist ein Holzweg.
Wow. Woher wissen Sie das alles? Und mit was verdienen Sie Ihr Geld?

Nich böse gemeint, aber Herr Koduri wie auch der Intel Vorstand inklusive ihrer Mitarbeiterstäbe verdienen in einem Jahr vermutlich mehr als alle Forum Nutzer zusammen in einer Stunde.

Das soll nicht heißen das Ihre Einschätzung vollkommen frei von irgenwelchen Fehler sein. Ganz und gar nicht. Aber, damit ich beurteilen kann was falsch oder richtig ist, müsste ich doch zumindest einen gewissen Plan darüber haben was überhaupt auch geplant ist. Und bis jetzt wissen wir nur das eine GPU auf den Markt kommen soll die HBM als Grafikspeicher nutzt und von der es auch ableger im Consumentenbereich erscheinen soll. Genausowenig kann ich beurteilen ob und an was HBM gescheitert ist. Selbst bei der Vega sickerte ja durch das sie vielleicht nur deshalb so hinter den Erwartungen steckte weil man fast alle Resurcen auf Navi focierte.

Aber ob sich so etwas lohnt oder auch nicht, das zu beruteilen entzieht sich mir jeglicher Befähigung. Weil ich ich weder in der Branche arbeite. Noch über alle notwendigen Informationen verfüge. Nur weil AMD damit gescheitet ist, heißt es ja nicht automatisch das auch Intel daran scheitert. Und selbst wen Intel wie auch AMD daran scheitert, heißt es ja nicht automatisch das ausschließlich HBM dafür verantwortlich ist. Auch nVidia nutzt HBM Speicher. Nur noch nicht in allen Produkten. Ob sich das lohnt hängt wohl davon ab, ob auch in Zukunft Produkte von nVidia mit HBM erscheinen werden. Aber so grundssätzlich Sinnlos scheint der Speicher nicht zu sein, wen ihn auch der Marktführer verwendet.

Vielleicht ist ja HBM wirklich eine Fehlentwicklung! Wäre nicht die erste Speichertechnologie die sich nicht auf dem Massenmarkt durchsetzen kann. Doch denke ich schon das Intel zumindest die Mittel hat um das mögtlich gut zu beurteilen. Natürlich können auch Sie irren. Sie sind ja auch schon oft im GPU Bereich auf die Nase gefallen. Aber das HBM Grundsäztlich ein Holzweg sei, das hätte ich halt gerne näher begründet.
 
  • Gefällt mir
Reaktionen: Hayda Ministral
lynx007 schrieb:
Aber das HBM Grundsäztlich ein Holzweg sei, das hätte ich halt gerne näher begründet.

Ist es nicht und einer der wichtigsten Gründe wieso HBM teurer ist/war, wird wunderbar bei Wikipedia erläutert.
The larger number of connections to the memory, relative to DDR4 or GDDR5, required a new method of connecting the HBM memory to the GPU (or other processor).[10] AMD and Nvidia have both used purpose-built silicon chips, called interposers, to connect the memory and GPU. This interposer has the added advantage of requiring the memory and processor to be physically close, decreasing memory paths. However, as semiconductor device fabrication is significantly more expensive than printed circuit board manufacture, this adds cost to the final product.
https://en.wikipedia.org/wiki/High_Bandwidth_Memory

Wer jetzt nicht nur trollt, eins und eins zusammenrechnen kann und mitbekommen hat, woran Intel gerade arbeitet, dürfte seine Rückschlüsse ziehen können, wieso Intel darauf setzt.
https://www.computerbase.de/2019-07/semicon-west-intel-neue-packaging-technologien/

Im Gegensatz zu Nvidia und AMD wird Intel Foveros und EMIB dazu verwenden um HBM zusammen mit den GPUs einzusetzen und wird damit sowohl kompakte Lösungen für den Mobile Bereich realisieren, als auch weniger kompakte für Server und dGPUs. Hier profitiert Intel davon, dass die die Fertigung selbst in der Hand haben und bei Bedarf auch den HBM Speicher selbst herstellen könnten. Erfahrungen damit haben sie ja bereits gesammelt, nur die passende GPU Einheit hat noch gefehlt.
807060
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lynx007
Hayda Ministral schrieb:
AMD und NV haben Foveros und EMIB nicht zur Verfügung, verwenden aber sehr wohl HBM.

Vollkommen richtig, was aber dazu führt, dass die Kosten für den Einsatz von HBM bisher hoch waren und sich nur bei teuren Grafiklösungen durchsetzen konnten. Ganz alleine stand AMD bei der Entwicklung von HBM sowieso nicht da.
The development of High Bandwidth Memory began at AMD in 2008 to solve the problem of ever-increasing power usage and form factor of computer memory. Over the next several years, AMD developed procedures to solve die-stacking problems with a team led by Senior AMD Fellow Bryan Black.[23] To help AMD realize their vision of HBM, they enlisted partners from the memory industry, particularly SK Hynix,[23] which had prior experience with 3D-stacked memory,[21][2] as well as partners from the interposer industry (UMC) and packaging industry (Amkor Technology and ASE).[23]

Die Frage wird sein, kann Intel die Kosten für den Einsatz von HBM soweit senken, dass sich der Einsatz auch bei Desktop-GPUs lohnen wird? Sie arbeiten zumindest daran und wie es aussieht haben sie auch vor überall HBM einzusetzen.
 
Beweis durch Behauptung? Oder hast Du Zahlen für die Kosten von Interposer vs. EMIB zur Verfügung?
Alternativ: Welchen Aufpreis durch EMIB vs. Aufpreis durch Interposer nimmst Du an? Ich komme gaaanz grob überschlagen auf +30€ durch den Interposer. (Ausgehend von Vega56 und Preisdifferenz 2600 vs. 3600)
 
Zuletzt bearbeitet:
Hayda Ministral schrieb:
Beweis durch Behauptung?

Beweis durch den Artikel und bereits bekannten Informationen? Das Intel die Grafikkarten mit HBM ausstatten wird, ist so gut wie sicher. Das Intel an Foveros und EMIB arbeitet und es überall vorzeigt ebenfalls. Zu guter Letzt setzt Intel bereits auf so eine Lösung und kombiniert eine Intel CPU, AMD GPU und HBM Speicher, die Grafik dazu habe ich ja bereits gepostet.

Intel has distributed a video showing how EMIB, Co-EMIB, and Foveros can be combined to create a single product. As a refresher, EMIB is a very small interposer layer embedded in a substrate. This layer connects to two PHYs and provides the same type of physical connection as an HBM interposer at a fraction the cost. EMIB is said to cost 0.3 picojoules (pJ)/bit of data transferred. Foveros, which allows Intel to stack chips in 3D face-to-face stacks, allowing for higher density scaling and even thinner bump pitches. Power cost for transferring data via Foveros is said to be even smaller than EMIB, at 0.15pJ/bit. Co-EMIB combines Foveros and EMIB in the same technology and deployed as part of the same design.
 
xexex schrieb:
Ist es nicht und einer der wichtigsten Gründe wieso HBM teurer ist/war, wird wunderbar bei Wikipedia erläutert.


Wer jetzt nicht nur trollt, eins und eins zusammenrechnen kann und mitbekommen hat, woran Intel gerade arbeitet, dürfte seine Rückschlüsse ziehen können, wieso Intel darauf setzt.
https://www.computerbase.de/2019-07/semicon-west-intel-neue-packaging-technologien/

Im Gegensatz zu Nvidia und AMD wird Intel Foveros und EMIB dazu verwenden um HBM zusammen mit den GPUs einzusetzen und wird damit sowohl kompakte Lösungen für den Mobile Bereich realisieren, als auch weniger kompakte für Server und dGPUs. Hier profitiert Intel davon, dass die die Fertigung selbst in der Hand haben und bei Bedarf auch den HBM Speicher selbst herstellen könnten. Erfahrungen damit haben sie ja bereits gesammelt, nur die passende GPU Einheit hat noch gefehlt.
Anhang anzeigen 807060
xexex schrieb:
Ist es nicht und einer der wichtigsten Gründe wieso HBM teurer ist/war, wird wunderbar bei Wikipedia erläutert.


Wer jetzt nicht nur trollt, eins und eins zusammenrechnen kann und mitbekommen hat, woran Intel gerade arbeitet, dürfte seine Rückschlüsse ziehen können, wieso Intel darauf setzt.
https://www.computerbase.de/2019-07/semicon-west-intel-neue-packaging-technologien/

Im Gegensatz zu Nvidia und AMD wird Intel Foveros und EMIB dazu verwenden um HBM zusammen mit den GPUs einzusetzen und wird damit sowohl kompakte Lösungen für den Mobile Bereich realisieren, als auch weniger kompakte für Server und dGPUs. Hier profitiert Intel davon, dass die die Fertigung selbst in der Hand haben und bei Bedarf auch den HBM Speicher selbst herstellen könnten. Erfahrungen damit haben sie ja bereits gesammelt, nur die passende GPU Einheit hat noch gefehlt.
Anhang anzeigen 807060

Die Lösung von Intel, co-embid, soll im vergleich zum 2.5D Interposer, auch noch günstiger sein. Sprich den Nachteil den HBM laut wiki gehabt hat, gibt es vermutlich ab spätestens der zukünftigen GPU Lösungen von Intel gar nicht mehr. Sprich der Holzweg wäre viel mehr mit veraltete Technologien konkurieren zu wollen. Auch die zukünftigen CPUs sollen mehr und mehr auf Chiplet Technologien zusammensetzen. Es ergibt also überaupt keinen Sinn bei den neuen von Intel geplanten GPUs nicht auf HBM zu sezten. Ganz im Gegenteil, um so mehr Intel auf eigene Fertigungstechnologien und Infrastrukturen setzen kann, um so günstiger und rentabler wird es auch.

Daher, das Kodori zu Intel gewechselt ist, ist vermutlich weniger einem Fehler geschuldetet, als viel der Tatsache das Chipletdesign in den nächsten Jahren mehr und mehr der neue Standart werden dürfte und Kodori dank seiner erfahrung einfach die richtige Wahl sei.
 
Zuletzt bearbeitet:
xexex schrieb:
Beweis durch den Artikel und bereits bekannten Informationen? Das Intel die Grafikkarten mit HBM ausstatten wird, ist so gut wie sicher.

Das bezweifle ich nicht. Mir ging es um die geringeren Kosten die Du im Vergleich zu Interposer annimmst. Was ich aus Deiner Antwort auf meinen Einwand heraus, das AMD und NV Interposer verwenden, interpretiere. Ok, offenbar habe ich zu frei interpretiert. Nix für ungut.
 
Hayda Ministral schrieb:
Mir ging es um die geringeren Kosten die Du im Vergleich zu Interposer annimmst.

Das ist nicht meine Annahme sondern Ziel der Entwicklung von Co-EMIB und Foveros. Siehe dazu mein Edit.
 
Zuletzt bearbeitet:
„Not everybody will buy a $500-$600 card“ - vollkommen richtig.
 
  • Gefällt mir
Reaktionen: itm
Hayda Ministral schrieb:
Nullaussage. AMD und NV haben Foveros und EMIB nicht zur Verfügung, verwenden aber sehr wohl HBM.
Das ist richtig. Aber das macht HBM ja auch so teuer. Mit Co-Emib sollen ja angeblich günstigerer Lösung als 2.5D der Mitbewerber möglich sein.
Ergänzung ()

Hayda Ministral schrieb:
Beweis durch Behauptung? Oder hast Du Zahlen für die Kosten von Interposer vs. EMIB zur Verfügung?
Alternativ: Welchen Aufpreis durch EMIB vs. Aufpreis durch Interposer nimmst Du an? Ich komme gaaanz grob überschlagen auf +30€ durch den Interposer. (Ausgehend von Vega56 und Preisdifferenz 2600 vs. 3600)
Das behauptet Intel bis jetzt. Wenn sie co-emib als günstiger Bewerben, dürfte daran vielleicht auch etwas daran sein. Betonung liegt auf "dürfte" und "vielleicht".

https://www.anandtech.com/show/14211/intels-interconnected-future-chipslets-emib-foveros
 
Zuletzt bearbeitet:
Und was genau soll jetzt das Statement sagen: Es gibt Leute, die 500-600$ für ne Graka ausgeben? Stimmt.
Und Intel will innerhalb von 2-3 Jahren alle Segmente abdecken wies scheint.
Aber das wars dann auch. Womit sie anfangem steht da nirgendwo explizit. Auch nicht, dass sie NICHTS für 200$ anbieten wollen.
 
erazzed schrieb:
Naja, deine Aussage klang aber anders:
"Bei intel hat man Quick Sync in der CPU und AMD hat in der Zeit lange Meditationsreisen betrieben."
Das stimmt, Quick Sync ist ein Bestandteil der intel CPU, selbst wenn die IGP nicht verwendet wird, was ja AMD so nicht implementiert hat. Bei den AMD APUs müsste ich mir die Schaltbilder anschauen, ob VCE eine Bestandteil der GPU oder der CPU, wobei ich eher auf GPU tippen würde.

Meditationsreisen bezieht frei übersetzt sich auf die ZEN Ryzen.

Wie dem auch sei, intel vereinfacht einfach durch die hohen Marktanteile den Entwicklern die Möglichkeit und langfristige Nutzungssicherheit für eine Implementierung und bei 20% Marktanteilen werden sich nur wenige Entwickler für AMD hinsetzen.

https://webcache.googleusercontent....ww.tomshw.de/2009/07/10/ati-stream-amd-gpgpu/

Die Begeisterung hält sich bis heute bei CUDA und ich habe noch eine AMD IGP mit ATi Stream Unterstützung auf dem Mainboard verbaut. Die Umsetzung ist noch mit dem letzten Treiber um 2013 einfach unbrauchbar.

Ich sage es mal so. Wenn es intel in Zukunft seine Grafikkartensparte vergleichbar mit nvidia hin bekommt, werde ich wenigstens zwischen intel und nvidia wählen können. Die VEGA habe ich aufgrund der Monitoranschlüsse gekauft. Da hätte auch eine Polaris bis 200€ gereicht. Wenngleich AMD wie ATi auch die etwas bessere Bildqualität bieten, wiegen die AMD Rohprodukte die Defizite nicht auf.

Ich habe nach einer Systemabschaltung durch einen Mischbelastunsgtest aufgrund eines provozierten Temperaturproblems den AMD Treiber neu installieren müssen, weil UVD/VCE nach Neustarts einfach streikten. K10STAT will seit dem AMD Grafiktreiberabsturz auch nicht mehr und nach einem Rollback auf einen älteren Adrenalin Treiber, der etwas zuverlässiger läuft muss ich den Adrenalin starten, damit die Fensteraufzeichnung funktioniert. Ich muss so oder so mal wieder das Betriebssystem neu aufsetzen, aber so empfindlich reagierte noch kein nvidia Grafikkartenbtreiber im laufenden Betrieb, selbst nach Fehlern. Was dann unmöglich ist, ist schon im AMD Hauptfenster einen Link auf die AMD Webseite zu haben und selbst wenn die Vorschläge deaktiviert sind, zeigt mir der Abdrenalin Treiber gerne mal an ich möge mal AMD chillen oder doch eher killen.

Die nvidia Treibereinstellungen wirken dagegen einfach fast schon professionell. Wenn intel da im Ansatz kopiert, machen sie das für den Anwender nutzbar und ich kann mich ja schon mit dem intel Proset Utility oder der AMD Overdrive Oberfläche besser anfreunden. Wattman stinkt sogar gegen den nvidiainspector ab und man kann sich die Frage stellen, warum AMD keine Entwickler beschäftigt die unkomplizierte UI programmieren dürfen. Besonder bei der VEGA reduziert es für den semi-pro Anwender sich überhaupt eien radeon pro anzuschaune, wenn ihm im Adrenalin Treiberhauptmenü Waffen, Drachen und Zombies gezeigt werden und die Menüauswahl auch noch zweigeteilt ist und AMD nicht mal in de Lage ist ein ordentliches Reitermenü anzubieten. Das kann sogar Creative Labs besser.
 
  • Gefällt mir
Reaktionen: erazzed
lynx007 schrieb:
Das ist richtig. Aber das macht HBM ja auch so teuer.

Wie teuer? Es ist sinnfrei wenn sich jeder gegenseitig darin bestätigt dass HMB teuer ist ohne dass auch nur einer die Preise kennt. Natürlich ist anzunehmen dass HBM selbst einen Aufpreis kostet. Nur ob der im Bereich von 1$-2$ pro Chip liegt oder im Bereich 10$-30$ pro Chip wie mancher anzunehmen scheint...macht doch einen erheblichen Unterschied. Das gleiche bei TSVund Interposer. Natürlich macht es die Sache teurer. Aber reden wir von 2$ mehr pro Interposer, von 20$ oder von 100$? Ohne die Zahlen oder wenigstens den Bereich zu kennen finde ich die Diskussionen ziemlich anstrengend.
 
Zurück
Oben