News A350M und A370M: Intel Arc startet im Notebook, Desktop-GPUs ab Sommer

BAR86 schrieb:
Schon DG1 war/ist im angeblich alten 10nm Prozess recht brauchbar. Weiß nicht, was genau dein Problem ist.
Wenn der 6nm Prozess von TSMC so viel besser sein soll (das muss sich erst zeigen), dann ist für ein Erstlingswerk die Basis gelegt.
Nix für Ungut mein Bester, aber diese Aussage von Dir grenzt schon an Realitätsverweigerung. Die DG1 war absolute Grütze, eine Grafikkarte zum fremdschämen und Intel hatte jeden Grund das Ding so spät zu bringen.

Die konnte auf den supertollen 10nm Superfin (oder was auch immer), auf Intel's 10nm (angebliches 7nm-TSMC-Äquivalent, was es nicht wirklich ist und auch nie wird) nicht einmal mit einer GT1030 mithalten, die eine volle Generation und Node-Shrink zurücklag auf (14nm). Die DG1 war trotz "besserer" Intel-Fertigung auf 10nm bei gleicher TDP langsamer als eine jahre alte GT1030 auf 14nm von NVidia.

Die DG1 verlor Mitte 2021 auf 10nm gegen eine Jahre alte Low-End-Grafikkarte-Karte von NVidia auf 14nm von Mitte 2017! Das ist katastrophal und einfach desaströs. Siehe meinen Beitrag hier, da hab ichs aufgeschlüsselt.

Die DG1 konnte trotz doppeltem Stromverbrauch gerade mit einer mobilen Vega 8-Grafik mithalten, die nur 15W benötigte und sich die TDP auch noch mit den CPU-Kernen teilen musste! Nein, die DG1 war ein absoluter Flop.

Bitte hör auf, bewiesene Fakten ins bessere Licht zu stellen und die Wahrheit zu verdrehen, das ist extrem unseriös und unprofessionell, weil sonst kann man Dich als Diskussionspartner einfach nicht ernst nehmen.

Man tut Gut darin, die DG1 als Kernschrott zu betiteln (TomsHardware Review: Intel Xe DG1 Benchmarked: Battle of the Weakling GPUs), weil genau das war sie im Kern. Einfach ein kapitaler Flop und Stromfresser für die gebotene Leistung als dedizierte Grafikkarte, die praktisch keinerlei Daseinsberechtigung hatte.

Nix für Ungut, aber wir alle müssen (wieder) lernen, Fakten als Fakten zu betrachten (und vor allen Dingen, die Emotionen aus dem Spiel zu lassen!). Und Fakt ist, die DG1 von Intel war schlicht ziemlicher (Bock-) Mist.

Da gibt es nix schönzureden, wenn Intel nach Jahren der Ankündigungen und Verschiebungen mit so einem Blödsinn um die Ecke kommt und alle wieder auf den Hype reinfallen. Damit tut man Keinem einen Gefallen. Sieht man ja jetzt auch wieder, war viel heiße Luft um nix. Umsonst gefreut und doch wieder enttäuscht.

.. udn es war wieder mal das Problem Software/Treiber, was das ganze nur noch verschlimmert hat (jetzt mal abgesehen von dem Quatsch, dass Intel die Karte auf ihrem prominenten 10nm-Fiasko aufgelegt hat.
10nm war für den hohen Stromverbrauch verantwortlich, die desolaten Treiber und Software für die Performance.


Wir haben jetzt auf 6nm absolute Vergleichbarkeit der Architekturen (AMD und Intel auf 6nm bei TSMC) und Intel hat noch immer massive Probleme gegen AMD's/NVidia's Low-End anzustinken und jetzt trotz gleicher Fertigung die Performance auf die Straße zu bringen.

Den Faktor Fertigung habens ausgeschaltet mit 6nm von TSMC, die Treiber sind aber noch immer absolute Software-Baustelle und das wird sich auch auf die Schnelle nicht ändern. Darauf können wir Jahre warten.

TechFA
 
  • Gefällt mir
Reaktionen: knoxxi, D708, andi_sco und eine weitere Person
af4 schrieb:
Wenn du auch an den Weihnachtsmann glaubst dann ja! ;)
meinte eigentlich Desktops mit integrierter GPU. Nicht als PCIe Karte im Gaming Bereich. Hier bleibt AMD bzw. NVidia auf jeden Fall führend.
Ergänzung ()

Für den normalen Gamer reicht auch die Geschwindigkeit der 3070 und vermutlich auch dann der ARC. Alleine schon das AMD / Nvidia Konkurrenz bekommt finde ich gut....
 
Zuletzt bearbeitet:
TechFA schrieb:
Und natürlich ist sie wieder nur für OEMs gedacht gewesen. Da niemand, der bei klarem Verstand ist, auch nur einen Cent dafür ausgeben möchte
Ganz blöd aus der Wäsche guck:evillol:

TechFA schrieb:
Die konnte nämlich (bei gleicher TDP) performance-mässig nicht einmal mit einer GT1030 mithalten (die sogar eine Node in der Fertigung hinterherhinkt (14nm), während die DG1 auf einem überlegenen 10nm-Node gefertigt wird). Die DG1 ist nur etwa gleich schnell wie eine Vega 8 (4800U), während sie die doppelte Leistungsaufnahme benötigt (30W), um mit einer Vega 8 bei 15W mithalten zu können (die ihre TDP sogar mit den CPU-Kernen teilen muss).
War der 4800U denn bei 15W gedeckelt?
@24784ds meint ja, das die DG1 mit 96 EUS bei 25W gedeckelt ist

TechFA schrieb:
.. udn es war wieder mal das Problem Software/Treiber, was das ganze nur noch verschlimmert hat
Ja, dafür das man Xe einen Performance Vorsprung gegenüber Vega nachgesagt hat, ist es wirklich nicht viel.
 
  • Gefällt mir
Reaktionen: TechFA
TechFA schrieb:
Nix für Ungut mein Bester, aber diese Aussage von Dir grenzt schon an Realitätsverweigerung. Die DG1 war absolute Grütze, eine Grafikkarte zum fremdschämen und Intel hatte jeden Grund das Ding so spät zu bringen.
Blablabla, den herablassenden Ton kannst du dir gerne sparen.
Ich zitiere aus dem einzigen mir bekannten deutschen Review. Es ist leider kein 08/15 Computerbase Forenuser, aber vielleicht hats doch bedeutung:
Auch wenn ich auf den vorangegangenen Seiten bereits ziemlich eindeutige Schlüsse gezogen habe, möchte ich das bisher Gezeigte und Beschriebe noch einmal kurz zusammenfassen. Ohne Treiber-Probleme und mit einer sauber funktionierenden Plattform ist diese Vorstufe zu Intels heiß erwarteten Arc-Karten durchaus bemerkenswert. Sicher, es ist eine Kleinst-Karte, die man eher im Office-Bereich verorten sollte, aber dafür hat sie in den Benchmarks eine Menge geleistet. Zumindest im Rahmen ihrer Möglichkeiten.
Quelle: https://www.igorslab.de/gunnir-iris...-die-suche-nach-dem-passenden-microcode-2/15/
Aber vielleicht ist @FormatC der bessere Gesprächspartner für deine Untergriffige Kommunikation

Nur weil es kein perfekter Grafikchip mit perfekten Treibern ist, ist es keine Grütze.
Aber wenn der Tellerrand nur 4K 144hz Gaming versteht, verstehe ich was du meinst. Ich spreche vom Potential, du von... ich weiß eigentlich gar nicht
Ergänzung ()

TechFA schrieb:
Den Faktor Fertigung habens ausgeschaltet mit 6nm von TSMC, die Treiber sind aber noch immer absolute Software-Baustelle und das wird sich auch auf die Schnelle nicht ändern. Darauf können wir Jahre warten.
Und weiter? Wer hat was anderes behauptet?
Ergänzung ()

DevPandi schrieb:
Nein, er ist nicht der Architekt, er ist aber Chef der Abteilung und damit dafür verantwortlich und gibt die Ziele vor und worauf man sich konzentriert.

Es ist schon irgendwie seltsam, wie du auf der einen Seite Koduri in Schutz nimmst, das er für Vega nichts kann usw. Gleichzeitig du ihm die Lorbeeren für Navi zu Schustern willst und jetzt wo sich etwas ähnliches abzeichnet, wieder bemühst, das er ja nichts dafür kann.

Irgendwie klassiches Fanboytum.
Lustig, wie immer gleich das "Fanboy" Argument kommt, nur weil ich ein wenig Realität in den Hass einstreue.
WENN Koduri der Bösewicht hinter Vega ist, ist er eben genauso der Gutmensch hinter Navi. Ist das so schwer zu verstehen? Für letzteres war er von Anfang an dabei, bei ersterem ist er im Laufe der Entwicklung dazu geholt worden.
Koduri wurde auch bei Intel erst im Laufe des Projektes dazu geholt und dazu zuallererst für die Softwareökonomie zuständig.
Auch hier wieder: sinnloser personenbezogener Angriff. Wenn man mit den Fakten die etwas Ratio in eine Diskussion hineinbringen sollen nicht klar kommt, dann ist man also gleich ein Fanboy.
Willst du also abstreiten, dass
Vega auf GCN basiert
GCN vor Koduri da war
es länger als 3 Jahre dauert eine Architektur von Grund auf zu entwickeln?
AMD damals kaum Geld hatte und mehrfach öffentlich kommuniziert hat, dass die Resourcen derzeit in Zen fließen?
Ergänzung ()

DevPandi schrieb:
Ach ja, und dafür hast du auch belege, dass es von Design bis zu Release aber MINDESTENS 5 Jahre dauert?
Ich kann dir nur sagen wie lange es bei weniger komplexen GPUs bei AMD gedauert hat, da wurden immer min 5 Jahre veranschlagt.
Bei CPUs ist das ebenso. Dazu findest du auch einige Artikel und Interviews. Viel Spaß
DevPandi schrieb:
Hier ist eine Firma, die es scheinbar in etwas weniger als 2 Jahren geschafft hat!
:D genau. wers glaubt. Bitte beschäftige dich mal mit Dem Design einer Architktur dieser größenordnung
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: whynot?
Wenn es bei Intel nicht klappt, können die ja nochmals Koffer wandern lassen.
Wobei, ich glaube Intel ist aus der damaligen Nummer noch nicht raus, wenn ich das richtig sehe.
Brussels appeals Intel antitrust case to top court

@BAR86
Es gibt keine verklärte Sicht auf Koduri. Koduri muss sich den Schuh selber anziehen. Ich kann mich noch sehr gut über seine persönlichen Aussagen zu Vega erinnern. Es wurden von ihm Dinge beschrieben, was die GPU alles können soll, welche bis heute nicht in Vega sind.
Und zu Jim Keller. Ich gehe so weit zu behaupten, wenn die Vorarbeit Mist gewesen wäre, hätte er es sicherlich erkannt und ZEN wäre nicht 2017 auf dem Markt gekommen. Zudem wird keiner von uns Wissen ob nicht er vor AMD Wiederbeitritt denen schon Denkanstöße gegeben hat in welcher Richtung die gehen sollten.
 
  • Gefällt mir
Reaktionen: TechFA
SSD960 schrieb:
Irgendwie hatte Intel nichts zu bieten. AMD und NVidia haben mehr Erfahrung mit Grafikkarten.
Vergiß nich, das Intel sich bislang einfach nich die Mühe machte und bei den iGPs nie viel Arbeit hatte, was fortschreitende Entwicklung angeht. Aber Intel ist keine Hinterhofklitsche.

Mag sein, das dieses erste Lineup erste Gehversuche werden, aber die werden ihre Hausaufgaben schon machen :)
 
  • Gefällt mir
Reaktionen: nazgul77
DevPandi schrieb:
Hier ist eine Firma, die es scheinbar in etwas weniger als 2 Jahren geschafft hat!
Die hier werkeln schon etwas länger dran und sind noch nicht am Ziel.


BAR86 schrieb:
Nur weil es kein perfekter Grafikchip mit perfekten Treibern ist, ist es keine Grütze.
Was als Erstes aufgefallen ist, sind die immer noch existierenden Treiber-Probleme mit bestimmten Titeln und Technologien. Das betrifft allerdings auch in gleichem Maße die zur Kontrolle mitgetestete UHD-770-Grafik des Intel Core i9-12900K.
 
BAR86 schrieb:
Im Markt war man, aber wie so oft ist das Projekt dann gecancelt worden. Die Atom-CPUs waren in der bekannten Ausführung dafür auch völlig ungeeignet und Android für x86 nicht optimiert (ein Henne-Ei Problem, das sich mit mehr Marktanteil gelöst hätte, aber dazu hätte Intel committen müssen).
Mit Verlaub, aber was Du schreibst ist einfach vollkommener Quatsch und fast schon Tatsachenverdrehung.

Ja, Atom war gänzlich ungeeignet, um gegen irgendwas ARM im mobilen Markt anzustinken.
Intel's x86 kann einfach kein Low-Power und erst recht kein Low-Power in Kombination mit Leistung, dafür ist die x86Architecktur einfach zu umständlich, altbacken und ineffizient.

Nein, Intel hat sehr wohl brutal "committed", fand sich dem Markt verpflichtet und war extrem engagiert.
Ansonsten hätte der Laden keine 10-12 Milliarden USD damals investiert. Intel hat ~12 Mrd. US$ in den Markt gepumpt, um ihre minderwertigen und wettbewerbs-untüchtigen Atoms gegen jeden Widerstand gegen die deutlich effizienteren ARMs in den Markt zu drücken. Das ist dann auch erwartungsgemäß nach hinten los gegangen.

Intel hat praktisch jeden Laden geschmiert "überredet" oder zumindest überreden wollen, ihre Atoms zu verbauen, indem sie den Markt (mal wieder) versucht haben hinterrücks über ihre heißgeliebten OEMs aufzurollen um so Qualcomm, MediaTek und andere Anbieter von ARM-Chips auszubooten, deren Umsätze zu zerstören und damit Konkurrenten aus dem Markt zu drängen und damit schlußendlich Konkurrenzsituationen zuvorderst zu vereiteln.

Um das zu erreichen hat Intel (auch, wieder mal!) wettbewerbswidrig ihre deutlich schlechteren Atoms nicht bloß zum Selbstkostenpreis verkauft, sondern darüber hinaus die OEMs und ODMs dafür unmittelbar mit massivsten Rabatten dafür bezahlt, damit sie diese verbauen um damit Wettbewerber direkt an der Quelle bei den OEMs auszustechen, den Markt wettbewerbstechnisch trocken zu legen und deren Umsätze zu vernichten.

Ihre Atoms hat Intel damals (wahrscheinlich wie heute) defakto zum horrenden Negativpreis verkauft, was bedeutet, das der "Käufer" aka Geschmierte (statt dafür zu bezahlen) auch noch Geld dafür, dass er die Chips abnahm. Jeder Atom ging quasi in einer hübsch dotierten Banknote über den Tisch zu den OEMs/ODMs.

Da sind offiziell +12 Miliarden von Intel's Gewinnen geblieben, mal wieder durch Querfinanziuerung von Xeon-Gewinnen. Geholfen hat es Niemandem, außer den OEMs, die sich daran eine goldene Nase verdient haben (solange es sie gab), und sonst Niemanden.

Geschadet hat es dem Markt, den Intel-Anleger (wessen Geld in Milliarden-Höhe Intel verbrannt hat) und zuguterletzt vor allem dem Endkunden, welcher schlechtere Hardware bekam mit kürzeren Laufzeiten und höherer Hitze-Entwicklung durch die Schrott-Atoms.

Glaubst Du noch oder weißt Du schon? Weil Glauben ist ein Mangel an Wissen. Und Wer nix weiß, muß alles glauben.

ExtremeTech: How Intel Lost $10 Billion and the Mobile Market
ExtremeTech: How Intel Lost the Mobile Market, Part 2: The Rise and Neglect of Atom

TechFA
 
  • Gefällt mir
Reaktionen: nazgul77 und Sam Miles
@TechFA
Jetzt hast du das ganz große Geschütz ausgepackt, aber ja es ist wahr, mit einer Abweichung.
Es war meines wissens nicht wettbewerbswridrig, da Intel kein Monpol war und dort quasi ein Niemand.
Da gelten dann andere Regeln um Wettbewerbern den Markteintritt zu erleichtern.
Wie man das findet ist Ansichtssache, aber ein Verstoß seitens Recht sah man wohl nicht.

DevPandi schrieb:
Hier ist eine Firma, die es scheinbar in etwas weniger als 2 Jahren geschafft hat!
Eine chinesische Grafikkarte, ja davon habe ich gelesen, wäre aber vorsichtig diese 2 Jahre für voll zu nehmen. Wobei es insofern stimmt das eine Entwicklung nicht einfach pauschal 5 Jahre dauert. Ein unerwarteter Fehler kann einem aber schnell 3-6 Monate kosten.

###

Der Markt ist inzwischen erbarmungslos.
Eine Karte welche der Konkurrenz nicht standhält wird schlicht nicht von Kunden gekauft.
Ein bisschen langsamer, ein bisschen mehr Verbrauch und schlechterer Treiber bei selben oder höheren Kosten (DIE size...). Heutzutage braucht man das nicht releasen.

Einzige Ausnahme ist derzeit wohl Mining und OEM.
Bei OEM hat sich Intel ein Monopol mit enormen Einstiegshürden zum Nachteil der Kunden gebaut.
Da braucht man also auch keine Koffer wird einfach inklusive Aufpreis durchgegeben. Kostet dann das Motherboard mit verlöteten Wifi, Ethernet, Thunderbolt, RAM und CPU halt nochmal 50$-150$ mehr.
 
TechFA schrieb:
höherer Hitze-Entwicklung
Microsoft und ein Snapdragon 808 im Handy: da hat man sich im Sommer schnell die Pfoten verbrannt
 
  • Gefällt mir
Reaktionen: TechFA
andi_sco schrieb:
Die hier werkeln schon etwas länger dran und sind noch nicht am Ziel
Na ja, da steht auch nicht wie lange sie wirklich aktuell gebraucht haben. Der Artikel ist von Juni 2021, gegründet wurde die Firma irgendwann Anfang-Mitte 2020 und natürlich können sie auch auf Know-How zurückgreifen.

Nur ändert das nichts an der Tatsache, dass die Aussage von BAR86 mit den mindestens 5 Jahren nicht richtig ist und es ist schon bezeichnend, dass er keine Quelle liefert, sondern einfach nur: JA da gibts Interviews von AMD wo das halt steht.

Ich weiß sogar glaub ich auf welches Interview er da anspielt, nur steht da nichts davon, dass ein neues* Design pauschal mal 5 und mehr Jahre benötigt. Es ging damals um die Frage, wie lange man für ein wirklich "vollständig" neues CPU-Design benötigt und da spricht man in der Regel - je nach Komplexität - von mindestens 3, in der Regel eher 5 Jahre. Wenn man eine bestehende Basis hat und auf dieser aufbauen kann, dann verkürzt sich diese Zeit entsprechend und man kann eher von 1,5 bis 2 Jahre ausgehen, bis das neue Produkt stehen kann.**

Wenn ich jetzt mal einige Journals durchgehe, die sich mit der Zeit befassen, dann dreht sich das ganze sogar noch mal etwas, weil man dann sogar unterscheidet, ob es jetzt wirklich um das Design der CPU/GPU geht und anschließend das Implementieren der Software, Fehlersuche und Co.

*Ich hab es schon angemerkt, hier ist es wichtig, was man als neues Design definiert. Wie ich schreibe: Fängt man bei 0 an, dann braucht man deutlich länger, wobei dann auch die Frage ist, ob man schon einige Bestandteile hat im Baukasten. Hat man ein bestehendes Design und verbessert dieses und schafft damit ein neues Design, dann hat das andere Herausforderungen, geht aber wesentlich schneller, weil man eben nicht alles evaluieren muss, sondern nur ein Teil.

**Auch das mit der Zeit ist so eine Sache. Man spricht bei diesen Zyklen nämlich durchaus von 6 bis 7 Phasen, die da zusammenhängen und die entscheidend sind, die auch die Zeit aufblähen und es kommt dann zu 2 oder eben auch 5 Jahren. Erst einmal muss das Konzept für eine CPU/GPU entworfen werden. Darauf aufbauend muss die eigentliche Logik entwickelt werden, diese wird dann in der Regel getestet - heute mit FPGA und Co - ab diesem Zeitpunkt kommen auch die Softwarejungs und -mädchen hinzu. Die Hardwarejungs gehen dann in das Hardwaredesign über und die Softwarejungs in die Bugsuche in der Software und sobald die erste Hardware da ist geht die Fehlersuche da wieder los und die Verbesserungen, die in FPGA noch mal getestet werden usw. Gerade die Phase Test und FPGA und neues Hardwaredesign und ebenso Software wiederholt sich ein paar mal.

Und auch da ist entscheidend: Hat man schon was und kann es anpassen oder startet man auch bei der Software von 0. Und das ist jetzt auch relevant: In den 3 - 5 Jahren, aber ebenso in den 1,5 - 2 Jahren (das sind im übrigen Durchschnittswerte, Abweichungen nach oben und unten möglich) steckt nicht nur die Arbeit an der Hardware, sondern auch an der Software. Da kommt jetzt auch ein Punkt, den BAR86 so überhaupt nicht beachtet, die aber seine pauschalen 5 Jahre stark schwächen. Gehen wir wirklich mal davon aus, dass die 5 Jahre zutreffen - wie gesagt, eigentlich gilt das "from Scratch" - dann wird in diesen 5 Jahren das Konzept erstellt, die Logik entworfen, die Logik getestet, angefangen, die Software zu entwickeln und am Ende steht ein vollständig fertiges Produkt - mal von ein paar Fehlern abgesehen. Teile dieser Arbeit kann nicht nebenbei laufen, mit der Software kann man anfangen, wenn die Logik halbwegs fertig ist und man die Software testen kann.

Schauen wir uns doch mal Vega an: Softwaretechnisch war Vega alles andere als fertig und gerade die Primitive-Shader wirken so, als ob die Softwareabteilung damals quasi noch in der Testphase war und man sich noch nicht mal sicher war, dass das so klappt. Wirkt unfertig. Gleiches für den HBCC und Co. Der ganze Treiber für Vega wirkte - bis auf den normalen GCN-Teil - unfertig oder war noch nicht mal entstanden und ich wiederhole: Die 5 Jahre werden bei vollständigen Neuentwicklungen für ALLES veranschlagt. Der HBCC kam als Beta, der Rest verschwand in der Versenkung. Man kann also hier durchaus auch annehmen, dass Raja 2013 (-2017 sind 4 Jahre) mit Vega angefangen hat und man Vega UNFERTIG, vor allem von Softwareseite, auf den Markt gebracht hat. Es ist durchaus möglich, dass er für Vega vollständig zuständig war. Man kann es nicht beweisen, man kann es nicht widerlegen***

RDNA1 - Navi - hat da ein ähnliches Problem, denn da war der Treiber 2019 auch alles andere als wirklich fertig, weil die Umstellung auf Wave32 noch nicht abgeschlossen war und der GCN-Treiber auch für Navi verwendet wurde und erst 2019 und 2020 der eigentlich finale Treiber für RDNA entwickelt wurde. Dazu halt die Aussagen aus verschiedenen Quellen, die ja von der einen Person partout ausgeblendet werden - RDNA soll auf Semi-Custom zurückgehen, nicht auf die Radeon-Technology-Group und dass man Raja seine Teammitglieder weggenommen hat. Geht man - was auch nicht unüblich ist von einer 50:50 Teilung aus und nimmt auch wieder die 5 Jahre und beachtet, dass die RDNA-Treiber eigentlich erst ab 2021 wirklich einen Stand erreicht haben, dass man von einem finalen Treiber für RDNA sprechen kann, dann hat Raja Navi (unter der Prämisse, dass das Gerücht mit der Semi-Custom-Group nicht stimmt - die Anfänge von Navi mit gemacht, vielleicht auch in die Wege geleitet, aber nur in der ersten Hälfte des Hardwareprozesses.***

Bitte jetzt nicht mit Folien kommen, wo dann ab 2011 Vega schon steht oder 2014 dann Navi und versuchen damit zu beweisen, dass Raja nichts für Vega kann, aber Navi ja eigentlich sein Baby war. Diese Marketing- und Investorfolien beweisen gar nichts. Teilweise werden Codenamen für solche Projekte quasi schon im Voraus gegeben, ohne das das Projekt bereits angefangen wurde!

*** Es gibt Indizien dafür, dass Vega Rajas Projekt war, es gibt Indizien dafür, dass es Navi war und es gibt Indizien, die dagegen sprechen. Man kann nichts beweisen, sondern nur versuchen, die Indizien zusammenzusetzen. Selbst wenn man von 5 Jahren ausgeht, hat man immer noch Indizien, die beide Ansichten stützen, nur gibt es mehr Indizien, dass Vega Rajas Projekt war und Navi nicht und das Navi sogar ohne hin entstanden ist - ich verweise auf den von mir verlinkten Artikel 2 - 3 Beiträge vorher.

Im Übrigen werde ich auf die Person nicht weiter eingehen, weil von dieser Person nur Behauptungen kommen, die die Person als Fakt hinstellt, ohne dass diese Person diese Behauptungen belegen kann. Ich bin mir bewusst, dass meine "Quellen" nur Indizien sind und keine Fakten, deswegen sage ich, dass es so oder so sein kann, aber dass die Indizien eben eher für das eine sprechen.

TechFA schrieb:
Mit Verlaub, aber was Du schreibst ist einfach vollkommener Quatsch und fast schon Tatsachenverdrehung.
Ich würde ja an der Stelle sagen, dass du dich da nicht weiter verausgaben solltest, das ist besser für dich.

Ich weiß aber, was dich nervt und mich nervt das auch. Diese Person stellt Behauptungen auf, tut so als wären diese Behauptungen Tatsachen und versucht so allen anderen klarzumachen, dass sie ja eigentlich total falsch liegen. Ließ dir mal von dieser Person alle Beiträge durch und achte auf das Muster, wie er argumentiert.

Während sich viele anderen bewusst sind, dass sie sich eine Meinung auf Indizien bilden und diese Indizien abwägen, tut er so, als wären seine Indizien die Wahrheit. Man könnte fies sein an der Stelle, gerade auch in der aktuellen Weltsituation, deswegen lass ich es auch, aber es gibt Leute, die so von ihrer Meinung überzeugt sind, dass sie denken, dass ihre Meinung die "Wahrheit" ist, auch wenn vielleicht was anders stimmt.
Ergänzung ()

Draco Nobilis schrieb:
Wobei es insofern stimmt das eine Entwicklung nicht einfach pauschal 5 Jahre dauert. Ein unerwarteter Fehler kann einem aber schnell 3-6 Monate kosten.
Es kommt darauf an, von wo man anfängt und was man bereits hat und was das Ziel ist.

Dazu kommt auch, was man an Personal wie verwenden kann und wie gut man Arbeiten bereits parallel ausführen kann. Zum Beispiel kann der Entwurf einer neuen CPU innerhalb von einem oder 2 Jahren abgeschlossen sein, das fertige Produkt braucht aber 3 oder 4 Jahre, weil man auf Softwareseite länger braucht.

Ebenso wie du sagst, kann ein Fehler auch einen nach hinten werfen oder auch umgekehrt, dass man sogar mal weniger Zeit für bestimmte Fehler braucht. In den 3 - 5 Jahren bei einer CPU oder GPU von 0 aus, ist wirklich alles gemeint, also von Konzeption über Design und Treiber.

Pauschal "mindesten" 5 Jahre zu sagen und das als gesetzt zu nehmen, ist falsch. Es ist mit Vega und Navi einfach eine Sache: Nichts genaues weiß man! Man kann nur Indizien nehmen und daraus versuchen eine Erklärung herzuleiten, aber Stichfest ist alles nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TechFA
.Snoopy. schrieb:
@BAR86
Es gibt keine verklärte Sicht auf Koduri. Koduri muss sich den Schuh selber anziehen. Ich kann mich noch sehr gut über seine persönlichen Aussagen zu Vega erinnern. Es wurden von ihm Dinge beschrieben, was die GPU alles können soll, welche bis heute nicht in Vega sind.
Und zu Jim Keller. Ich gehe so weit zu behaupten, wenn die Vorarbeit Mist gewesen wäre, hätte er es sicherlich erkannt und ZEN wäre nicht 2017 auf dem Markt gekommen. Zudem wird keiner von uns Wissen ob nicht er vor AMD Wiederbeitritt denen schon Denkanstöße gegeben hat in welcher Richtung die gehen sollten.
Das ist ja genau mein Problem:
Keller war eben nicht Architekt von Zen. Und er hatte auch keine großen Einflüsse auf Zen.
Ich verstehe, dass viele sich GPU/CPU Design so gerne so einfach vorstellen, dass eine einzelne Person irgendwie was groß entscheidet - aber das macht wenn dan nder Lead Architect. Und der war nicht Keller
Zu Koduri: ja, er hat sich bei manchen Aussagen weit ausm Fenster gelehnt, aber man muss auch hier differenzierter betrachten (genauso bei Su, Keller, Palmer, Gelsinger, Jobs usw...): Die Folien zu "Overclockers Dream", das Video zu Poor Volta(ge) hat eben nicht er gemacht, das wird oft von der Marketingabteilung so vorgelegt.

Mir werden auch oft Folien vorgelegt und nur selten hab' ich die Chance zu sagen "nein, das mache ich so nicht". Oft gehts eben um Millionen, bei AMD um mehr. Da lächelt man halt blöd in die Kamera und prostituiert sich. Ja, ist nicht schön, ist jedem anzuheften der sich dafür hergibt, aber manchmal auch notwendig. Die lukrierten Gelder helfen eben dann dem weiteren Projekt

Was Koduri betrifft: ich bin beileibe kein Fan, was so manche mir heir schon wieder unterstellen ist seltsam. Gestern war ich noch Intel Hater, dann AMD. Jetzt Kodurif Fan usw...
Es ist einfach eines: dumm. Wenn man eine Aussage aus verschiedenen Standpunkten betrachtet jemanden anzugreifen. Als gäbe es nru schwarz oder weiß.

Ich hatte extrem erfolgreiche Projekte. Die waren erfolgreich, weil das Geld stimmte und die Leute. Ich hatte Projekte, die sahen extrem erfolgreich aus, am Ende wurde das Geld abgedreht. War ich dafür Schuld, dass das Ergebnis dann unterfinanziert war und nicht den Versprechungen entsprach? Nein.
Dieser Hate kommt nur von Leuten die keine Ahnung haben wie solche Projekte oft laufen. Koduri kenne ich nicht persönlich. Er ist aber sicher nicht dumm, sonst wär er nicht dort, wo er ist. Er war dabei bei der Radeon 9700 Pro - die Karte die ATI gerettet hat. Er war dabei bei Vega. Die Karte die AMD ordentlich in den Sand gesetzt hat. Er war von Anfang an dabei bei Navi, die GPU die AMD jetzt wieder hochleben lässt.

Ich verstehe, dass manche Leute es gerne wie im Märchen hätten: es gibt gute, es gibt böse. Aber tatsächlich ist es nunmal so: die Welt von Milliarden von richtig und falsch gesetzten Transistoren ist nunmal etwas komplexer. Und es braucht mehr als eine Person.
Ein Koduri mit den falschen vorraussetzungen ist ein Versager und mit den richtigen kann er den Goliath (Nvidia) bezwingen, wie man mit Navi gesehen hat, obwohl es knapp 10 Jahre nicht danach ausgesehen hat.

Mein Beitrag gilt also nicht dem Schutz von Koduri, Keller, Gelsinger, Su, Huang... sondern einfach mal dem "können wir dieses primitive auf eine Person zeigen" lassen, wenn sich im Hintergund hunderte Ingenieure und Wissenschaftler beteiligen?
Ergänzung ()

TechFA schrieb:
Mit Verlaub, aber was Du schreibst ist einfach vollkommener Quatsch und fast schon Tatsachenverdrehung.
das kannst du sicher technisch hintermauern, denn du hast offenkundig viel Ahnung:
TechFA schrieb:
Ja, Atom war gänzlich ungeeignet, um gegen irgendwas ARM im mobilen Markt anzustinken.
Intel's x86 kann einfach kein Low-Power und erst recht kein Low-Power in Kombination mit Leistung, dafür ist die x86Architecktur einfach zu umständlich, altbacken und ineffizient.
Diese Aussage von Laientechnikern ist einfach von sowas von überholt.
Es gibt keine "DIE" x86 Architektur. Wer sowas sagt, hat schonmal keine Ahnung.
x86 ist ein Befehlssatz, die modernen, darauf aufbauenden Architekturen sind Mischungen aus RISC und CISC und können bei Bedarf und Auslegung genauso effizient sein wie ARM.
Das lernt man eigentlich heutzutage in jeder besseren Vorlesung zu dem Thema. Aber hey, was weiß ich schon, gell :D
Ergänzung ()

Draco Nobilis schrieb:
@TechFA
Jetzt hast du das ganz große Geschütz ausgepackt, aber ja es ist wahr, mit einer Abweichung.
Es war meines wissens nicht wettbewerbswridrig, da Intel kein Monpol war und dort quasi ein Niemand.
Es ist nicht wettberwebswidrig einen Konkurrenten mit dem Preis zu unterbieten.

Tatsächlich wurden damals die Chipsätze und CPUs um einen offensichtlichen Nonsenspreis angeboten, also wirklich geschenkt.
Auch das ist - ob rechtlich gesehen weiß ich nicht - noch nicht ungewöhnlich in der Branche. Angebote, wo du Chipsätze oder anderes gleich dazu bekommst, gibt es auch von anderen Herstellern (also AMD, Nvidia, you name it). Das wollen halt manche nicht so gerne wahrhaben, aber das gehört zum Big Business dazu.

Letztlich wird Intel hier ansetzen und OEMs die GPUs vergünstigt anbieten. Ob dann gleich gratis oder sonstwas, ist eine andere Frage.
Es erscheint ob der Martkmacht von Intel im OEM Geschäft unfair, im GPU Geschäft ist man aber - wie du richtig sagst - ein Niemand.
Das ganze steht und fällt sowieso mit der Marktposition: AMD und andere Hersteller bieten natürlich auch Rabatte an für Mengenaufträge, Exklusivaufträge etc. Aber das juckt dann niemanden, weil die Marktposition nicht dieselbe ist.
Es ist ja eben im Denken der Menschen auch viel einfacher einen "Bösen" auszumachen.
Das ist in dem Fall Intel.

Wir haben ja auch Jahrelang auf die Erlösung von den ach-so-teuren Intel-CPUs gewartet. Wo die schnellste Gaming- CPU 7700K) um 300€ zu haben war. Bis AMD kam und diese böse Preisübertriebenheit gebrochen hat. Oder? Denn ZEN CPUs gabs bis vor kurzem unter 250€ gar nicht, und die schnellsten Gaming-CPUs beider Hersteller sind allgemein teurer geworden. Der Hailand AMD hat also auch hier nicht das gemacht, was die User wollten.

Warum? Ist AMD also acuh böse? NEIN: Es ist der Markt der zeigt: die Nachfrage nach hochpreisigen Chips ist da. Und AMD wäre - genau wie Intel - dumm den Bedarf nicht mit dementsprechend teuren CPUs und GPUs zu decken.
Anderes Beispiel: Jahrelang waren sehr gute Performance-GPUs um 200€ und darunter zu haben.
So etwa auch die Radeon 5850. Die war die ZWEITSCHNELLSTE GPU auf dem Markt. Was kostet das heute ? 2000€? Jedenfalls damals bei Release 180€. Dann kam die offizielle Meldung von Nvidia: sie kommen vor Weihnachten nicht mit Konkurrenz. Der Preis wurde über Nacht auf 280€ angehoben. AMD der Hailand? Nein. AMD die bösen? Auch nein. AMD einfach nur wie andere ein Unternehmen das Gewinn machen muss.
 
Zuletzt bearbeitet:
BAR86 schrieb:
Er war dabei bei der Radeon 9700 Pro - die Karte die ATI gerettet hat. Er war dabei bei Vega. Die Karte die AMD ordentlich in den Sand gesetzt hat.
Kam er denn von ArtX zu ATi? Denn dem R300 sagt man ja nach, das es eingekauftes Design war.

Vega sehe ich persönlich gar nicht so negativ, immerhin läuft sie in den APUs bisher super.
 
Draco Nobilis schrieb:
Eine chinesische Grafikkarte, ja davon habe ich gelesen, wäre aber vorsichtig diese 2 Jahre für voll zu nehmen. Wobei es insofern stimmt das eine Entwicklung nicht einfach pauschal 5 Jahre dauert. Ein unerwarteter Fehler kann einem aber schnell 3-6 Monate kosten.
Die Entwicklung einer neuen Architektur dauert nicht pauschal 5 Jahre. Das stimmt
Sie braucht für eine Firma, die erfahrene Teams hat, mit Tools die bekannt sind, mit einem ordentlchen Entwicklungsprozess und den richtigen Kontakten 5 Jahre.
Für eine neue Firma, neuen Leuten, Tools nicht bekannt, neue Architektur aus dem nichts...? Eine moderne Architektur unter 5 Jahren?
Hier hat jemand - du bist nicht gemeint - einfach keine Ahnung wie lange sowas dauert.
Alleine die Validierung mancher Chips bei uns geht zig mal hin und her und dauert knapp 1 Jahr.
Also das heißt die Firma will es gescahfft haben, ohen Knowhow, ohne IP, ohne Leute die vorher exakt dasselbe gemacht haben eine Architektur (ohne Patente zu borgen?) aus dem nichts zu schaffen und innerhalb 1 Jahr zur Validierung zu bringen?
Hier ist einigen einfach absolut nicht klar welche Prozesse so ein komplexes Prozessmanagement zu durchlaufen hat.

Aber ja. Ein Forenkrieger XY glabut natürlich das geht mal schnell aus der Hüfte geschossen. 10 Studis und 10 Azubis gemeinsam in ein Team, wir kriegen das unter genug Motivation schon hin...

Wahrscheinlicher ist es eher, dass man eine IP Lizenziert hat und diese dem Bedarf nach skaliert und zu einem Auftragsfertiger gegeben hat. Allein der Prozess ein Design zu haben, Tape in, Tape out, dazwischen Validierung, Massenproduktion, Marktstart...1-1.5 Jahre, manchmal länger (je nach Fehler). Da ist von Treibern noch keine Rede. Es ist einfach zum Lachen wie manche sich das vorstellen. Aber von solchen selbsternannten Experten wird man hier dann tatsächlich persönlich beleidigt.
Ergänzung ()

andi_sco schrieb:
Kam er denn von ArtX zu ATi? Denn dem R300 sagt man ja nach, das es eingekauftes Design war.

Vega sehe ich persönlich gar nicht so negativ, immerhin läuft sie in den APUs bisher super.
Vega ist ein schwieriges Blatt.
Erfüllt alles was es braucht, hatte aber beim nach oben skalieren keine Chance.

Weil Vega für dieselbe Leistung wie die Konkurrenz (Nvidia) mehr Transistoren, mehr Shader, mehr Takt, damit mehr Leistung benötigte.
Das ist im iGPU Markt völlig egal ob man von "fast nichts" 40% mehr Fläche benötigt oder mit dem Takt ausgleicht.

Beim Diskreten GPU Markt war die Sache anders:
Vega 64 kam spät, wollte die Titan angreifen (ähnliche Chipfläche und Verlustleistung), hat es aber trotz großem Chip und SpezialRAM eben nicht dazu geschafft (außer in speziellen Benchmarks etwa Wolfenstein AFAIR). Viele haben gesagt: das ist, weil die Architektur auf die Zukunft ausgerichtet ist. Wirst schon sehen, da schlägt man dann Nvidia
Tatsäche ist: Vega 64 war im Referenzdesign knapper an den 300 Watt dran als allen lieb war. Mit knapp 500mm² Chipfläche ein riesen Chip, HBM war teuer.
Und am Ende hats gerade mal dazu gereicht, die 300mm² Chips von Nvidia (1070 Ti und 1080@ 180W im Referenzdesign) auf Augenhöhe zu halten. Das war ganz klar nicht der Sinn der Sache und deshalb war Koduri wohl auch geliefert.

Die Gründe für den schwachen Vega sind aber vielfältig und nicht einfach nur "böser Koduri". Darauf will ich eben hinaus. Dass man es eben nicht an einer Person festmacht.
Ich mache es eben auch nicht nur an Koduri fest, dass Navi gut ist. ABER ich drehe die Argumentation gerne um: wenn Koduri das böse ist, das Vega verbrochen hat, ist er genauso das gute, der Navi "verbrochen" hat, schließlich war er daran genauso beteiligt (sogar mehr).
Er ist auch nicht alleinig das Böse, das den Erstversuch einer Intel GPU Architektur in den Sand gesetzt hat. DENN ER IST NICHT DER ARCHITEKT. Das kann man, wenn man will nachlesen.
Mich stört also, gerade in Zeiten wo sinnloser Hass zeigt wozu es führt (Bomben auf Zivilisten), dass hier sinnlos gehasst wird und überhaupt nicht geschafft wird mal nachzudenken. "Oho, ein Projekt mit hunderten, tausenden Leuten. Na ich weiß schon, wer der eine böse ist, ders verbockt hat".
 
Zuletzt bearbeitet:
DevPandi schrieb:
Ich will nur anmerken, dass ich Raja nicht für Inkompetent halte. Ich denke nur, dass er nicht die richtige Person ist eine Abteilung zu leiten, die wirklich ein Produkt rundes vollständigs Produkt auf den Markt bringen muss.
Keine Ahnung, was er drauf hat, aber ich persönlich halte ihn für einen Schaumschläger, der sich lediglich gut verkaufen kann. Aber glücklicherweise bin ich nicht im Geringsten der Einzige mit dieser Ansicht.

Auch wenn ich die tatsächliche Wahrheit nicht kennen möge, versuche ich mich stets an Objektivitäten zu orientieren um mich zumindest der Wahrheit anzunähern. Und da sehe ich nur harte, nackte, wahrhaftige Fakten und die besagen vor allem eines: Koduri war in beiden Fällen die ständige Konstante, die es verantwortete.

Sehen wir es mal so ..
Als Koduri bei AMD war, war das Resultat schlecht (Poor Vega/Volta), während es sich zügig änderte nachdem er AMD verließ. Einige meinten, Koduri wäre fähig, es hapert allerdings am Geld (was AMD nicht hatte), Andere meinen er ist ein bisschen Größenwahnsinnig. Immer war massiver Hype im Spiel und das Ergebnis stets extrem ernüchternd und das Ergebnis soltle sich auch nicht ändern, nachdem er zu Intel ging.

Nachdem Koduri zu Intel kam, gabs auch gleich wieder krassen Hype um Nix (Intel Odyssey, DG1/DG2) und das Ergebnis war trotz Intel'scher Milliarden auch wieder extrem enttäuschend. Für mich ist da Koduri die Konstante, die für den Schlamassel verantwortlich ist, weil er sich über die Jahre zum Techno-Pabst der GPUs hat Hypen lassen mit Hype um nix und noch viel mehr Sprüche-Klopfen und leeren Phrasen.

Das andere Extrem (-Beispiel) wäre Jim Keller. Bei dem weiß auch Jeder wie das Ergebnis sehr wahrscheinlich aussehen und dass das Ergebnis sehr wahrscheinlich von Erfolg gekrönt sein wird. Weil sobald Keller auch nur im Zusammenhang mit einem Unternehmen in einer Schlagzeile erwähnt wird, gleicht das praktisch einem Adelsschlag mit baldigem Erfolg (und stets steigendem Aktienkurs), weil Jeder weiß mit Keller ist man eigentlich immer am oberen Ende der Fahnenstange. Weil Jim Keller einfach ist Erfolgsgarant.

TechFA
DevPandi schrieb:
Ich weiß aber, was dich nervt und mich nervt das auch. Diese Person stellt Behauptungen auf, tut so als wären diese Behauptungen Tatsachen und versucht so allen anderen klarzumachen, dass sie ja eigentlich total falsch liegen. Ließ dir mal von dieser Person alle Beiträge durch und achte auf das Muster, wie er argumentiert.
Ich weiß, ich kenne die Klientele. Es ist immer die selbe. Sie wirken oft wie Claquere und bezahlte Jubelperser.

Diese Argumentationstaktik nennt sich Rabulismus und dient dazu, in einer Diskussion unabhängig von Fakten "Recht" zu behalten. Kommt von den Juden und damaligen Winkeladvokaten. Hat man ja damals schon gesehen mit den Intel-Folien, die aufzeigten, wie argumentiert werden solle gegenüber Kunden über die erste Ryzen-Generation. Exakt so haben später auch die Pro-Intel-User argumentiert.

TechFA
 
BAR86 schrieb:
Es ist nicht wettberwebswidrig einen Konkurrenten mit dem Preis zu unterbieten.
Es ist für einen Monopolisten gesetzeswidrig Produkte unterhalb des Herstellungspreises zu veräußern.

BAR86 schrieb:
Für eine neue Firma, neuen Leuten, Tools nicht bekannt, neue Architektur aus dem nichts...? Eine moderne Architektur unter 5 Jahren?
Unwahrscheinlich, richtig, aber da wir wie auch schon andere sagten nicht alle Infos haben kann ich dazu gar keine Aussage treffen.

Spätestens bei der Testphase, wenn es dann aufgrund Fehler doch ein neues Stepping benötigt wird es ganz schnell sehr Zeitaufwändig. Daher gehört zu dem wichtigsten überhaupt die Testschaltungen bzw. Tools CPUs/Chips testen und messen zu können. Das hat Intel sicherlich. Darüber wird geschwiegen, aber es ist absolut essentiell. Über Simulationen bekommt man halt nicht alles mit. Erst recht nicht weil man inzwischen Quantenphysik beachten muss (bsp. Elektronen mit zu viel "Energie" tunneln einfach durch Wände).

Hier halte ich AMD bsp. schon fast für führend, wenn ich mir ansehe was die einfach alle 12-24 Monate umkrempeln. Wieviel Arbeit das beim Testen ist kann ich mir nicht mal ausmalen. Da arbeiten aber wie bei Intel mehrere Teams versetzt an CPU/GPU Gens.
 
BAR86 schrieb:
Das ist ja genau mein Problem:
Keller war eben nicht Architekt von Zen. Und er hatte auch keine großen Einflüsse auf Zen.
Habe ich nirgendwo erwähnt bezüglich Keller, jedoch Fakt ist, dass Michael Clark und Jim Keller (welcher Mitte 2012 zu AMD zurückging) den Grundstein für Zen gelegt haben, wie er 2017 auf den Markt kam. Michael Clark hatte wohl den größeren Einfluss. Zudem gehen viele davon aus, dass auch SMT, CCX & Infinity Fabric nicht mehr zwingend von Keller selbst, sondern eher von Clark oder einer seiner Kollegen kommen, da Keller zum Zeitpunkt der Entwicklung bei AMD schon weg war. Was aber nicht heißt, dass Keller denen vielleicht schon den Bulldozer Gedanken ausgeredet hatte, und den neuen Weg wie Zen funktioniert gelegt hatte. Deswegen ist wohl davon auszugehen, dass er mehr als nur die "Urlaubsplanung" seines Teams gemacht hat, auch wenn er einen Posten als Leitung hatte.
BAR86 schrieb:
Zu Koduri: ja, er hat sich bei manchen Aussagen weit ausm Fenster gelehnt, aber man muss auch hier differenzierter betrachten (genauso bei Su, Keller, Palmer, Gelsinger, Jobs usw...): Die Folien zu "Overclockers Dream", das Video zu Poor Volta(ge) hat eben nicht er gemacht, das wird oft von der Marketingabteilung so vorgelegt.
Poor Volta usw. waren für mich überzogenes Marketing, was mehr oder weniger jede Firma macht. Ich beziehe mich rein auf seine Aussagen. Ich kann mich dazu noch sehr gut erinnern, da ich aufgrund dessen ein sehr großes Interesse an Vega hatte, weil es etliche neue Features haben sollte, welche es so zuvor bei AMD noch nicht gab. Er kannte das Produkt genau und was auch was es kann, und vor allem was es nicht kann.

BAR86 schrieb:
Was Koduri betrifft: ich bin beileibe kein Fan, was so manche mir heir schon wieder unterstellen ist seltsam. Gestern war ich noch Intel Hater, dann AMD. Jetzt Kodurif Fan usw...
ich habe dich in keine Schublade geschoben.

BAR86 schrieb:
Ein Koduri mit den falschen vorraussetzungen ist ein Versager und mit den richtigen kann er den Goliath (Nvidia) bezwingen, wie man mit Navi gesehen hat, obwohl es knapp 10 Jahre nicht danach ausgesehen hat.

Mein Beitrag gilt also nicht dem Schutz von Koduri, Keller, Gelsinger, Su, Huang... sondern einfach mal dem "können wir dieses primitive auf eine Person zeigen" lassen, wenn sich im Hintergund hunderte Ingenieure und Wissenschaftler beteiligen?
Er war und ist verantwortlich für die Produkte, die unter seiner Regie entwickelt wurden und werden. Es ist fachlich und technisch sicherlich mehr als kompetent, um zu sehen, ob das Produkt sein Ziel erreicht oder nicht. Und wenn er aufgrund seines Wissens ein falsches Bild zum Produkt abgibt, muss er sich daran halt messen lassen.
 
  • Gefällt mir
Reaktionen: DevPandi und TechFA
Inzwischen scheinen erste Informationen zur Performance der Intel A350m durchzusickern... https://videocardz.com/newz/intel-a...sted-slower-than-gtx-1650-up-to-2-2-ghz-clock

Etwas stärker als die MX450 scheint sie zu sein (die MX450 ist zwischen der 1050 und 1050ti angesiedelt). Aber wie es aussieht noch Treiberprobleme, da gewisse Spiele (Far Cry 6, Forza Horizon Benchmark) einfach abstürzen.

Wenn es 1 positive Entwicklung gibt, ist es vielleicht dass dadurch die ganzen Nvidia-Futzelchips verschwinden. Allerdings ist es auch nicht besser, wenn diese dann durch Intel-Futzelchips ersetzt werden. Diese ganzen Futzelchips sollten eigentlich durch iGPUs bzw. APUs ersetzt werden.

Ich könnte mir vorstellen, dass wenn Intel ihre bisherigen iGPUs durch diese Chips ersetzen würde, sie dann recht gut wären. Wenn sie das machen würden...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TechFA
andi_sco schrieb:
Kam er denn von ArtX zu ATi? Denn dem R300 sagt man ja nach, das es eingekauftes Design war.
Nein, Raja Koduri hat bei S3 angefangen, wann er genau zu ATi kam, findet man so nicht auf die Schnelle. 2001 wurde er Leiter der Abteilung "Advanced Technology Development". Die waren bei ATi dafür zuständig neue Techniken zu erforschen/entwickeln, die dann in den GPUs verwendet werden können.

2006 wurde er dann zum CTO der Grafikabteilung, sein Kollege - mir entfällt da immer der Name, der Herr ist immer eher im Schatten gewesen - leitete damals aber die gesamte Grafikabteilung und verantwortete die Produkte. Ah, David Wang heißt der Herr. Er kam von ArtX und hat dann ab 2006 die Architekturabteilung geleitet und war mit Koduri gleich gestellt.

Schnelle Informationen zu Koduri findest du auf Wikipedia und David Wang kannst du auf der AMD-Seite aufrufen. Der Chef der Abteilung war damals Rick Bergman.

andi_sco schrieb:
Vega sehe ich persönlich gar nicht so negativ, immerhin läuft sie in den APUs bisher super.
GCN und damit auch Vega haben ein Problem: Jede CU besteht aus 4 Vec16-ALUs, die Treiber wiederum arbeitetet damals mit Wave64. Bei GCN war es nie möglich, dass ein Wave64 auf allen 4 Vec16-ALUs läuft, sondern der Befehl lief nur auf einer ALU und benötigt damit 4 Takte. Um eine CU auszulasten, benötigt es 4 Wave64-Befehle oder eben 4 Task/Threads. Die kleinen Vega-Grafikkarten - APU - brauchen bei 8 - 10 CU also nur 32 - 40 Threads, um ausgelastet zu werden. Die einzelnen Threads sind zwar immer noch recht langsam, aber es kommt halt genug zusammen, sodass man keine Rechenleistung verschwendet hat.

.Snoopy. schrieb:
ich habe dich in keine Schublade geschoben.
Oh, den Schuh musst du dir nicht anziehen, den zieh ich mir aber an und ich steck ihn da sogar noch weiterhin rein, weil er sich genau so verhält, wie es Fanboys tun. Er wiederholt wie ein Papagei immer wieder seine gleichen Aussagen, liefert dafür aber überhaupt keine Belege. Alles, was nicht seiner Meinung entspricht, wird als falsch dargestellt. Auf "Quellen" geht er überhaupt nicht ein. Das letzte ist, dass er dann damit kommt, dass man sich ja nicht aus kennt und man ja doch irgendwelche Interviews suchen soll, die ja seine Aussage decken.

Er benimmt sich wie ein Fanboy, es ist dabei vollkommen irrelevant, ob er Fanboy für eine Firma ist oder von keiner, sondern es ist die Art, wie er sich hier benimmt! Ich hatte ihn schon einmal auf der Ignore und er ist da wieder, weil er überhaupt nicht auf Aussagen wirklich eingeht, ständig sein Halbwissen und irgendwelche Aussagen, die er aufgeschnappt hat, als ultimative Wahrheit hinstellt und dann denkt, dass das wirklich reicht, um recht zu haben.

Er schnappt in einem Interview von AMD auf, dass sie mit ca. 5 Jahren bei neuen Designs planen und er schließt daraus, dass sie mindestens 5 Jahre brauchen. Er reißt damit teilweise Aussagen aus dem Kontext und überließt den Rest. Ich weiß nämlich glaublich auf welches Interview er da meint und da steht nämlich eher drin, dass sie neue Produkte bereits ca. 5 Jahre im Voraus planen, nicht aber, dass sie wirklich auf 5 Jahre mindestens dran arbeiten.

Es gibt bei all dem noch einen weiteren Punkt - und da kommen wir jetzt zu dem Punkt, wo er mir ja Ahnungslosigkeit unterstellt, man aber merkt, dass er so überhaupt keine Ahnung hat: Es arbeiten niemals alle Leute zur gleichen Zeit an einem Projekt, sondern unterschiedlichste Teams mit unterschiedlichen Aufgaben. Und dieser Umstand ist auch entscheidend für die Zeit, die bei solchen Projekten vergehen können. Bei einer Architektur - egal ob CPU, GPU oder anderes - sprechen wir von vielen Bestandteilen und verschiedenen Ebenen, die zu unterschiedlichen Zeiten an einem Projekt arbeiten

Ich bin jetzt echt einige Interviews durchgegangen von AMD, NVIDIA, Intel, ARM und Co und in allen Interviews sind die Partner darum bemüht auf der einen Seite Zeithorizonte aufzuzeigen, aber gleichzeitig auch nicht zu viel zu verraten, wie lange sie denn wirklich brauchen. Die 3, 4 oder 5 Jahre stammen aus Interviews von AMD und Intel, die da auch grob andeuten: 3 Jahre ist das, was aktuell wirklich in Entwicklung ist, 4 Jahre ist das, was jetzt über die Planung hinaus geht und 5 Jahre, was über die Konzeption hinaus ist.

Nimmt man dann mal Fachliteratur zur Hand und sieht sich da die Zeiten an, dann wird da bei der Entwicklung von Prozessoren auch noch unterschieden, was man erreichen will, ob man von 0 anfängt, ob man schon etwas hat usw. Da wird dann bei einfachen Anpassungen von ca. 1 Jahr gesprochen, komplexeren Anpassungen 2 Jahre und komplexe Überarbeitungen ab 3 Jahre. Fängt man bei 0 an bei einfachen Prozessoren ca. 2 - 3 Jahre, bei High End dann mindestens 3 - 5 Jahre, je nach Komplexität der ISA und auf wie viele fertige Bestandteile man aber schon zurückgreifen kann.

Es ist also ja nicht so, dass seine Zahlen falsch wäre, sie ist einfach nur zu pauschal und er versucht dann, mit einer Zahl aus einem Interview die Aussagen der anderen zu entkräften. Er denkt dann, dass er ja einen Beweis hat, warum seine Aussage richtig ist, die der anderen falsch, merkt aber nicht, dass er selbst nur ein Indiz hat.

Er selbst argumentiert mit Indizien, wenn man selbst dann aber Indizien bringt als Quelle, sogar woher sie kommen und dass es da ein paar Artikel zugibt, ignoriert er es und bleibt bei seiner Behauptung. Und genau das ist es, was Fanboys machen. Man stellt Behauptungen auf, tut so, als wäre diese Tatsachen und blendet alles andere aus.

.Snoopy. schrieb:
Er war und ist verantwortlich für die Produkte, die unter seiner Regie entwickelt wurden und werden.
Richtig, er gibt den Fahrplan an und koordiniert die Teams, er gibt Ziele vor und bestimmt die Richtung, in die entwickelt wird.

Mal aus einem Interview eines AMD-Mitarbeiters zu Raja: §Raja is a brilliant guy, a brilliant architect, a brilliant marketer, but he lives in the future." und "He’s running a massive organization, and based on my perceptions of Raja and my experience working with him, that doesn’t play to his strengths. We’ll see what happens."

Das ganze Interview auf Information.com ist zugänglich. Auch Forbes hat einen interessanten Artikel zu Navi, der überhaupt nicht in Rajas Abteilung entstanden ist, sondern in der Semi-Costum:

"Allegedly, Koduri saw up to a massive 2/3 of his engineering team devoted exclusively to Navi against his wishes. [...] As I mention in my companion report, the implication is that AMD CEO Dr. Lisa Su wanted to devote more energy into its semi-custom business than its desktop graphics division."

Und weil es interessant sind ist: https://wccftech.com/exclusive-amd-navi-gpu-roadmap-cost-zen/

Der Chef der Semi-Custom war damals Forrest Norrod, der 2014 von Dell zu AMD kam. Heutiger Chef ist Rick Bergman - wieder und damaliger Chef von Raja Koduri.

Ist jetzt - wie ja BAR86 weiter behauptet - Raja verantwortlich für Navi? Selbst wenn man jetzt sagt, dass man wirklich immer mindesten 5 Jahre braucht und daher Raja überhaupt nichts für Vega kann und ja erst Navi sein Ding sein könnte: Selbst dann gibt es Indizien die dagegen sprechen, dass er etwas mit Navi zutun hat.

Egal wie man es dreht und wendet, die absoluten Aussagen von BAR86 sind nicht belegbar, es gibt viele Indizien, die dagegen sprechen. Er bringt ein paar Indizien, die dafür sprechen, aber er bleibt wirkliche Beweise schuldig. Wenn man, wie er, allen anderen unterstellt, dass sie falsch liegen, dann sollte man auch wirklich Beweise zur Hand haben und diese auch verlinken.
 
  • Gefällt mir
Reaktionen: TechFA
DevPandi schrieb:
Raja Koduri hat bei S3 angefangen, wann er genau zu ATi kam, findet man so nicht auf die Schnelle
Laut LinkedIn war er von 1996 bis 2000 bei S3, danach kam er zu ATi
 
Zurück
Oben