Test Intel Arc A380 im Test: Eine Woche zwischen Lachen und Weinen

Wolfgang schrieb:
Die Display-Engine von Alchemist hält einige Überraschungen parat. So wird neben DisplayPort 1.4a bereits DisplayPort 2.0 UHBR10 unterstützt. DisplayPort ist entsprechend weit fortgeschritten, HDMI hinkt dagegen hinterher: Mehr als Version 2.0b gibt es nicht.

Naja, bei eurer Testkarte jedenfalls - die Regel sollte das laut Intel ja aber nicht sein, oder?

1658348954416.png


https://twitter.com/IntelGraphics/status/1537226016451461120
 
  • Gefällt mir
Reaktionen: W4RO_DE, Onkel Föhn und Jan
Herdware schrieb:
Und dass die bisherigen iGPU-Treiber von Intel so grauenhaft sind, kann ich so nicht bestätigen. Ich hatte zwei Ultrabooks nur mit Intel-iGPU und habe darauf jahrelang viel gespielt. Civilization V, Hearts of Iron 4, World of Warships, Divinity: Original Sin 2, etwas Minecraft und vieles mehr. Ich war nicht nur von der Leistung beeindruckt, die diese kleinen iGPU bieten, die sich 15W TDP mit CPU und Chipsatz teilen, sondern die Treiber haben auch nie Probleme bereitet.
Die Treiber sind auch nicht so grauenhaft und funktionieren recht gut. Das Problem dürfte eher die Umarbeitung des Treibers auf dGPU sein, d.h, nicht der Treiberkern sondern das neue "Drumherum" macht noch Probleme, insbesondere da es praktisch unendlich viele technische PC-Konfigurationsmöglicheiten gibt. Die Anzahl der Probleme düfte jedoch überschaubar sein und ein Großteil wird in den nächsten Monaten sicherlich gefixt werden.

Trozdem nicht schön...
 
Der Nachbar schrieb:
Von welchen Bäumen will sich intel die Softwareprogrammierer den pflücken?
Die Bude produziert seit 20+ Jahren Grafikchips......
Wäre ganz cool wenn die blaue Fanbase das mal akzeptieren würde.....

Sonst kann Intel ja auch alles.... Mathlab, C++ Compiler usw.....
:freak:
 
  • Gefällt mir
Reaktionen: Phintor und xXBobbyXx
rg88 schrieb:
Nein, die Entwicklung war noch AMDs Werk, das war noch rein ATI
Ati hätte diese Serie nicht überlebt.
Sobald die Übernahme abgeschlossen war und das war 2006, haben sicher AMD Manager ganz intensiv die gekauften ATi Mitarbeiter und Räume inspiziert. Man hielt den Mitarbeitern sicher den Kaufpreis vor. Das wird nvidia nach dem Kauf von 3dfx auch gemacht haben. AMD hatte bei der eigenen und früheren NB/SB Produktion selbst ziemliche Krücken gehabt, also war das neben GPUs als völlig neue Sparte auch ein Technologiezukauf für SoC und PCH Entwicklungen. Bei den zukünftigen GPUs wird AMD nur die Ressourcen mit Vorgaben gegeben haben und die ATi nun AMD Mitarbeiter sollten dann machen. R600 war der genötigte Sparzwang seitens AMD.
https://www.computerbase.de/2006-07/offiziell-amd-kauft-ati/
AMD war damals knapp bei Kasse beim Kauf, was also bei den Entwicklungsressourcen moderner Architekturen und das Bezahlen von Entwicklern?
https://www.computerbase.de/2006-02/nvidia-mit-rekordzahlen-im-jahr-2006/
ATI hat AMD den Hintern gerettet, aber das war ein Wettberwerbsproblem ausgelsöt durch intel. Einen solchen Kauf hätte man nicht durchgehen lassen sollen, intel für die Marktmanipulation bezahlen, wenn der Athlon 64 mehr als gut war um sogar in Deutschland auf mindestens 50% der verkauften Marktanteile zu kommen.

rg88 schrieb:
Was hat das mit RDNA zu tun? ...
Ohne Koduris VEGA, auch kein RDNA und CDNA und RDNA kann durchaus Workstation, wenn man Mitarbeiter für die Treiberentwicklung und Programmoptimierungen mit Zertifizierung nach Jahren Zeit abstellen kann. Bei RDNA 2 Tests sollten bitte keine WS Tests gemacht werden, weil RDNA 2 eine reine Gaming Architektur seins ollte und AMD hat die Treiber mittlerweile soweit fertig um sogar die RDNA 2 6400 als Radeon Pro 6400 zu verkaufen. Was sagt es über das AMD Management beim Marketing der eigenen Produkte aus?
https://www.igorslab.de/amd-radeon-...orkstation-karte-eine-nvidia-quadro-rtx-5000/

rg88 schrieb:
Kann nicht viel sein, sonst wär das in den Quartalszahlen irgendwann mal erwähnt worden. Damit wurde kein Cent verdient, nur Kosten verursacht.
Die Vorleistung bringt trotzden heute Früchte, könnte es sogar für AMD, da nvidia mit HBM in HPC Lösungen führend ist. Mit EPYC im Schlepptau kann man HBM bestückte AMD Instinct Rechenzentren bestücken. Wenn AMD ebenso ein nvidia starkes Team an Softwareentwicklern hat, die für die laufende Softwarebasis Unterstützung bieten, damit die Leistung stimmt.

rg88 schrieb:
...... Keller hat wieder eine eher konservative Architektur aufgesetzt und dem Team das Know-How gegeben, dass sie es selber fertig entwickeln und weiterentwickeln können. .....
Ja eben und ein Team was nicht auf einer guten Architektur aufbaut, baut Baumaschinen. :D
rg88 schrieb:
Keine Galionsfigur mit Rampenlichtfetisch anscheinend.
Der Auftritt Koduris ist als Mist auf Frau Su als CEO gewachsen oder sind die ressourcenintensiven AMD Fahrräder die Entscheidung welcher AMD Führungskraft gewesen? Das wäre übrigens ein Softwareentwickler mehr, der die Treiberinstallationroutine mal fehlerfrei pflegt um bei grundlegenden Softwarekompetenzen von AMD zu bleiben.
rg88 schrieb:
Der Phenom ist doch nicht das interessante. Athlon 64 war die Meisterleistung von Keller damals.
Das war ja schon der frühere Athlon 7 mit Keller, aber wenn man in den Keller muss um die Breite von 32Bit auf 64Bit zu erweitern, dann hatte AMD nur ausführende Techniker und keine Designer.
rg88 schrieb:
Man braucht keine Träumer in der Entwicklung. Für sowas gibts andere Abteilungen in der F&E.
Dafür braucht man erstmal eine befähigte F&E und die hatte AMD schon bei den eigenen AGP Chipsätzen nur durch den ATI Zukauf.
rg88 schrieb:
Ich werde darauf jetzt nicht eingehen und Koduri mit Jobs auch nur im Ansatz zu vergleichen
Ganz sachlich ist Koduri Chipdesigner, Steve Jobs Marketingexperte und Steve Wozniak der Apple Hardware und Software Entwickler. Mir wäre nicht bekannt, das Jobs in LSD Traumleistung ohne Wozniak und Wayne als Investor überhaupt einen fertigen Apple raus gebracht hätte.
rg88 schrieb:
RDNA wurde in erster Linie für die next-gen Konsolen entwickelt.
Nicht wenn intel seine GPU Software noch in den Griff bekommt und mit seinem EMIB MCM Design noch stärker angepasste SoCs für Konsolen anbieten kann. Im Übrigen kann sich AMD ohne breite Radeon Pro Workstation Produkte auf RDNA 2 Basis den Markteinbruch mit Gaming nicht leisten, wenn nvidia die Leistung von Konsolen GPUs erreichen muss und noch von der Marke nvidia profitiert. Anders rum bedeutet es aber auch, die AMD GPU Leistung ist dann für Jahre der Technologiezustand, den High End PC Gamer nun sehr teuer erleben werden.
rg88 schrieb:
Ich denke, dass AMD aktuell selbst sehr gute Leute hat. Sonst würde die Pipeline nicht so gut aussehen.
Wenn man die Ressourcen wieder halt hat und wirtschaften kann.:)
rg88 schrieb:
Wäre es nicht. Die GCN-Architektur passt einfach nicht für Spiele und lässt sich nicht richtig auslasten. Deshalb ist ja der Unterschied zwischen theoretischen TFLOPS und fps am Bildschirm so krass. ....
Die Leistung rein durch bessere Treiber ist trotzdem ordentlich gestiegen, wenn die Leistung annähernd einer RTX3050 in 2022 steht. Die Chip Optimierungen die mit RDNA Einzug fanden ist die gleiche Manager Entscheidung gewesen, wie VEGA überhaupt gegen nvidia als Hauptkonkurrenten in dem Entwicklungsstadium raus zu bringen, damit die Marktanteile nicht weiter einbrechen. ZEN war übrigens die gleiche Ressourcen und Zeitplanentscheidung seitens AMD mit fallenden FM2+ Anteilen im PC Geschäft und es war ein Grund, warum ich erst den optimierten ZEN+ kaufte und AMD trotz Jim Keller Leistung übrigens mit Pilderiver Athlon die Plattform AM4 einführte. Ressourcen und Zeitplan waren bei AMD völlig weg.- Die spezialisierte Trennung von GCN in RDNA und CDNA bringt wie du schon erwähnst die Vorteile für den ausgelegten Einsatzbereiche und ist eben der Feinschliff, der trotzdem Ressourcen udn Zeit bindet. Feinschliff wäre übrigens RDNA 3 mit HBM und keinen kaputten Treibern wie der defekten Lüftersteuerung oder schwarzen Bildschirmen. :D

Damit wir hier die intel Vorstellung mal relativieren, was die große Konkurrenz selbst so leisten vermag.;)

@gustlegga

Ja, intel produziert aber hauptsächlich für Office Anwendungen und damit stellt man Treiberentwickler für Office Ansprüche ein und wenn da etwas Fehlerbehebung und Schulung der Mitarbeiter für Spiele über bleiben, setzt man die da mal kurz dran. Mit den alten GMA laufen ja Spiele, aber wie auch im Thema erwähnt, alte Architektur und nicht das was Xe werden soll. Für intel gibt es mit EMIB und dem MCM Design sowieso kein zurück mehr. Die Zeitpläne aller Entwicklungen um Führerschaft zu halten die intel derzeit fährt sind ohne gute Vorbereitung und vorhandene Ressourcen wie es sich zeigt nicht einzuhalten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx
Ich glaub die Seite mit den Treiberproblemen ist mein Highlight 2022. Hoffentlich haben die Käufer in China gute Umtauschmöglichkeiten.
 
  • Gefällt mir
Reaktionen: baizer
Der Nachbar schrieb:
AMD hatte bei der eigenen und früheren NB/SB Produktion selbst ziemliche Krücken gehabt, also war das neben GPUs als völlig neue Sparte auch ein Technologiezukauf für SoC und PCH Entwicklungen.
Absolut richtig. Man wollte und musste alles anbieten. Die Drittanbieter Chipsätze waren oft grottig und Intel konnte die Massenrechner verkaufen, weil sie alles aus einer Hand und stabil anbieten konnten.
Das war der Hauptgrund für den ATI-Kauf.
Der Nachbar schrieb:
Bei den zukünftigen GPUs wird AMD nur die Ressourcen mit Vorgaben gegeben haben und die ATi nun AMD Mitarbeiter sollten dann machen. R600 war der genötigte Sparzwang seitens AMD.
Nein, der R600 war fertig entwickelt. Das war nur noch das Ready-to-market. Ati wusste was sie das für einen Rohrkrepierer im Köcher hatten, das war auch der Grund, dass man sich so leicht hat kaufen lassen.
Der R670 aka HD3000 war dann unter AMD-Regie entwickelt worden, basierte aber natürlich auch noch auf dem R600.
Der Nachbar schrieb:
AMD war damals knapp bei Kasse beim Kauf, was also bei den Entwicklungsressourcen moderner Architekturen und das Bezahlen von Entwicklern?
Verstehe nicht worauf du hier rauswillst?
Der Nachbar schrieb:
ATI hat AMD den Hintern gerettet, aber das war ein Wettberwerbsproblem ausgelsöt durch intel. Einen solchen Kauf hätte man nicht durchgehen lassen sollen, intel für die Marktmanipulation bezahlen, wenn der Athlon 64 mehr als gut war um sogar in Deustchland auf mindestens 50% der verkauften Marktanteile zu kommen.
Das Problem war, dass AMD den Vergleich von Intel angenommen hat, weil man eben dringend Geld brauchte.
Ati hat AMD erst viele Jahre später etwas gebracht. Die Anfänge waren sehr schleppend und waren für AMD extrem schwer zu verdauen. Die Schulden hätten sie fast erdrückt.
Der Nachbar schrieb:
Ohne Koduris VEGA, auch kein RDNA und CDNA und RDNA kann durchaus Workstation, wenn man Mitarbeiter für die Treiberentwicklung und Programmoptimierungen mit Zertifizierung nach Jahren Zeit abstellen kann. Bei RDNA 2 Tests sollten bitte keine WS Tests gemacht werden, weil RDNA 2 eine reine Gaming Architektur seins ollte und AMD hat die Treiber mittlerweile soweit fertig um sogar die RDNA 2 6400 als Radeon Pro 6400 zu verkaufen. Was sagt es über das AMD Management beim Marketing der eigenen Produkte aus?
Du verwechselst hier HPC mit CAD und ähnlichem, oder?
Und: Ohne Konsolen kein RDNA. So wird eher ein Schuh draus.
Der Nachbar schrieb:
Die Vorleistung bringt trotzden heute Früchte, könnte es sogar für AMD, da nvidia mit HBM in HPC Lösungen führend ist.
Tut es nicht. Wir reden davon, dass AMD dort seit mindesten 2014 Geld versenkt hat, ohne irgend einen nennenswerten Umsatz oder Vorteil draus zu ziehen.
Der Nachbar schrieb:
Mit EPYC im Schlepptau kann man HBM bestückte AMD Instinct Rechenzentren bestücken.
Tun sie aber bisher nicht.
Der Nachbar schrieb:
. Wenn AMD ebenso ein nvidia starkes Team an Softwareentwicklern hat, die für die laufende Softwarebasis Unterstützung bieten, damit die Leistung stimmt.
Genau da sind wir bei der Sache. Die Frage ist nur, ob AMD hier noch einen Anschluss findet. Nvidia ist bereits sehr stark und offene Standards haben sich bisher nicht durchgesetzt (OpenCL z.B.). Ein weiterer propritärer von einem Underdog ist schwer durchzusetzen.
Der Nachbar schrieb:
Der Auftritt Koduris ist als Mist auf Frau Su als CEO gewachsen oder sind die ressourcenintensiven AMD Fahrräder die Entscheidung welcher AMD Führungskraft gewesen?
Hier kann ich dir leider wieder nicht folgen?
Der Nachbar schrieb:
Das war ja schon der frühere Athlon 7 mit Keller, aber wenn man in den Keller muss um die Breite von 32Bit auf 64Bit zu erweitern, dann hatte AMD nur ausführende Techniker und keine Designer.
Eine 64bit CPU zu entwickeln war nicht die Kunst. Der geniale Schachzug war, das ganze als x86-Erweiterung zu machen und somit die vollständige Abwärtskompatibiltät zu erhalten. Das hat immerhin Intels Itanium versenkt.
Das war eine geniale Idee und tolle Leistung.
Der Nachbar schrieb:
Ganz sachlich ist Koduri Chipdesigner, Steve Jobs Marketingexperte und Steve Wozniak der Apple Hardware und Software Entwickler. Mir wäre nicht bekannt, das Jobs in LSD Traumleistung ohne Wozniak und Wayne als Investor überhaupt einen fertigen Apple raus gebracht hätte.
Wie gesagt, ich geh auf den Vergleich gar nicht ein, weil er Käse ist.
Der Nachbar schrieb:
Nicht wenn intel seine GPU Software noch in den Griff bekommt und mit seinem EMIB MCM Design noch stärker angepasste SoCs für Konsolen anbieten kann.
? Das ändert doch nichts daran, wofür RDNA entwickelt wurde? ist ja schon in den Konsolen verbaut
Der Nachbar schrieb:
Wenn man die Ressourcen wieder halt hat und wirtschaften kann.:)
Das klappt aktuell gefühlt zum ersten Mal in AMDs Geschichte richtig gut.
Der Nachbar schrieb:
ZEN war übrigens die gleiche Ressourcen und Zeitplanentscheidung seitens AMD mit fallenden FM2+ Anteilen im PC Geschäft und es war ein Grund, warum ich erst den optimierten ZEN+ kaufte und AMD trotz Jim Keller Leistung übrigens ein Pilderiver Athlon AM4 einführte.
ZEN war fertig und die Plattform hat gepasst soweit. Piledriver war quasi der Beta-Test des neuen Speichercontrollers und des neuen Sockels.
Der Nachbar schrieb:
Ressourcen udn Zeiotplan waren bei AMD völlig weg.
Zeitplan kann man nicht sagen, zumindest gabs deutlich weniger Verschiebungen als damals bei Bulldozer. es wirkte nach außen zumindest runder das ganze. Und klar war AMD finanziell ausgelaugt. Zen hat einfach einschlagen müssen, alles andere wäre eine Katastrophe gewesen.
Der Nachbar schrieb:
Die spezialisierte Trennung von GCN in RDNA und CDNA bringt wie du schon erwähnst die Vorteile für den ausgelegten Einsatzbereiche und ist eben der Feinschliff, der trotzdem Ressourcen udn Zeit bindet.
Ja, aber das ist der einzige Weg, wenn sie das hinbekommen wollen. Und Ressourcen und vorallem Kohle ist jetzt genügend da, dass man sich zwei Entwicklungen leisten kann im GPU-Bereich.
 
  • Gefällt mir
Reaktionen: Thakor und dergraf1
@Der Nachbar
Achso, und wann hat AMD dann die Kanadier (ATI) übernommen und die ganze Treiberbase auf ein neues Gerüst gestellt.......
Bitte hört endlich mal auf die blaue Bescheissertruppe so zu lobhuddeln......
Lächerlich eine US Aktiengesellschaft immer zu verdeidigenn als würde jemand die eigene Mutter beleidigen...... (gilt auch bei Grafikchips.....)
 
StevenB schrieb:
1. Das Treiberteam ist völlig überfordert
Wie viel Zeit sollen die noch bekommen? Sollte nicht die 3060er angegriffen werden? Also mal wieder großes blabla. Aber, wehe AMD ist mal nicht ehrlich.

StevenB schrieb:
2. Das fertige Silizium verhält sich anders als in der Simulation und sie mussten von vorne Anfangen
Na und? Da gibt ja keine Muster..
StevenB schrieb:
3. Das Design ist "kaputt" und die Entwickler müssen mit vielen Workarounds arbeiten um einigermaßen die Leistung auf die Straße zu bekommen
Design kaputt? Wunderbar. Ich designe. Chef sagt: Sieht super aus. Test-Center sagt: Was ein Müll. Aber es ist alles nur dem Design geschuldet. Nebenbei hat die Firma, in der dieses Design entworfen wurde, mehr Ressourcen und Geld, als viele andere Mitbewerber. :lol:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx und dergraf1
ELMOKO schrieb:
echt jetzt? hallo intel beginnt erst, warten wir nochmal 3-4 jahre da schaut das sicherlich anders aus. aber wer kauft/ oder liebeugelt denn jetzt schon eine intel graka :lol: man die fangen erst an was will man da auch erwarten.
:lol::lol:
Ich rede ja garnicht von der Leistung. Aber das der Treiber zumindest stabil ist und die Kiste nicht ständig abstürzt, das kann man trotzdem erwarten.
 
  • Gefällt mir
Reaktionen: Phintor, Andy4, xXBobbyXx und eine weitere Person
Da Vulkan wie DX12 anscheinend sauber funktioniert und im Wesentlichen DX11 problematisch ist, drängt sich die Frage geradezu auf: Wie sieht denn die DX11 Performance mit dxvk aus? Das sollte doch die ganzen DX11 Treiberprobleme umgehen.
 
@rg88
Wir bewegen uns zu sehr zu AMD und weit weg vom Thema. Ich schaue was ich noch inhaltlich dazu schreiben kann, den Rest mache ich per PN.

gustlegga schrieb:
Achso, und wann hat AMD dann die Kanadier (ATI) übernommen und die ganze Treiberbase auf ein neues Gerüst gestellt.......
Bitte hört endlich mal auf die blaue Bescheissertruppe so zu lobhuddeln......
Mache ich doch garnicht und habe ich auch nicht vor. Das ist bei allen börsennotierten Unternehmen der Fall, die nur dicke Gewinne einfahren wollen. Ich sage nur, den Unternehmen sind die benötigten Mitarbeiter nur den gesehenen Gewinn wert, sonst wird eingespart, wo es unnötig Geld kostet. intel hätte mit weniger Dividenden an Reiche und mehr Bildungsförderung in neue Mitarbeiter heute weit mehr junge Entwickler im Team, die keine wegsterbenden Dinosaurier sind und zeitig neue Produktgruppen entwickeln würden. Das galt auch für die Fertigung. Stattdessen kaufen die Großen gerne mit Kapital Start Ups auf und verschleißen junges Potenzial für ihre Ziele. ATI hat bei den hohen Marktanteilen für AMD ab 2006 als kapitaler Blutspender zur Wiederbelebung gedient, weil intel ja auch AMD klein halten sehen wollte und leider ist ATi den Großen unter die Räder gekommen und hat sich noch aufkaufen lassen. Die ATI Treiber wurden mit der Zeit auch bei AMD mit Radeon immer schlechter und zwischen der ATI Radeon 9600 und kurzen Testausflug auf die HD3300 iGP und VEGA 56 war ich nvidia Käufer. Ich weiss was aus ATI geworden ist, die ja mit All in Wonder mehr boten als AMD bieten kann. Nicht mal heute einen DP oder HDMI in. Das kännte auch mal intel machen, aber die sind halt gleichfalls geizig. Hätte übrigens im ARC Test gut ausgesehen, wer seine Spiegelreflex über HDMI verlustfrei einbinden könnte.
 
Der Nachbar schrieb:
und mehr Bildungsförderung in neue Mitarbeiter heute weit mehr junge Entwickler im Team, die keine wegsterbenden Dinosaurier sind und zeitig neue Produktgruppen entwickeln würden.
Stattdessen hat Intel angesichts der fehlenden Konkurrenz >14.000 Mitarbeiter abgebaut und neue Produktgruppen wurden eingekauft und reihenweise in den Sand gesetzt bzw. an die Wand gefahren.
Und wenn sie eigene Innovationen hervorbrachten, waren dieseso proprietär, dass sie schon bei Release zum scheitern verurteilt waren (und natürlich auch nicht wirklich konkurrenfähig waren), siehe Optane, Itanium...
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Thakor und dergraf1
konkretor schrieb:

Und so sieht ein gesponsorter Test am besten direkt bei Intel aus. So wie Gamersnexus neulich. Alles direkt von Intel gestellte Werbung, die Kritik natürlich viel blumiger und alles gar nicht sooooo schlimm.

Ich hab Arc gestern nochmal live und in Farbe gesehen. Es ist schlimm. Und zwar richtig. Die nimmt man so nur geschenkt.
 
  • Gefällt mir
Reaktionen: Andy4, xXBobbyXx, Rios und 16 andere
Die Sache mit den Treiber ist so ein Ding. Mein Lenovo Yoga 720 lief ab Werk, selbst nach einem WIN 10 auf WIN 11 Update einwandfrei. Nachdem ich das System mal neu aufsetzte, funktionierten die Treiber kaum noch. WLAN ging immer wieder mal nicht (also der PC wusste nicht einmal mehr, dass er es hatte), der Stift ging nicht mehr. Selbst nach Gefühl 100 mal unterladen von der Homepage und Installation.

Die Treiber von Nvidia und AMD bei den GPU sind anscheinend wirklich nicht die Regel. Sie sind die Ausnahme.
 
@Volker kann dir nur zustimmen. Als ich das Video angeschaut habe, dacht ich irgendwie an eine Satire Sendung.

Irgendwie soll die Karte einen G8 Powerstate haben und im August soll es wohl nochmals einen besseren Treiber geben. Dann ist der Sommer auch schon durch
Q2/2022 wird wohl ein Meme werden.....
 
  • Gefällt mir
Reaktionen: xXBobbyXx und Thakor
Hab nur das Gamersnexus Video gesehen und finde es übertrieben da gleich von sponsoring reden, im Test wird ja auch geschrieben dass ggf. die Hardwarekombination für einen Teil der Fehler verantwortlich ist und ggf. traten die Probleme nicht überall in gleicher Intensität auf.
Das Fazit war ja auch nicht hype alles sehr super, sondern aktuell können wir das nur an experimentierfreudige Bastler empfehlen die mal was neues sehen wollen, sehe da jetzt nicht das sponsoring dahinter.
Aber unterm Strich sind die Probleme doch auch der Grund warum Intel das Ding jetzt halt mal vorsichtig auf den Markt bringen muss, es ist unmöglich die Probleme mit den zahlreichen Konfigurationen in freier Wildbahn in ihren internen isolierten Testumgebungen zu entdecken.
 
  • Gefällt mir
Reaktionen: Blade_user und W4RO_DE
Wenn ich mir vorstelle, dass ursprünglich ja sogar mal 2021 als Launch angedacht war... Da muss die Treibersituation ja noch katastrophaler gewesen sein oder es ist wie damals unter Koduri bei AMD und Vega, als sie den Doom-Teaser damals im Dezember zeigten und meinten, bis zum Launch gibt es noch Verbesserungen und Optimierungen. Da ist in einem dreiviertel Jahr dann trotzdem nichts mehr passiert.
 
Andy4 schrieb:
Wie viel Zeit sollen die noch bekommen? Sollte nicht die 3060er angegriffen werden? Also mal wieder großes blabla. Aber, wehe AMD ist mal nicht ehrlich.


Na und? Da gibt ja keine Muster..

Design kaputt? Wunderbar. Ich designe. Chef sagt: Sieht super aus. Test-Center sagt: Was ein Müll. Aber es ist alles nur dem Design geschuldet. Nebenbei hat die Firma, in der dieses Design entworfen wurde, mehr Ressourcen und Geld, als viele andere Mitbewerber. :lol:

Warum so "agro"?

Das mit den Treibern kann ich dir nicht beantworten, allerdings kam es schon öfters vor dass die Laborleistung später nicht im Feld abgerufen werden konnte.

Und ja - Design kaputt, dass kam auch schon öfters vor. S3, Trident, AMD und es gibt sicherlich noch weitere Beispiele, wo in Hardware gegossene Bugs / Fehler nicht per Software ausgeglichen werden konnten, oder die Funktion komplett im Eimer war und das unter Laborbedingungen nicht entdeckt wurde.

Aktuell scheint ja bei der A380 auch etwas nicht zu stimmen mit dem Board / PCB oder was auch immer.
Siehe Igors Video wo er das Powerbudget analysiert und feststellt, dass eine viel zu große Pause existiert wo die Last schlagartig runtergeht, das macht AMD und Nvidia besser.
 
Zuletzt bearbeitet:
Finde ich gut das Sie die Grafikkarten entwickelt und rausgebracht haben, egal wie schlecht diese geworden sind.
Vielleicht wird es bei der nächsten Serie besser, falls es eine geben wird. Von Intel würde ich trotzdem nichts kaufen.:p
 
Zurück
Oben