News Intel Arc Pro A60 und A60M: Single-Slot-Profi-Grafikkarte mit 12 GB oder auch mobil

Joshinator schrieb:
Ich hab mir vor ein paar Tagen eine A380 in den Jellyfin Server gesteckt, war erstaunt wie einfach das (mit nem 6.2er Kernel) war. Kleine Karte, kleiner Preis, flott genug für transcoding und AV1-Support.

Bei Gaming wird Intel wohl noch was brauchen, aber wenn "Content Creation" vorrübergehend dafür sorgt das die die Gaming GPUs in Ruhe weiter-entwickeln können, gerne.

Wie sieht es denn mit Stromverbrauch aus? Ist es wirklich so schlimm wie alle immer schreiben?

Wollte auch ne a380 in den Server bauen aber 19W im Idle schrecken mich ab nur für transcoding.
 
PegasusHunter schrieb:
Sorry, aber Dein Wissenstand ist nicht mehr aktuell,
Wenn ich also deine Wortwahl benutze ist dies aggressiv? Verstehe ich jetzt nicht. Zumindest hatte ich belustigende Gefühle dabei, deine Wortwahl gewählt zu haben. Warst du aggressiv bei deiner Wortwahl?

Sind also gemessene Wert von CB vom 17.05.23 nicht mehr aktuelle Werte? Schreibt also CB falsches?
Hast du andere Werte?
Zumindest kann ich laut CB doch deutlich aktuelle Messungen zeigen. Wo sind deine Werte die deinen Wissensstand begründen?
 
Schöne Sache, dass es hier weiter geht.
Der Workstation und Server Markt wird hier sowieso Intels primäres Ziel sein, nachdem Nvidia gezeigt hat wie viel Geld dort liegt, sicher nochmal mehr.
Die Gamer Karten bleiben doch nur eher Nebenprodukte fürs Image, Tests und etwas Zubrot um die Kosten zu decken. Aber mir soll es Recht sein...
 
  • Gefällt mir
Reaktionen: pfreampfl
@PegasusHunter

Kommt von dir dann auch noch was konstruktives? Dann erhelle ihn und uns mit anderen Infos, die seine Aussagen widerlegen sollen.
 
Ich kann nichts dafür, dass andere hier nicht so intensiv lesen, in den letzten Wochen/Tagen gab es genug neues, Faulheit unterstütze ich nicht. Wer wirklich Interesse hat , sucht sich die neusten Informationen, falls es welche gibt. Achja, was war denn an Deinem Beitrag konstruktiv? gleiches Recht für Alle ;-)
 
yamaharacer schrieb:
Wollte auch ne a380 in den Server bauen aber 19W im Idle schrecken mich ab nur für transcoding.
Wenn der Idle nicht wäre, wären die Karten echt super für einen Mediaserver mit transcoding.
Hoffe das Intel das in den nächsten Generationen besser in den griff bekommt. Dann kann man auch mal etwas mit ihnen im Mediaserver experimentieren, im Desktop ist der bedarf doch eher höher was die Leistung angeht.
 
  • Gefällt mir
Reaktionen: [wege]mini
yamaharacer schrieb:
aber 19W im Idle schrecken mich ab nur für transcoding.

Hier muss man ehrlich sein.

Der "idle" Verbrauch von Intel ist in bestimmten Auflösungen echt nicht gut.

Genau wie der "idle" Verbrauch von AMD bei 4K und 144Hz förmlich explodiert. Warum das so ist, wissen wahrscheinlich nicht einmal die Hersteller. Gewollt, war das nicht.

Ob man jetzt über Software nachsteuern kann, wissen nur die Softwareguys. Und selbst die wissen es erst, nachdem sie es versucht haben.

Als Endkonsument jetzt darüber zu streiten, wer mehr "Ahnung" hätte, ergibt dann natürlich gar keinen Sinn mehr. Man kann sich über Momentaufnahmen unterhalten und Messwerte diskutieren, die den aktuellen Stand darstellen.

Und da sind wir wieder bei Tatsachen.

Der "idle" Verbrauch von Intel ist in bestimmten Auflösungen echt nicht gut.

mfg
 
  • Gefällt mir
Reaktionen: mdPlusPlus
Alesis schrieb:
Wenn ich also deine Wortwahl benutze ist dies aggressiv? Verstehe ich jetzt nicht. Zumindest hatte ich belustigende Gefühle dabei, deine Wortwahl gewählt zu haben. Warst du aggressiv bei deiner Wortwahl?

Sind also gemessene Wert von CB vom 17.05.23 nicht mehr aktuelle Werte? Schreibt also CB falsches?
Hast du andere Werte?
Zumindest kann ich laut CB doch deutlich aktuelle Messungen zeigen. Wo sind deine Werte die deinen Wissensstand begründen?
https://www.hardwareluxx.de/index.p...ie-idle-leistungsaufnahme-der-arc-karten.html

wurde das ausgetestet? wäre interessant wie sich das unter Linux verhält
 
Fedorauser schrieb:
wurde das ausgetestet? wäre interessant wie sich das unter Linux verhält
Meine Meinung ist klar definiert.
Intel hat gelogen, dass mit Intel Grafikkarten, Intel günstigere Preise bieten wird.
Stattdessen kosten die Teile nicht weniger als die Konkurrenz und zudem muss man Einstellungen im BIOS machen, damit man wenigstens weniger verbraucht wird im IDLE, aber immer noch mehr als andere Karten. Da wäre dann die Frage, erreicht man mit diesen Einstellungen auch bei anderen Karten eine geringere Leistungsaufnahme?
Zudem helfen die Einstellungen nicht, wenn 2 Monitore benutzt werden.

Fazit:
Intel hat gelogen bei den Preisen. Intel hat gelogen sie würden den Markt mit tollen Angeboten fluten. Mit Intel Arc Karten muss man auch noch sich im BIOS auskennen, was für die Masse also nicht möglich ist.
Fakt ist und wird auch so bleiben: Mit Intel wird der Grafikkartenmarkt nicht besser werden. So wie es seit der Zeit ständig beschworen wird, als Intel den Einstieg in den Grafikkartenmarkt für Spiele angekündigt hat.
Deswegen bleibe ich dabei und stehe auch dazu. Mit Intel wird nichts besser werden im Grafikkartenmarkt. Wir können froh sein, wenn dieser Missstand im Grafikkartenmarkt nicht noch schlechter wird.

Obendrauf kommt noch dieser Mist von RDNA3 und Nvidia mit einem tollen RTX 4060/Ti Chip, der durch technische Beschneidungen und übelste Preise zu einer Schäbigkeit verkommt.
 
Die Vram Bestückung und Speicheranbindung kriegen schonmal ne 1 sowie Grafikkarten Erscheinungsbild . . . wenn da nicht die grottige Effizens und auch Leistung wäre :(
 
@Fedorauser
Ich habe aut deine Frage geantwortet. Aber meine Meinung ist eben ein Gesamtbild. Und meine Meinung bezieht sich auf die Aussage derer, die seit Jahren darauf schwören, dass mit Intel im Grafikkartenmarkt es besser werden wird.
Doch die Fakten sprechen seit Jahren eine andere Tatsache.
Wenn diese meiner Meinung nicht dein Interesse trifft, dann bin ich der falsche Ansprechpartner. Und jetzt aus meinem Gesamtbild sich etwas heraus zu popeln, um damit irgendwie etwas bei Intel zu beschönigen, reicht es einfach nicht, der Masse einen Vorschlag zu unterbreiten, man könne ja im BIOS irgendwelche Einstellungen machen, die nicht zwingend helfen müssen, im Dual-Monitorbetrieb ganz sicher nicht und es auch keine Treiber dafür geben wird, die das Problem der hohen IDLE Leistungsaufnahme einzugrenzen.
Zudem stehen diese Anleitungen nicht auf dem Karton der Grafikkarte. Die Erreichbarkeit ist also gering für den Massenmarkt.

Ergo, mit Intel wird der Grafikkartenmarkt nicht besser werden auch wenn noch so viele dies beschwören.
Das AMD mit RDNA3 genau an der gleichen Stelle Mist in den Markt wirft, entkräftet meine Meinung nicht, dass es mit Intel nicht besser wird.
 
yamaharacer schrieb:
Wie sieht es denn mit Stromverbrauch aus?
Nicht wirklich gemessen, werd den heute Abend mal an der Steckdose messen und im Idle vergleichen. Ist zwar Debian (und headless), aber die Erwartungen sind nicht allzu hoch.

Da der Server aber aus Ryzen-Abfall vom Desktop besteht ist er sowieso nicht effizienteste Kiste.
Der Power-Switch vom Mainboard hängt an ESPHome, läuft also nicht 24/7 sondern wird per Home Assistant hoch/runtergefahren.
Ergänzung ()

Alesis schrieb:
Ergo, mit Intel wird der Grafikkartenmarkt nicht besser werden auch wenn noch so viele dies beschwören.
Und der CPU Markt wurde von selbst besser?
Intel hat Bulldozer ausgenutzt, und als Ryzen dann mit Generation zu Generation besser wurde, wurde auch der CPU Markt besser.
Nicht mehr Intel Re-refresh++ sondern echte Updates weil Konkurrenz da war.

Intel mag heute nicht mit Nvidia (nichtmal mit AMD) konkurrieren, aber in ein paar Generationen kann das anders aussehen.
Zen 1 war nicht problemlos, eine solide Basis die nur stellenweise besser als Intel war, aber wo steht Ryzen heute?
Intel hat genug Ressourcen um Arc genauso zu verbessern um früher oder später eine echte Alternative zu sein.
Rome wurde auch nicht an einem Tag erbaut, ich würd nicht zu vorschnell Urteilen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cruscz
Fedorauser schrieb:
https://www.hardwareluxx.de/index.p...ie-idle-leistungsaufnahme-der-arc-karten.html

wurde das ausgetestet? wäre interessant wie sich das unter Linux verhält
Alesis schrieb:
Meine Meinung ist klar definiert.
Intel hat gelogen, dass mit Intel Grafikkarten, Intel günstigere Preise bieten wird.
Stattdessen kosten die Teile nicht weniger als die Konkurrenz und zudem muss man Einstellungen im BIOS machen, damit man wenigstens weniger verbraucht wird im IDLE, aber immer noch mehr als andere Karten. Da wäre dann die Frage, erreicht man mit diesen Einstellungen auch bei anderen Karten eine geringere Leistungsaufnahme?
Zudem helfen die Einstellungen nicht, wenn 2 Monitore benutzt werden.
Das ist keine passende Antwort sorry
 
TriceO schrieb:
Nachdem ja nun zwischenzeitlich das (gemunkelte) Aus im Raum stand, häufen sich zuletzt ja positive Nachrichten.
Ein sehr schönes Beispiel dafür wie Gerüchte gestreut werden und auch Verbreitung finden. Ein Aus von Arc und Nachfolgern hat nie Sinn ergeben, spätestens als feststand welche iGPU in Meteor-Lake einzieht. Arc in MTL, aber nicht mehr als dGPU?
 
Fedorauser schrieb:
Das ist keine passende Antwort sorry
Das verstehe ich. Aber wie sicherlich auch du weißt, wird gerne aus dem Kontext von Meinungen irgendetwas rausgepopelt, um damit den gesamten Kontext zu entkräften.
Nur weil es in diesem Fall in einem bestimmten Szenario eine Möglichkeit gibt, die Idle Leistungsaufnahme mit einer Arc zu begrenzen.
Nämlich Einstellungen zum Beispiel am PCI-E Slot und unter Windows beim Energieplan.
Nur kann ich ehrlich nicht sagen, sind diese BIOS Einstellungen auch bei OEM PC vorhanden. Die ja generell wenig Einstellungen im BIOS überhaupt zur Verfügung haben. Zum anderen werden diese Einstellungen sofort hinfällig, wenn man einen zweiten Monitor angeschlossen hat.

Was genau willst du also wissen? Denn dies habe ich jetzt schon mehrfach geschrieben. Und ob dies unter Linux funktioniert kann ich nicht sagen. Zum einen nutze ich kein Linux und zum anderen habe ich keine Arc.
Und wie du im Diskussionstrang lesen kannst, zu dem von dir geposteten Link, gibt es Erfolge, aber auch Messungen und Meinungen, die nicht an Grafikkarten heranreichen, die im Leerlauf eine exzellente geringe Leistungsaufnahme zeigen.
 
Alesis schrieb:
Was genau willst du also wissen? Denn dies habe ich jetzt schon mehrfach geschrieben
Fedorauser schrieb:
https://www.hardwareluxx.de/index.p...ie-idle-leistungsaufnahme-der-arc-karten.html

wurde das ausgetestet? wäre interessant wie sich das unter Linux verhält
ist ja nicht so schwer oder? Dazu brauch es maximal drei Sätze.
Ja und die Leistung liegt im IDLE bei..
NEIN....
und selbiges beim Thema Linux.

Der Rest ist Geschwurbel.
 
yamaharacer schrieb:
Wie sieht es denn mit Stromverbrauch aus?
Idle pendelt sich bei 49W ein, und mit der GPU 69W.
Transcoding von einem 4k HEVC Stream zu H.264 dann 132W, selber Transcode per GPU 108W.

Nur Quick&Dirty jeweils 1x 10min laufen gelassen (und per Smart Steckdose gemessen), ohne irgendwas im Bios anzupassen oder mit HuC/Low-Power-Encoding in Linux/Jellyfin rumzuspielen. Da könnte man bestimmt noch ein paar Watt im Standby & Encoding rausholen.
Aber im 24/7 Betrieb wird das wenig Sinn machen, noch weniger wenn ein Großteil der Mediathek per Directstream läuft.
 
Danke für den Test.

Dann hat sich tatsächlich nichts verändert und sie zieht im Idle 20W.
 
Zurück
Oben