News Ethereum-Mining mit Intel Arc: Schlechte Benchmarks werden Spieler freuen

Exar_Kun schrieb:
Liegt der Karte überhaupt irgendwas?
Ja Video und 3d Rendering ist sie besser als die Konkurrenz ist ja auch etwas.
 
scryed schrieb:
Wenn ich daran denke was die erste Nvidia Karte war oder ATI ...... Da habe ich mich an meiner 3dfx Karte festgehalten so wie heute Intel belächelt wird
Wobei man damals sagen musste, dass schon ein falscher blick Windows zum Absturz brachte und die Treiber da garnicht mal was für konnten.

Unter Windows 95 und Windows 98 war auch die Reihenfolge, wie man die Treiber installierte, durchaus wichtig dafür, dass ein System später noch stabil lief. Ach, waren das noch Zeiten, als man sogar sich bei den Festplatten überlegen musste, welcher Jumper denn jetzt der richtige ist oder welche Jumper man sogar auf dem Mainboard stecken musste.

Vergessen einen Jumper richtig zu setzten und das System ist nicht gestartet. Führte dazu, dass das erste, was man prüfte die ganzen Jumper waren, dann kam erst der Rest.

Die Probleme der ersten NVIDIA - und ATi - Karten kam auch nicht unbedingt daher, dass es pauschal schlechte Treiber waren, es kam da sehr viel zusammen, manche Probleme lagen in der frühen Entwicklung von DirectX, andere Sachen an Windows selbst.
Katzenjoghurt schrieb:
Hihi. Erinnere ich mich auch noch dran.
Ich erinnere mich damals zu der Zeit daran, dass man bei vielen Spielen, wenn möglich, auf Glide setzte, da DirectX allgemein eher grottig war und OpenGL auch nicht so das wahre war. OpenGL hat sich erst durch "NVIDIA" wirklich gemausert damals und DirectX wurde "brauchbar" auch erst eher mit der Version 5 und 6, während die ersten Versionen einfach nur schlecht waren.
andr_gin schrieb:
Das was durch die Medien zirkuliert ist waren großteils Spekulationen.
Das Problem war eher, dass die Entwickler als auch die Foundation seit ca. 2016 immer wieder von PoS gesprochen haben und man auch damals schon zu verstehen gab, dass man umstellen will und dass man mit einer baldigen Umstellung rechnet, da man voll dran ist.

Es hat sich von da an immer wieder verzögert und der Tenor war aber immer wieder, dass man daran arbeitet und bald ist es soweit.

Natürlich hast du recht, dass die genauen Zeiten reine Spekulationen durch die Medien waren, gleichzeitig war die Foundation und die Entwickler aber immer schön schwammig, statt mal Klartext zu schreiben. Die Foundation stand und steht auch heute noch zwischen zwei Stühlen, auf der einen Seite wollen/wollten sie die Miner nicht verärgern und sind deswegen immer wage geblieben, auf der anderen Seite wollten sie die Kritiker beruhigen und den Wind aus den Segeln nehmen.
andr_gin schrieb:
Hier war das Problem, dass ein Großteil der Leute die Funktionsweise bzw. den Sinn der Difficulty bomb nicht verstanden haben.
Es ist immer leicht, allen anderen zu unterstellen, dass sie etwas nicht verstanden haben und man selbst ja zu einer kleinen exklusiven Gruppe gehört, die klüger ist als alle anderen.

Frage ist hier bei eher, ob hier nicht eher bewusst eine schwammige Kommunikationsweg gewählt wurde über die Jahre und man bewusst Sachen auch wage gelassen hat.

Was ich aber weiß: Gerade in der Tech-Szene und insbesondere bei Kryptowährungen gibt es viele Leute, die sich als viel klüger als der ganze Rest sehen und ich als notorische Besserwisserin müsste mich da eignetlich voll wohl fühlen, tu es aber nicht, weil selbst mir das teilweise zu einseitig ist.

Egal, wenn die Umstellung jetzt erfolgt und glückt: Toll. Wenn nicht? Dann eben nicht.
andr_gin schrieb:
Dieser wird an der Börse festgelegt.
Na ja, die Börse legt ja eigentlich keinen Preis fest. Das Angebot und die Nachfrage definieren den Preis, aber wirklich festgelegt wird da echt nichts.
 
wäre besser wenn es die beste mining karte wäre, dann würde die die finger von unseren gaming karten lassen :p
 
  • Gefällt mir
Reaktionen: Delirus und DerFahnder
Das ist doch schon lange uninteressant.
Es bestätigt blos die allumfassend schlechte Leistung der Intel GPU.
 
Mcr-King schrieb:
Ja Video und 3d Rendering ist sie besser als die Konkurrenz ist ja auch etwas.
Na ja, bei 3d Rendering (Workstation) ist sie aber nicht wirklich besser als die Konkurrenz, sie kann sich zwar auch mal vor die RX 6400 setzen, aber wird auch oft genug von der RX 6400 geschlagen und man muss bedenken, dass die RX 6400 nur 768 Shader hat, während bei der A380 1024 vorhanden sind und beide ca. gleich taktet. Gegen die Pro W6400 und auch gegen die W6500M sieht das ganze schon wieder ganz anders aus.

Der aktuell primäre Vorteil von ARC ist der AV1 Encoder, der ist zum jetzigen Zeitpunkt aber eher akademischer Natur. Will man möglichst sehr gute Ergebnisse beim Video-Encoding, sind Software-Encoder mit mehrfachen Durchlauf immer noch qualiativ unschlagarbar und fürs "Streaming" und Co fehlt an vielen Stelle noch die Integration. Und selbst wenn AV1 hier schnell kommen würde, ist man mit h.264 und h.265 auch noch eine Zeit gut bedient, es geht dann primär um Bandbreite, die man einplanen muss. Einer der Gründe, warum ich hier an den Standorten für synchrone 1 GBit/s-Leitungen kämpfe.
 
DevPandi schrieb:
Vergessen einen Jumper richtig zu setzten und das System ist nicht gestartet. Führte dazu, dass das erste, was man prüfte die ganzen Jumper waren, dann kam erst der Rest.

Da war ich froh das mein erster Rechner ein Pentium60 war und da nicht viele jumper hatte, wenn ich da manche 486 bzw 386 Boards denke jumper ohne ende für die CPU zum einstellen.... Aneitung nicht da, noch kein internet....

Wie du schon sagst bluescrean an der Tagesordnung bzw ein Normalzustand, habe auch lange gebraucht von msdos auf Windows 3.1 zu gehen und das nur weil warcraft 2 Editor nur unter Windows lief
 
Mcr-King schrieb:
Exar_Kun schrieb:
Liegt der Karte überhaupt irgendwas?
Ja Video und 3d Rendering ist sie besser als die Konkurrenz ist ja auch etwas.
Mhjo… das AV1 Hardware-Encoding ist wohl ganz schick und qualitativ auch nicht ganz so beschissen wie NVEnc in H.265.

Für den Hausgebrauch oder den Videoschnittkünstler ist das aber auch alles nicht so sexy.
Wenn’s keine monströse Größen annehmen soll, aber immer noch top-gut aussehen, macht man gescheiter immer noch Software-Encoding in H.264, für UHD eventuell auch in H.265, wenn das Bild kristallklar ist und kein Grain-Effekt drauf liegt.

Hardware-Encoding blurred einfach viele Details weg.
Für’n Gaming-Stream oder für YouTube vielleicht ok.

edit: Args, @DevPandi schrieb fast dasselbe.
Wenn man das Fenster ‘ne halbe Stunde nebenbei auf hat und nicht aktualisiert…
 
  • Gefällt mir
Reaktionen: Mcr-King
WebBeat84 schrieb:
Die Intel Karten sind sowas von unnötig.

Ich verstehe nicht, wie ein so großes Unternehmen wie Intel mit so viel Know-how, es nicht hinbekommt ansatzweise konkurrenzfähige Grafikkarten zu entwickeln.

Wäre es ein Startup würde ich es verstehen aber ein Riese wie Intel...
Im CPU Markt kommt ja auch nix innovatives mehr seit Jahren... Immer nur mehr MHz und ne 0 mehr in der Bezeichnung.

AMD hingegen schafft beides, CPU und GPU Top und immer besser und besser zu werden.


Wenn das so weiter geht ist Intel in 10 Jahre weg...
Ohne Umschweife: was du schreibst stimmt nicht, und zwar in keinem der 5 Absätze.

Kauf dir aber gern einen Ryzen der ersten Generation, oder einen Bulldozer. AMD CPU's sind doch, Zitat: "Top".
Die GPUs sind auch so eine Sache für sich - von den Treibern ganz zu schweigen.
Nur weil aktuell mal seit 2 Generationen bei den CPUs etwas brauchbares auf dem Markt ist und die GPUs mit der Brechstange so mithalten können, natürlich ohne nvenc etc., heißt das noch lange nicht das AMD irgendwas besser schafft. Der Zug kann genauso gut wieder abfahren, wie es bei AMD übrigens schon oft der Fall war.

Am Ende des Tages belebt Konkurrenz das Geschäft.

Es steht natürlich jedem Foristen, der das alles so einfach findet, frei ein Studium der Informatik zu machen und mit Intel bessere GPUs zu entwickeln.
Hier sind die (sehr gut bezahlten) Stellenangebote: https://jobs.intel.com/page/show/graphics-jobs
 
  • Gefällt mir
Reaktionen: Mcr-King und Delirus
@nutzername
Jetzt mal ganz unabhängig von der Qualität der Produkte hat es AMD immerhin fast immer geschafft auch ein Produkt auf den Markt zu bringen, ARC ist abgesehen von den Hand voll Chinesischen Karten immer noch Vaporware.
Ich muss mich auch nicht bei Intel bewerben und es besser machen um sagen zu Können ARC ist für ein Unternehmen mit 79,02 Milliarden Jahresumsatz und Weltweit 121.100 Beschäftigten einfach ein Armutszeugnis .
 
  • Gefällt mir
Reaktionen: Mcr-King
nutzername schrieb:
..
Nur weil aktuell mal seit 2 Generationen bei den CPUs etwas brauchbares auf dem Markt ist und die GPUs mit der Brechstange so mithalten können, natürlich ohne nvenc etc., heißt das noch lange nicht das AMD irgendwas besser schafft. Der Zug kann genauso gut wieder abfahren, wie es bei AMD übrigens schon oft der Fall war.

Finde nicht, dass man AMDs Leistung so sehr mit "nur" ins negative Licht stellen muss. Außerdem erscheint es mir Stand jetzt nicht korrekt zu sagen, dass AMD GPUs "mit der Brechstange so mithalten können". AMD GPUs sind doch stand jetzt effizienzter als Nvidia und bei Rasterization absolut konkurrenzfähig.

Der Zug kann außerdem immer und überall bei jedem Unternehmen "wieder abfahren". Auch sollte man als Gamer im Auge behalten, dass Intel zwar absolut die Leistung steigern konnte, aber die effizienteste Gaming CPU von Intel ist immer noch eine Comet Lake CPU. Sowohl Rocket Lake als auch Alder Lake sind weniger effizient beim Spielen und die 5 effizientesten Gaming-CPUs sind alle von AMD. (Quelle: https://www.pcgameshardware.de/CPU-...r-Effizienz-Index-fuer-Prozessoren-1341682/3/)

Da erscheint es mir Stand jetzt eher wahrscheinlicher, dass Intels GPU-Anstrengungen "wieder abfahren", wie es bei Intel schon oft der Fall war. Vor allem da Mining aktuell Intel den Marktstart nicht mehr erleichtert. Sobald Nvidia und AMD wieder Anreiz haben "Gamerpreise" anzupeilen und auch die Mittelklasse und darunter bedienen müssen (man merkt ja jetzt ganz deutlich, wie der High-End und Enthusiast Markt von tatsächlichen Gamern die mal eben 1k € für eine GPU lockermachen einfach schon abgefischt ist) wird es für Intel umso schwieriger eine schwache Karte (Games UND Mining) mit Kompatibilitätsproblemen zu verkaufen.
 
DevPandi schrieb:
Es ist immer leicht, allen anderen zu unterstellen, dass sie etwas nicht verstanden haben und man selbst ja zu einer kleinen exklusiven Gruppe gehört, die klüger ist als alle anderen.
Ich nehme mich hier nicht aus.
Ich war auch einer der "Nichtversteher" und war fix der Meinung, dass im März die Difficulty Bomb zuschlägt und dann Mining vorbei ist.
Aber nachdem es nicht so lief geplant habe ich nach etwas Sucherei doch zur Erleuchtung gefunden ;-)
DevPandi schrieb:
Na ja, die Börse legt ja eigentlich keinen Preis fest. Das Angebot und die Nachfrage definieren den Preis, aber wirklich festgelegt wird da echt nichts.
Angebot und Nachfrage trifft es ganz gut.
Das Angebot zu erhöhen hat noch nie zu Preissteigerungen geführt.
Zwar bleibt die global ausgeschüttete Menge an Coins bei mehr Minern gleich aber wenn mehr Miner einsteigen bedeutet das höhere Kosten d.h. Miner müssen einen größeren Teil ihrer Coins verkaufen.

Eine positive Auswirkung auf die Kurse wird es zumindest nicht haben.
 
nutzername schrieb:
Es steht natürlich jedem Foristen, der das alles so einfach findet, frei ein Studium der Informatik zu machen und mit Intel bessere GPUs zu entwickeln.
Da ist man eher bei Technischer Informatik oder Elektrotechnik, als bei Informatik. Wobei je nach Land Computer Science sehr TI Lastig gelehrt wird.
 
  • Gefällt mir
Reaktionen: Mcr-King und mm19
ETH Mining ist doch sowieso praktisch tot? 😅

Abgesehen davon, überzeugen konnte Alchemist bisher doch auf keinem Gebiet:confused_alt:

:schluck:
 
  • Gefällt mir
Reaktionen: Mcr-King
WebBeat84 schrieb:
mit so viel Know-how
Da mangelt es imho seit bald 10 Jahren an Know How in dem Unternehmen.

feris schrieb:
dann ergibt die Meldung einen Sinn.
Weil dass dann erfreulich wäre? Ergibt so schon auch Sinn - hätte ja sein können, dass die Karte nur für's Gaming scheiße ist, was i.d.R. ja auch abhängiger von den Treibern ist als Mining.
 
  • Gefällt mir
Reaktionen: Mcr-King
Wieso sollte das die Gamer freuen? Wenn die Karten nicht zum Zocken taugen wäre es für die Gamer doch gerade toll, wenn die Crypto-Spackos sich statt auf AMD und Nvidia auf Intel Xe stürzen....
 
  • Gefällt mir
Reaktionen: Bonanca, Mcr-King und hans_meiser
... Intel Arc: Schlechte Benchmarks werden Spieler freuen
Die Überschrift ist geil 🤣 .

Ich denke mal, man münzt das ganze auf 750 und 770 um und das diese auch nicht von minern aufgekauft werden. Und diese Grafikkarten werden im Hauptbudgetberreich liegen und genug Basispower haben.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ehrlich gesagt würde ich mich mehr freuen, wenn die Karte unschlagbar im Mining wäre. Dann blieben die nvidia/amd Karten für die Spieler.
 
  • Gefällt mir
Reaktionen: Mcr-King und Stereosound
Loopman schrieb:
Ich verstehe die News nicht:

1. Erfreut an diesen Grakas so ziemlich gar nichts die Spieler - ob die gut oder schlecht für Mining geeignet sind, macht kein Unterschied.
2. Wird im September eh bei ETH umgestellt, dann kann man sowieso nix mehr damit anfangen.

Genau das habe ich mich auch gerade gefragt:
Warum genau sollte die Tatsache, dass die Intel GPUs "schlecht minen" jetzt Spieler in irgendeiner Art erfreuen?
Weil die Miner dann weiterhin RX und GTX kaufen und das so gut für die Spieler ist?! :freak:

(Ich weiß, dass inzwischen kaum noch Karten fürs Mining gekauft werden, weil nicht mehr lukrativ - es soll nur die Unsinnigkeit dieser Überschrift verdeutlichen)

Exar_Kun schrieb:
Liegt der Karte überhaupt irgendwas?

Die Karte kostet in China umgerechnet 150€ und bietet dafür 4 digitale Displayausgänge sowie AV1 decoding...
Hierzulande wären die günstisten Karten mit 4 digitalen Displayausgänge sowie AV1 die RTX 3050 oder die RX 6600, beide kosten aktuell ~275€ und damit fast das doppelte!
Selbst für 4 digitale Displayausgänge alleine bezahlt man (abgesehen von einer exotischen ASUS Karte mit uralt GT730 und 2GB VRAM) bereits mindestens 170€...

Die ARC 380 mag nicht gut sein, aber eine preislich und leistungstechnisch vergleichbare RX 6400 ist es aufgrund ihrer massiven Unzulänglichkeiten (nur 2 Displayausgänge, nur 4GB VRAM in Kombination mit einem PCI x4 Interface, kein AV1 und nichtmal H.265) noch viel weniger - und im Gegensatz zur ARC 380 hilft bei der RX 6400 auch keine "Treiberoptimierung"
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King und Nomos
Zurück
Oben