News Intel A370M vs. AMD 6500M: Mit 33 % mehr Transistoren 36 % langsamer in Games

Draco Nobilis schrieb:
Was alle bei NVIDIA RTX 3050 (50% schneller) vs AMD RX6500XT vergessen, erstere kostet 50% mehr und kann nicht für Mining genutzt werden. Also alle die über die AMD Karte meckern, zeigt mir doch mal eine gleich teure neue Karte die schneller oder besser ist.
nicht nur das alle die RTX3050 Desktop mit der RX6500XT welche eben nur 4GB Speicher hat vergleichen
der GA107 RTX3050TI mobil der der Desktop am bis auf den Speicher ähnelt hat aber auch nur 64Bit = 4GB
zu der RX6500M gibt es noch keine Benchmarks die könnte also doch recht nahe an die RTX3050TI mobil kommen. Spiele wie Fortnite die nicht viel Speicher brauchen hat die RTX3050 auch nur 20% Vorsprung zur RX6500XT.
wenn AMD wollte könnten sie ebenso eine RX6500XT auf Navi 23 Basis mit 8GB bringen aber wozu sie bekommen so alles weg was sie Produzieren und soviel Ausschuss ware wie Nvidia scheinen sie auch nicht zu haben man bedenke der GA106 ist auch der RTX3060 die der der Gegenspieler vom der RX6600 oder eben 6600XT ist. die RTX 3060 wird aber ebenso mit dem GA104 = 392mm² verkauft welcher auch vür die RTX3070TI benötigt wird.
Wenn man sich mal die Straßen preise von AMD und Nvidia ansieht, kann man recht gut erkennen das AMD den low end Markt den Vorzug gibt und lediglich die RX6900XT noch im gleichen Bereich liegt.
https://www.3dcenter.org/news/die-a...treibung-aus-sicht-realistischer-listenpreise
Bei Nvidia hingegen liegt der Straßen preis einzig bei den High end Karten in der nähe und auch da ist nicht der Vollausbau wie bei AMD am günstigsten sondern nur die 3080TI also no 3 ( die 3090TI ist noch nicht gelistet)
es wird ein Spannendes Jahr werden denke aber AMD hat sich perfekt aufgestellt um sich gegen Nvidia sowie Intel behaupten zu können und eventuell beiden eine Klatsche zu geben. Mein Depot würde sich freuen ;)
Aktuell denke ich ist für AMD die RX6500XT das Margenschwein unter den GPU´s Winziges Die nur 4GB Speicher und als einzige Aktuelle Karte um EUR 200 Käuflich
 
  • Gefällt mir
Reaktionen: Maxxx800 und Draco Nobilis
BAR86 schrieb:
Stimmt genau.
Wurden ja die Radeon 9700 Pro oder auch die aktuellen Navi-Karten, an denen er von Grunddesign an beteiligt war absoluter Mist.

Mal ehrlich: wer hat da viel erwartet? Eine GPU zu designen braucht selbst für ein erfahrenes, eingespieltes Team 5 Jahre.
Intel ist spät dran, hat ein neues Team, kaum Erfahrung/keine eigene IP.
Die brauchen selbst wenn das Geld stimmt nochmal 5 Jahre, denn schließlich sind die anderen ja auch keien Dumpfbacken: Nvidia ist in diesem Geschäft seit 30 Jahren, die drehen seither jeden Transistor um um eben Transistoren zu sparen, Leistung rauszuholen, optimieren Treiber, haben ihre Leute bei den Spieleentwicklern installiert, damit da zielgerichtet optimiert wird, haben an jeder größeren Uni Forschungsteams bzw. Projekte.
Stimmt alles.
BAR86 schrieb:
Das muss Intel alles erst aufholen und das geht nicht einfach nur mit Geld.
Nur hier muss ich mich einhaken. Womit erreicht NV denn, dass auf ihre Hardware optimiert wird, dass man Einfluss auf die Lehre an Unis nehmen kann, dass Projekte mit Unis stattfinden? Mit Geld.
Nicht nur direkt, indem man stumpf jemanden bezahlt, der dann Lobbyarbeit in der eigenen Organisation macht, vor allem indirekt.
Ansprechpartner für Unis, Entwickler etc. kosten Geld, man bezahlt diese Leute. Partnerprojekten wird zugestimmt, weil sich NV bereit erklärt diesen oder jenen Anteil an der Finanzierung zu übernehmen, Geräte anschafft oder zur Verfügung stellt etc.
Also doch, all das erreich man natürlich mit Geld.
 
Die Intel Desktop Karten werden gegen die 7000 bzw. 4000er Karten antreten, nicht mehr gegen die derzeitigen. Und die werden die Intel Karten zermalmen.
Oaje Intel, das wird wohl nix.
 
  • Gefällt mir
Reaktionen: TechFA
Btw hat AMD die Arc A370M selber gar nicht getestet, die haben einfach die fps aus Intels A370M Slide übernommen. Ohne zu wissen, welche Benchmarkszene verwendet wird, ist das völlig wertlos. Deswegen fehlen jegliche Angaben. Das ist ein dahingeschissenes Propagandamaterial, mit einem seriösen Vergleich hat das nichts, aber auch wirklich nichts zu tun. Die FPS von Test A zu nehmen und mit Test B zu vergleichen, ist voll daneben. Die RX 6500M muss sich auch erstmal in unbhängigen Tests zeigen, es gibt derzeit rein gar nichts. In letzter Zeit ist AMDs Marketing ein Abfallprodukt. Computerbase scheint ja wirklich tief drinzuhängen bei AMD.
 
Die Frustration ist anhand der enttäuschenden Benchmark Ergebnissen verständlich, aber was soll sich da noch groß zum guten wenden. Es sind die gleichen Games die auch Intel getestet hat.
Eben mit der Ingame Benchmark sequence mit voreingestelltem medium settings profil.

Bei so schwachen GPU's der Einsteigerklasse dürfte auch die CPU nur eine untergeordnete Rolle spielen
und daher keinen signifikanten Einfluss auf die Werte gehabt haben und wenn eher zu Lasten AMD's.
 
  • Gefällt mir
Reaktionen: andi_sco und Rockstar85
mkl1 schrieb:
Ohne zu wissen, welche Benchmarkszene verwendet wird, ist das völlig wertlos.
Einige der Spiele haben eingebaute Benchmarks.

mkl1 schrieb:
Propagandamaterial, mit einem seriösen Vergleich hat das nichts, aber auch wirklich nichts zu tun
Ach sag bloß, AMD Marketing postet Marketingmaterial. Da sind wir ja überrascht.

Der Vergleich ist seriös genug, um die grobe Richtung zu sehen. Auch durch ein paar andere Bench Szenen wird Intel da keine 50% mehr Leistung rausholen.
 
  • Gefällt mir
Reaktionen: andi_sco
Ghostshield schrieb:
A370M hat nur 1650 MHz mit 14Gbps bei 64Bit und die 6500XT 2200 MHz mit 18Gbps @ 128Bit...
Der Vergleich hinkt also ein wenig.
Genau deswegen ist es ja auch die 6500M :)
Diese ist eben vergleichbar, dank 64bit Si und 50W TdP

Aber die Kommentarspalte ist schon echt comedy Gold. Da kann man @SV3N nur zustimmen.. Sind wir also nun hier auch beim alternativfaktischen angekommen? Ich bin echt immer wieder erstaunt wie viele ihre Firmen bis auf fas Blut verteidigen und dann eben auch gerne mal Fakten umdeuten. Beschwert euch doch bei Intel, die haben erst diese Benches veröffentlicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rowe32
Ghostshield schrieb:
A370M hat nur 1650 MHz mit 14Gbps bei 64Bit und die 6500XT 2200 MHz mit 18Gbps @ 128Bit...
Der Vergleich hinkt also ein wenig.
Die 6500XT hängt ebenfalls nur an 64 Bit, erst die 6600 geht rauf zu 128.

mkl1 schrieb:
Ohne zu wissen, welche Benchmarkszene verwendet wird, ist das völlig wertlos.
mkl1 schrieb:
dahingeschissenes Propagandamaterial, mit einem seriösen Vergleich hat das nichts
Und? Es ist einfach eine Antwort auf das Pressematerial von intel, das genauso unspezifisch ist.
 
  • Gefällt mir
Reaktionen: Rockstar85
Spiele werden wohl auch nicht für Intel optimiert sein

Ein Vergleich Leistung/Preis/Stromverbrauch/Features mit verschiedensten Spielen/Anwendungen wäre mal angemessen
 
andi_sco schrieb:
Und? Es ist einfach eine Antwort auf das Pressematerial von intel, das genauso unspezifisch ist.
Bei Intel kannst du alles an zusätzlichen Infos zu Benchmarks, die sie auf Präsentationen gezeigt haben, auf deren Seite nachlesen
https://edc.intel.com/content/www/us/en/products/performance/benchmarks/overview/
Auch wenn hier scheinbar noch die Daten zur Arc Präsentation fehlen, die werden wohl die Tage aktualisiert werden.

Der Post von AMD ist so jedenfalls nicht vergleichbar damit, auch genau deshalb, weil man, bis die Seite aktualisiert wurde, noch nicht öffentlich sehen kann, welche Szenen und welche Konfigurationen verwendet wurden.
Beim originalen Vergleich von Intel ist das auch nicht weiter tragisch, denn da kann man sich sicher sein, dass bei beiden GPUs die gleichen Szenen genutzt wurden und es vergleichbar ist.

AMDs Post vergleicht nun Zahlen von sich, bei denen sie nicht angeben, wie sie entstanden sind, mit Zahlen die sie von Intel übernommen haben und bei denen sie noch nicht wissen, wie sie entstanden sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mkl1 und Streuselkuchän
Powl_0 schrieb:
Einige der Spiele haben eingebaute Benchmarks.

Und wer sagt, dass sie den eingebauten Benchmark überhaupt verwenden? Grafiksettings hast du auch keine exakten.


andi_sco schrieb:
Und? Es ist einfach eine Antwort auf das Pressematerial von intel, das genauso unspezifisch ist.

Was und? Intel testet, AMD nicht. Den Unterschied erkennst du noch, oder etwa nicht? Das ist ein neues low, was AMD veranstaltet. Aber es ist klar, dass du AMD noch verteidigen musst, das sagt alles aus. Und nein das ist kein Marketing, das ist ein Fake. Du kannst nicht einfach fps von einem anderen Test ohne bekannten Rahmenbedingungen zum Nachstellen nehmen, das funktioniert nicht. Kein seriöser Tester würde auf die Idee kommen sowas anzubieten, AMD offensichtlich schon.
 
Sorry, aber fälscht AMD jetzt Benchmarks?
mkl1 schrieb:
Intel testet, AMD nicht
Das wird ja immer kruder und hat mittlerweile mit einer Diskussion wenig zu tun
 
  • Gefällt mir
Reaktionen: Rockstar85 und rowe32
mkl1 schrieb:
Grafiksettings hast du auch keine exakten.
Medium preset, siehe Intel Folien.

9 Seiten und diese Diskussion kommt wieder und wieder hoch.
Ergänzung ()

mkl1 schrieb:
Kein seriöser Tester würde auf die Idee kommen sowas anzubieten,
Außer Intel selbst mit den Arc Folien I guess, nachdem da auch sowas wie TDP fehlt, die genauen Szenen/Benchmarks wie du selbst sagst, sie vergleichen mit einer Xe iGPU in einer CPU mit anderer Leistungsklasse, etc.

Es ist eben am Ende doch wieder nur
mkl1 schrieb:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Powl_0 schrieb:
Außer Intel selbst mit den Arc Folien I guess
Intel kennt allerdings die Rahmenbedingungen für ihren eigenen Vergleich, es werden auch für Xe und Arc die gleichen Szenen genutzt worden sein, auch wenn sie noch nicht öffentlich kommuniziert wurden.

AMD kennt diese aber nicht und kann infolge dessen auch nicht einfach diese Werte nehmen und was eigenes dagegenstellen, bevor sie genau wissen, was bei Intels Werten getestet wurde.
 
Da Intel die Hosen voll hatte und den direkten Vergleich mit der Konkurrenz wie der Teufel das Weihwasser gemieden hat. Spricht das denke ich für sich selbst. Intel hat anscheinend etwas zu verbergen und dies nicht zu knapp.

Wenn Intel die Eier gehabt hätte und den direkten Vergleich mit der Konkurrenz nicht gescheut hätte,
hätte es AMD auch nicht nötig gehabt, zugegeben etwas unkonventionell zu solchen Mitteln zu greifen.

Aber selbst die internen Benchmarks gegen die Iris Xe sind so etwas von miserabel und einer diskreten Grafikkarte eigentlich nicht würdig.
1649001349313.png
RX6500M

Ich wage mal zu behaupten das Rembrandt (nur APU) mit der A370M kurzen Prozess macht und die RX6500M unerreichbar in einer anderen Sphäre angesiedelt sein wird.

1649000754691.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm, TechFA und andi_sco
Fortatus schrieb:
Genau das dachte ich auch. Während AMD je nach Spiel skaliert, scheint die Intel-GPU gegen ein CPU-Limit zu laufen. Und das heißt, die Treiber sind noch nicht gut genug.
Vielleicht liegt das ja alles auch gar nicht an schlechten Treibern oder Intel's "Inkompetenz", sonder an was ganz anderem, siehe diesen extrem aufschlußreichen Post von @Smartcom5.

TechFA
 
iGameKudan schrieb:
Für das Erstlingswerk erstaunlich potent. Man sollte auch die geringen TDPs nicht vergessen, die Radeon-GPU dürfte da ziemlich sicher drüber liegen. Ich bin gespannt, was die größeren GPUs vorallem im Desktop leisten…

Allerdings sollte Intel sich da nicht ausruhen und die Lücke mit der Zeit stark verkleinern.

Die „Mit der Mittelklasse holt man die meisten Kunden ab“-Taktik hat schon bei AMD zu Zeiten von Vega und Polaris zu einem starken Abschmelzen der Marktanteile gesorgt. Ein fehlendes HighEnd-Angebot färbt auch auf die unteren Leistungsklassen ab - zumal man ja ab einem gewissen Leistungsbedarf keine Wahl mehr hatte.
Genauso ist es .."Nvidia Hatt die schnellste GPU mit der 1080ti also hole ich mir eine 1060 da Nvidia besser" .."AMD ist Budget" hängt der Marke immernoch zu sehr dran.
Ergänzung ()

Adzz schrieb:
Ja, beim Top Modell. Aber eine 4060 soll so schnell werden wie die 3080. Kann mir nicht vorstellen das nvidia es vermasselt. Im Vergleich zu Amd hat Nvidia den größeren Ferrigungssprung vor sich. Von 8nm auf tmsc 6nm. Dazu noch Verbesserungen an der Architektur und du hast schon eine top Karte. Amd hat wiederum ein Chiplet Verfahren das sie bei der Verfügbarkeit nach vorne bringen kann.
In raytracing soll die 4060 so schnell sein wie die 3080. Und selbst dass ist erstmal nur ein Gerücht, Fakt ist das Nvidia nicht ohne Grund der 4000 Serie Maximal 600 Watt gönnt.
Das machen die bestimmt nicht um dich unabhängiger von russischen Gas zu machen beim Raumheizen.
 
Zuletzt bearbeitet:
Ich hoffe trotzdem, dass das mit weiteren Iterationen mal etwas gescheites wird. Ein Konkurrent mehr lässt uns nur profitieren.
 
DrSmugface schrieb:
In raytracing soll die 4060 so schnell sein wie die 3080. Und selbst dass ist erstmal nur ein Gerücht, Fakt ist das Nvidia nicht ohne Grund der 4000 Serie Maximal 600 Watt gönnt.
Das machen die bestimmt nicht um dich unabhängiger von russischen Gas zu machen beim Raumheizen.
In Raytraycing soll sie so schnell werden wie eine RTX 3090. Und was hat Russisches Gas damit zu tun? Blödsinn.
 
Zurück
Oben