News Im Test vor 15 Jahren: ATis Radeon 9100 IGP im Bandbreitenlimit

bensel32 schrieb:
Was will man denn sonst damit? Ist dein Ziel "kein Bild"?
Das was die überwiegende Mehrheit hier auf der Seite hält: Zocken. Deswegen wäre AMDs MCM Zeppelin auch für viele, gerade im Mobilbereich, mal interessant gewesen. Eine IGPU die dank HBM mal nicht am Speicher verreckt und Minimum Midrange erreicht.
 
Zum AMD k6-3 war es das Problem das der Athlon schon auf dem Markt war. Da wurden leider die Kapazitäten in den Athlon gesteckt. Der 3 kam leider etwas zu spät. Sonst war es eine gute CPU.
 
Dass es im Gegensatz zu früher nur noch wenige Hersteller für Chipsätze (Grafik, Lan, Audio, ...) gibt, sehe ich mit einem lachenden und einem weinenden Auge. Wenn früher einer meiner Bekannten Windows neu aufgespielt haben wollte, war oft genug irgendein verfluchter Exot verbaut. Nicht umsonst habe ich immer ein Paar PCI Karten für solche Notfälle griffbereit gehabt ;)
 
  • Gefällt mir
Reaktionen: Pamoli
Ich sehe die geringere Auswahl nur als vorteil an. Die aufgaben der Chipsätze wandern immer mehr in die CPU und das bisschen, das noch übrig ist, schaffen aus einer Hand weniger Probleme.
Wenn ich da an diesen schrott von VIA oder Sis zurückblicke, weine ich dieser Zeit keine Träne nach. Die Intelchipsätze waren die einzig brauchbaren. Nforce war so lala (mega im Gegensatz zu Via oder sis natürlich), die späteren von ati waren dann echt gut. Mit ein Grund warum AMD Ati übernommen hat. Endlich mal eine Plattform aus einer Hand und weg mit dem schlechten Ruf von instabilen Plattformen, welcher ausschliesslich durch die miesen Chipsätze verursacht wurde
 
Botcruscher schrieb:
Das was die überwiegende Mehrheit hier auf der Seite hält: Zocken.
Wenn ich zocken will kaufe ich mir keine iGPU. Dann kaufe ich mir eine Grafikkarte die für´s zocken gedacht ist. Also so wie es die überwiegende Mehrheit hier hält!
 
ATI hat ein paar Jahre lang Chipsätze für Intel-CPUs gemacht. Als AMD sie übernommen hat hatten sie immer noch ein paar im Portfolio, also ergab sich die interessante Situation, dass im Prinzip AMD Chipsätze für Intelboards im Angebot hatte. :daumen: Auch wenn es nicht für lange war.
 
@Vulture: das lag auch an Crossfire, weil sli und xrossfire damals jeweils ein chipsatz des grafikherstellers benötigt hat
 
rg88 schrieb:
Die Frage ist aber: Wozu?

Ich spiele recht häufig "alte" Spiele (5-15 Jahre alt) und Emulation.
Hier gibt es häufiger das Problem, das einzelne Titel aufgrund von Treiberschwierigkeiten nicht mit Amd/Intel/Nvidia laufen.

Dass das die Masse nicht interessiert ist mir schon klar. Früher hatte man halt die Wahl und heute nicht mehr.
 
Vulture schrieb:
...dass im Prinzip AMD Chipsätze für Intelboards im Angebot hatte. :daumen: Auch wenn es nicht für lange war.

Und jetzt liefern sie halt die "integrierte Grafikkarte" :p
 
Für Büroarbeit konnte man integrierte Grafikchips schon lange verwenden. Dass man iGPUs auch für hochauflösende und ruckelfreie Videowiedergabe und einige andere Multimedia-Aufgaben verwenden kann, ist - relativ gesehen - ein noch recht neues Feld. Und zocken kann man eigentlich erst seit Raven Ridge einigermaßen passabel.
Ich habe den Sinn von integrierten GPUs bis vor ein paar Jahren nie verstanden. Sobald man im Internet selbst nur auf ein paar Flash-Animationen auf einer Seite gestoßen ist, hat es doch schon die ersten Ruckler gegeben. Da ging wirklich nur reine Büroarbeit mit überwiegend statischen Inhalten.
Ich bin über die Feiertage gerade in die Heimat gefahren und nutze den PC meiner Mutter, den sie selbst eher wenig frequantiert. Jedenfalls bin ich überrascht, dass der schon recht betagte AMD A4-5300 Titan Quest AE in hohen Details (ohne AA) auf 1680x1050 packt. Aber anno 2006 war das Spiel und die Engine schon recht genügsam.
 
  • Gefällt mir
Reaktionen: konkretor
Es wird Zeit 20-25 Jahre zurückzugehen. Die 15 Jahre sind doch viel zu modern. Würd gern 486er VLB Tridents Voodoos Doom und die Geburt des CD-Brenners sehen.
 
  • Gefällt mir
Reaktionen: bensel32 und konkretor
Raptor85 schrieb:
Für Büroarbeit konnte man integrierte Grafikchips schon lange verwenden. Dass man iGPUs auch für hochauflösende und ruckelfreie Videowiedergabe und einige andere Multimedia-Aufgaben verwenden kann, ist - relativ gesehen - ein noch recht neues Feld.
Hochauflösende Videos sind ja selbst noch ein recht neues Feld.

Ich benutze schon recht lange IGPs. Nur zum Anzeigen von Videos, auch DV-Videos brauchte es eigenltich nicht viel. Schwierig wurde es erst mit dem Digitalfernsehen und DVD, da her Kompressionsformate benutzt wurden. Mpeg2 war das. Das brachte geringe Dateigrößen - aber die einzelnen Bilder mußten von der Hardware eben "erzeugt" werden. Dafür braucht eman entweder einen Mpeg-Decoder auf der DVB-Karte (gabs von Hauppauge), eine starke CPU - oder eben eine Grafikkarte, die in Hardware erledigen konnte. Die IGPs waren da technisch immer etwas hinter den Grafikkarten her...

Seitdem gibts immer wieder neue Kompressionsformate, die wieder neue Hardware erfordern, will man den Prozessor nicht überlasten. H.265 etwa können heute einige recht neue Grafiklösungen immer noch nicht. Dafür können aktuelle Mehrkernprozessoren aber meist trotzdem ein flüssiges Video anzeigen.
 
Zuletzt bearbeitet:
Fragger911 schrieb:
Es ist aber immer wieder erstaunlich zu sehen, wie weit wir in 15 Jahren gekommen sind (oder manchmal auch nicht).
Eben, denn im Grunde gelten zwei Dinge bis heute für die iGPU, auch wenn die eben heute zusammen mit der NB, also den Controllern für RAM und die Anbindung der Graka (heute über PCIe Lanes) in die CPU gewandert sind:
ATis Radeon 9100 IGP im Bandbreitenlimit
Man schau sie an wie die größere Raven Ridge APU gegenüber der kleineren performt, die bekommt einfach wegen der schlechten RAM Bandbreite die zusätzlichen CUs nicht in Leistung umgesetzt. Oder schaut was die Intel iGPU mit dem eDRAM plötzlich für eine Performance haben, gerade auch im Vergleich zu denen ohne eDRAM.
Spielbare Bildwiederholraten erreichten beide Lösungen in den meisten Fällen nicht.
Ist doch nicht anderes und macht doch auch nichts, Gamer kaufen sich sowieso eine Graka. Ein iGPU muss die Windows vernünftig anzeigen können, wenn sie die CPU auch noch beim Abspielen von Videos unterstützt, ist dies schon mehr als eigentlich gefordert.
Realsmasher schrieb:
Etwas, das ich heute sehr vermisse: Intel Chipsätze mit ATi/AMD/Nvidia Grafik.
Chipsätze sind ja heute nicht mehr so wichtig, da die Funktionen der NB eben heute in die CPUs integriert sind, wie eben auch die damals dort integrierte GPUs, weshalb heute das Board und der Chips für die Performance auch keine Rolle mehr spielen und die Hersteller allenfalls durch Fehler die Performance verderben oder durch eine mehr oder weniger starke Übertaktung ab Werk anheben können, was oft zu extrem hoher Leistungsaufnahme wie bei den 9900K Reviews führt.

Aber die Kaby Lake-G kommen dann dem am nächsten was Du Dir wünscht, die haben eine AMD GPU im Chipgehäuse als iGPU sitzen.
Botcruscher schrieb:
15 Jahre und bei den IGP Gurken hat sich null verändert: Macht Bild ist aber sonst unbrauchbar.
Mehr muss es doch nicht können, die Resourcen sind für eine iGPU einfach zu knapp, alleine die Leistungsaufnahme einer fetten GPU auf einer Graka kann schon locker über 250W liegen, so viel schaffen gerade mal die neusten, stärkten HEDT CPUs alleine und wie sollte man dann nochmal 250W für die GPU im gleichen Chipgehäuse mit unterbringen? Dazu die Anbindung des RAMs, die GPUs haben ganz andere Anforderungen an die Speicherbandbreite und die müssen sich iGPU auch noch mit den Kernen der CPU teilen. Es macht keinen Sinn eine Monster iGPU bauen zu wollen, da nimmt man besser eine extra Graka wenn man eine leistungsfähige GPU möchte und wer darauf verzichten kann, dem reicht es doch wenn die iGPU den Desktop darstellen kann.
Botcruscher schrieb:
Eine IGPU die dank HBM mal nicht am Speicher verreckt
Das wäre dann auch der Kaby Lake-G, der hat für die AMD Vega GPU nämlich auch noch 4GB HBM2 dabei, nur kostet der auch, denn gerade HBM ist sehr teuer und es braucht auch Platz inter dem HS.

Hier der Review des Intel NUC Hades Canyon mit einem Core i7-8809G Kaby Lake-G, nur kostet der als Barebone fast 900€, ohne RAM, Laufwerke und Betriebssystem.
 
"Es macht keinen Sinn eine Monster iGPU bauen zu wollen, ... wer darauf verzichten kann, dem reicht es doch wenn die iGPU den Desktop darstellen kann"

Eine iGPU mit eigenem Mini-RAM, also 512-1024MB, wäre für GPGPU Aufgaben doch perfekt.
Eigentlich wäre es AMDs Fusion Gedanke noch einen Schritt weiter gedacht.
Wobei dieser Mini-RAM als L3/L4 Cache dienen müsste, damit die CPU auch Zugriff darauf hat. Angeschlossen mit 4*64 Bit und entsprechendem Takt würde schon günstiger, alter DDR3 RAM reichen um 60GB/s zu erreichen.
 
Für was für GPGPU Aufgaben wäre eine iGPU mit so einem minimalen denn überhaupt geeignet geschweigen denn perfekt? Gerade im Bereich des GPU Computing braucht man viel RAM um die großen Datenmengen auch unterzubringen.

AMDs Fusion ist tot, erst hat AMD viel zu lange gebraucht um überhaupt eine SW Unterstützung anzubieten und dann haben sie die auch wieder eingestampft und bauen heute wie damals nur APUs mit eher schwacher CPU, wobei die Raven Ridge meine ich die Fusion Lösung gar nicht mehr unterstützen. Im Grund haben auch Befehlserweiterung wie AVX-2 und AVX512 vieles überflüssig gemacht, zumal diese viel einfacher zu benutzen sind.
 
Zuletzt bearbeitet:
Holt schrieb:
AMDs Fusion ist tot, erst hat AMD viel zu lange gebraucht um überhaupt eine SW Unterstützung anzubieten und dann haben sie die auch wieder eingestampft und bauen heute wie damals nur APUs mit eher schwacher CPU, wobei die Raven Ridge meine ich die Fusion Lösung gar nicht mehr unterstützen.
So viel falsches in einem einzigen Satz, Gratulation. Man merkt dir ja regelrecht an, wie sehr dich das Thema Fusion reizen würde, da aber Intel leider absolut gar nichts in dieser Richtung entwickelt hat, musst du armer Fanboy nun mit aller Gewalt und amerikanischen Propagandamitteln Fusion verteufeln. Analysieren wir deinen Geistigen Dünnschiss:

AMDs Fusion ist tot
Falsch. Siehe Xbox und PS5.

erst hat AMD viel zu lange gebraucht um überhaupt eine SW Unterstützung anzubieten
Falsch. Erste APU war der E-350. der lief von Anfang an problemlos, auch unter Linux. die GPU wurde von Anfang an von sämtlichen Programmen unterstützt, weil eben die alte VLIW-5 Architektur der Radeon 5000 Serie.

und bauen heute wie damals nur APUs mit eher schwacher CPU
Falsch. R5 2400G deklassiert geradezu gleichteure Intel CPUs, weil 4C/8T. Der 200GE deklassiert ja noch mehr, da hat Intel ja gar nichts brauchbares in dieser Preisklasse. Und AMD kann hier sogar schon h265 4k 24p ruckelfrei. Kann Intel in dieser Preisklasse nicht per CPU Beschleunigung und nicht per GPU. Da ruckelts immer wieder mal, so wie früher bei h264 24p Material.

wobei die Raven Ridge meine ich die Fusion Lösung gar nicht mehr unterstützen.
Gratulation, wieder falsch. Rate mal, wie bei Piledriver APUs die Verbindung zwischen CPU und GPU aufgebaut ist. Und dann rate mal, wie es bei Raven Ridge gelöst ist. Nein, die Antwort ist nicht Intel, sondern Infinity Fabric a.k.a. PCI Express.
 
Zuletzt bearbeitet:
Ich dachte auch eher an einfachere Aufgaben n Windows.
Z.B. hat die Foto App die Intel GPU genutzt um, ja was eigentlich, zu machen?
 
FGA schrieb:
Es wird Zeit 20-25 Jahre zurückzugehen. Die 15 Jahre sind doch viel zu modern. Würd gern 486er VLB Tridents Voodoos Doom und die Geburt des CD-Brenners sehen.

Da TommyHPC (jetzt Computerbase) am 16. April 1999 online ging wird das mit deinem Wunsch wohl schwierig werden, da wohl das Archivmaterial fehlen wird :evillol::evillol:
 
Zurück
Oben