News Sapphire: HD 5450 im Low-Profile-Format

@Bensen:

Ja, es war nicht besonders "schlau" (dämlich würd ich nicht sagen) Karten mit so einem Föhn heraus zu schicken, aber das ist imho trotzdem kein Grund diesen Umstand so aufzublasen, in einem Test über Grafikkarten die anders in den Handel kommen, obwohl man weiß das sie anders in den Handel kommen, und sogar selbst die Möglichkeit hatte, aus der aktiven eine passive Karte zu basteln.
Noch unnötiger war es dann, das augenscheinlich die Karte im kompletten Test für dieses "Verbrechen" bluten mußte. Denn es findet sich in diesem Artikel fast keine Seite mit Text, in dem nicht mehrere negative Bemerkungen über Dinge gemacht wurden, welche die Karte überhaupt nicht verdient hat .. nur weil sie keine passive Karte bekommen haben? Oder weil die Karte aktuell noch etwas teuer ist?
Was haben denn diese subjektiven Eindrücke und der Preis bei den den jeweiligen Kapiteln zu suchen, wo es nichts mit dem Lüfter oder dem Preis zu tun hat? Ebenso im kompletten Fazit? Hätte ein Absatz über den Preis nicht gereicht?
Würdest du einen Spieletest als objektiv und aussagekräftig erachten, in dem Sound, Grafik, Gameplay und Storyline Abwertungen erhalten, nur weil das Spiel mit SecuRom ausgeliefert wird?

Diese Karte hat bis auf den Preis einfach keine Punkte, die auf negativer Seite aufzuzählen wären - da ist es imo absolut unbegründet so ein Fazit abzuliefern. Es gibt einfach nichts negatives an der Karte. Zumal das Fazit ja nicht mal Inhaltlich korrekt ist;
  • die 40nm punkten nach ihren Zahlen selbstverständlich gegenüber der alten Technik, da sie bei ähnlicher Leistung einer 4550 deutlich weniger Verbraucht in Last/FurMark und mit aller Sicherheit auch im Multimonitor betrieb, und bei nahezu gleichem Verbrauch zwischen 25% und 50% schneller ist als die 4350 (von der G 210 ganz zu schweigen).
  • eine Vergleichbare (nämliche passive) G 210 eben NICHT für 30€ zu haben ist, sondern Lagernd erst ab 34,88 € angeboten wird
  • die Behauptung nicht wirklich etwas mit 3D-Spielen zu tun hat total überzogen ist, da '3D-Spielen' ganz sicher nicht mit Spielen gleichzusetzen ist, welche in aktuellen Benchmarks mit High-End Grafikkarten gebencht werden. Die Karte hat ne Leistung einer 2600 Pro, und Besitzer dieser, ähnlicher oder Leistungsschwächerer Karten würden sie Lügen Strafen für diese Aussage - damit kann man ältere und weniger performante Spiele nämlich sehr wohl zocken.

Das Fazit, im Grunde der komplette Test, liest sich dermaßen übertrieben negativ und trotzig, das ich fast glauben mag, der Schreiber hat (s)eine beleidigte und trotzige Stimmung mit voller Absicht in die Texte mit eingebracht. Wie ich schon geschrieben hab, eine Retourkutsche.

Wie du ja auch selbst schreibst, der Preis ist eine Momentaufnahme, die Beurteilung der Karte jedoch sollte absolut im Vergleich zu anderen erhältlichen Lösungen sein. Hier jedoch liest sich in 2 Tagen der Test genauso negativ wie in 6 Monaten - alles nur wegen dem Preis.

So ganz nebenbei;
In Anbetracht der Tatsache das eine etwas schnellere (aber mehr Strom verbrauchende) 4550 für 33,80€, eine deutlich Leistungsschwächere 4350 (mit nur 256MB) für 22€ und eine deutlich Leistungsschwächere aber nicht gerade günstige G 210 (passiv) für 34,80€ zu haben sind, aber alle 3 gemeinsam haben, das sie
- kein Eyefinity
- kein DX11
- kein unkomprimiertes Dolby TruHD und DTS HD
bieten, erachte ich eine 5450 für angepeilte 39€ mit 512MB überhaupt nicht für zu teuer.

Nun wirst du fragen, was interessiert mich Eyefinity, was interessiert mich TruHD, oder DTS HD, ich hab keinen so hochwertigen Receiver ..
.. dann frage ich:
Beschwerst du dich auch bei Board XY das Sideport Memory bietet, oder nen zweiten 16x PCIe Slot für Dual GPU, oder WiFi onboard, teurer ist, wie Mainboards ohne, nur weil DU diese 3 Dinge nicht benötigst?

Das ganze Theater um den Preis findet doch nur statt, weil alle eine bessere 4350 mit mehr Features und weniger Verbrauch zum gleichen Preis erwartet haben, und jetzt nicht bekommen. Nur ist das doch ein wenig utopisch.

Sorry für den langen Text.
 
Zuletzt bearbeitet:
@MixMasterMike:
Ich warte immer noch auf eine Begründung Deinerseits. Wer so wie Du einen auf dicke Hose macht und Leute persönlich angreift, der sollte im Anschluss auch was Konkretes zu sagen haben. Also, wo ist der fachliche Fehler im Artikel?

Wir haben etwas bewegt, das die, die es betrifft, mehr als zu schätzen wissen. Das ist unterm Strich auch mehr wert, als die Hofierung oder Ablehnung durch ein paar berufsmäßige Heise-Trolle. Es gab nicht wenige, die wie ich eine zweite Karte im PC stecken hatten, um diverse Ausgaben zu erledigen. Dank W7 geht das ja. Frag die Amis, die sind nicht so AMD-affin, wie die Heerscharen deutscher Fanboys. Wir haben den Artikel in den Staaten auch gebracht und dies im Vorfeld zusammen mit ATI geplant. Wenn die deutsche Abteilung jedoch vor Arroganz kaum atmen kann, dann ist das nicht mein Problem.

Es gab z.B. eine größere Möbelkette, deren Programme im 3D perfekt liefen, das Planen vorm Kunden jedoch zum Geduldsspiel werden ließen. W7 samt ATI's 5er auf einem Tonstudioequipment geriet ebenfalls zur Farce, die Beispiele lassen sich beliebig fortsetzen. Hier ging es durchaus schon um Stückzahlen. Ich hoffe, man hat endlich mal die richtigen Schlüsse gezogen. Es ist ja letztendlich keine Gnade von ATI, sondern deren Pflicht denen gegenüber, die bereits so viel Kohle für diese Teile gezahlt haben.
 
Zuletzt bearbeitet:
Auch wenn ich mich sehr zusammen reiße und zur Kenntnis nehme, dass es da in einer extremen Anwendungsnische ein Performance "Problem" gab, schlicht weil niemand mehr daran gedacht hat für sowas den Treiber zu optimieren im Jahr 2010, so muss ich doch sagen, das es eben viel Lärm um Nichts gewesen ist. Diese GDI und GDI+ Schnittstellen sind uralt und werden kaum noch verwendet, so dass eben 99,999% aller Anwender eben diese so genannten "Probleme" niemals bemerkt haben und niemals bemerken würden. Das schlimme daran ist, dass ausgerechnet THG dann einen überheblichen Bericht mit ja sogar zwei Teilen macht wie die Bildzeitung und so tut als wäre sonst was grausames los mit den Radeon 5000. Für Monate werden jetzt tausende Trottel in den Foren dieser Welt rumerzählen, dass die Radeon 5000er Karten ja schlechte 2D Leistung hätten, ohne dass die überhaupt wissen was das bedeutet oder ob es sie betrifft und damit suggerieren sie automatisch, dass Nvidia Karten ja besser seien, was ja auch nicht der Fall ist, aber alles hat eben voll auf Anti-ATI Stimmungsmache abgezielt. Das ist mitunter der sinnloseste Aufreger den es seit langem gab in dieser Branche und da können sie auf ihre Leistung echt stolz sein. Sie haben ein winziges Problemchen entdeckt, welches fast niemanden betrifft und mit einem Magazin kooperiert was sehr oft sehr fragwürdige Tests hervorbringt und Meinungsmache betreibt, fast so schlimm wie PCGH. Wenn sie sowas wirklich ernst meinen, dann wäre es das mindeste sowas auf eine fairere Weise in den Medien zu verbreiten und einfach nur viel deutlicher zu betonen, dass für all die Zockerkiddies hier das sowieso total irrelevant ist. Computerbase z.b. ist der Ort der für sowas eigentlich immer richtig ist, da die Redakteure hier ein gutes Gespür dafür haben wann sie zu weit gehen und sich nicht neutral verhalten oder irgendwas aufbauschen und hypen.

PS. Der Test von THG ist z.b. sehr toll:
http://www.tomshardware.com/reviews/overclock-phenom-ii,2119-10.html
Phenom II vs. Core i7 im Overclocking Test... der i7 bekommt einen Thermalright Ultra 120 Extreme Kühler und der Phenom wird mit dem boxed Kühler getestet! Das muss man sich mal auf der Zunge zergehen lassen. Das Ergebnis klingt natürlich auch typisch amerikanisch "Meh AMD sucks big time dude" und die Begründung des Autors ist schlicht, dass er im "Labor" grad keinen anderen Phenom II kompatiblen Kühler hatte, man kann also davon ausgehen, dass die keinen einzigen verdammten AM2/AM2+/AM3 Kühler in den letzten Jahren in den Fingern hatten, weil da nur Intel Intel Intel benutzt wird.
 
Zuletzt bearbeitet:
Hättest Du den Artikel gelesen, dann wüsstest Du sogar, dass ich geschrieben habe, für wen er relevant ist und für wen nicht. Und dass es auch im die kommenden LowCost-Modelle ging, die jetzt gekommen sind. Die Mehrzahl der User zockt nämlich nicht. Die paar Bekloppten, die sich Karten jenseits der 300 Euro reinstopfen sind sehr gering. Davon lebt eine Firma nicht. Es war so gesehen auch eine Vorsichtmaßnahme, denn mein Horizont endet im Gegensatz zu Deinem ganz offensichtlich nicht am 3D-Tellerrand.

Diese GDI und GDI+ Schnittstellen sind uralt und werden kaum noch verwendet,
Beweise? Über 90% dessen, was auf Deinem PC läuft, gibt Grafik übers GDI aus. Die paar Spiele fallen da kaum ins Gewicht. Mach mal den erwähnten Scan. Dir werden vor Staunen die Augen rauskullern.

Wenn sie sowas wirklich ernst meinen, dann wäre es das mindeste sowas auf eine fairere Weise in den Medien zu verbreiten und einfach nur viel deutlicher zu betonen, dass für all die Zockerkiddies hier das sowieso total irrelevant ist
Soso, ich zitiere mal aus dem Artikel, den Du angeblich gelesen haben willst und der das ja überhaupt nicht herausstellt:

Welche Art Programme sind genau betroffen?

Alle 2D-Programme, die eine Zeichenausgabe über das GDI realisieren (und damit auch unter Windows XP laufen), wenn viele Zeichenobjekte auszugeben sind und wenn eine Bearbeitungsmöglichkeit für grafische Inhalte existiert (Zeichenprogramme, Coverdesigner, Planungsprogramme, Office-Programme)

Bei welchen Programmen haben wir konkret Probleme festgestellt?

* Corel Draw, Adobe Illustrator, Adobe Freehand MX, Nemetschek Allplan (2D-Bereich)
* Adobe Photoshop CS3/CS4 (umfangreichere Vektorobjekte auf verschiedenen Layern)
* MS Publisher, MS Powerpoint, verschiedene Hausplaner im 2D-Entwurfsmodus
* MS-Excel beim Ausgeben größerer Charts und dem Editieren großer Tabellen mit Füllungen
* Diverse Handwerkerlösungen, wie Strangplanung (Elektro), Sanitär- und Heizungsplanung
* Branchenlösungen im Industriesektor (Wandelementierung, Grundrissplanung, Sägepläne usw.)


Wir möchten anmerken, dass alle aufgeführten Programme auf herkömmlichen Grafikkarten bereits zufriedenstellend liefen und es keine Argumente dafür gibt, eine teure Ati FireGL oder Nvidia Quadro Grafikkarte zu kaufen, wenn bisher auch LowCost-Karten im Bereich bis 50 Euro gute Ergebnisse lieferten. Handwerker kaufen keine Spezialkarten, Immobilienbüros auch nicht.

Welche Programme betrifft es generell nicht?

* Alle 2D-Programme, die eine Zeichenausgabe über Direct2D realisieren (und nicht unter XP laufen)
* Alle 3D-Programme, die Direct3D nutzen und keine 2D-Inhalte ausgeben
* Aller Programme, die OpenGL für die 2D-Ausgabe nutzen


Mach mich bitte nicht für die Leseschwäche von Fanboy-Kiddies verantwortlich. Du plapperst auch nur nach, was irgendwo stand und in Deinen Kram passt. Völlig ohne selbst mal zu lesen und das eigene Gehirn bei der Lektüre zu nutzen. Da ist eine Diskussion mit Dir leider absolut überflüssig, weil Du inhaltlich und fachlich außer Phrasen wirklich Nullkommanichts beizutragen hast.
 
Mein Horizont endet nicht bei 3D keineswegs, aber wenn 90% von allem ja unter der ach so schrecklichen GDI Leistung leidet, vor allem unter Win 7, wieso merke ich dann nix davon? Und sonst auch niemand den ich kenne der so eine Karte hat? Das einzige was scheinbar weniger Punkte hat, ist euer selbst programmiertes Benchmark Tool, so what? Lustigerweise hab ich sogar Kumpels die den ganzen Tag mit Photoshop, Dreamweaver und anderen Programmen arbeiten und der eine nutzt eine 4650 und der andere eine 4550 und keiner hat jemals Performanceprobleme festgestellt und ja die machen das beruflich.

Weiterhin ist das was da alles aufgezählt wird extrem vage, vor allem der Part mit "Welche Programme betrifft es generell nicht?" müsste wohl eher heißen "Fast alles ist nicht betroffen also macht euch keine Sorgen." Der ganze Text klingt total überheblich wie ich schon sagte und das nun einfach zu leugnen und zu behaupten "Ach was das ist doch total neutral geschrieben hier guck" ändert es auch nicht. Die Macht der Verdrängung sag ich nur. Wenn man schon eine Firma so anmachen will sollte man das auch richtig ehrlich tun und nicht versuchen sich auch noch so rauszuwieseln. Naja ich hab meine Meinung oben gesagt und nun ist gut, das worum es ging hast du scheinbar gar nicht so verstanden.
 
@Milamber
Ich nenns dämlich, bin da sehr direkt und rede icht gerne drum herum ;).

Ich sag ja nicht das ich bei nem Review genauso gehandelt hätte. Das ist aber das was der Autor wohl mutmaßlich als Grund im Hinterkopf hatte.

Wobei ich den Aspekt des Lüfters so OK finde. Man kann nur das testen und bewerten was man vorgesetzt bekommt. Der Test wurde ja auch schon etwas eher als zum Release geschrieben, da kann man noch nicht wissen wie die einzelnen Verisonen jetzt wirklich aussehen. Ist ja nicht ungewöhnlich wenn Hersteller erstmal das Referenzdesign übernehmen.
Aber nen Nachtrag hätte man in der Tat bringen können.

Aber so viele negative Aspekte finde ich im Test auch gar nicht.
Die Performance ist nicht gestiegen, weswegen ich diese Karte auch niemanden empfehlen würde, der irgendwelche halbwegs neue Spiele spielen möchte.

Beim Stromverbrauch wird ja nichts negatives gesagt. Es geht einfach nicht mehr viel besser. 4W unter Last sind in meinen Augen einfach vernachlässigbar und wahrscheinlich ist da die Serienstreuuung größer.

Etwas fehlt als positiver Aspekt die Tauglichkeit für HTPCs eben durch mittlererweile möglichen Bitstreaming. Das wird ja mit die Hauptanwendung der Retailverkäufe sein. Klar, der große OEM-Teil wird in Bürorechnern sein dasein fristen.
 
MixMasterMike schrieb:
Mein Horizont endet nicht bei 3D keineswegs, aber wenn 90% von allem ja unter der ach so schrecklichen GDI Leistung leidet, vor allem unter Win 7, wieso merke ich dann nix davon? Und sonst auch niemand den ich kenne der so eine Karte hat?

Weil die meisten nicht wissen woran es liegt. Wenn ein Bild beim Drehen etwas ruckelt, dann denkt doch keiner gleich an die GPU. Man hat ja auch keinen direkten Vergleich zu anderer Hardware und denkt auch, dass das Systembedingt so ist. Ist es aber nicht. Der User merkt das Problem also sehr wohl, er weiß bloß nicht, dass er mit dem Problem nicht leben muss, sondern es etwas besseres gibt.

Genau das gleiche beim win xp-2D-Problem mit 780G Chipsatz. Man sieht ganz genau auf dem Videos, dass da unter XP etwas ruckelt, was unter vista nicht ruckelt, trotzdem hat scheinbar keiner was gesagt, weil keiner wusste woran es liegt, an CPU, Betriebssystem oder muss es gar so sein? Ich zitiere mal Planet3DNow und die sind eigentlich sonnst immer ziemlich AMD-lieb:

"Während sich einige Diskussionteilnehmer partout weigerten, den Fehler überhaupt als solchen anzuerkennen und pauschal allen betroffenen Anwendern Unwissenheit, Unfähigkeit und Dummheit unterstellten, ließen andere eine sehr interessante Beobachtung zu: so mancher von dem Problem betroffene war sich dessen gar nicht bewusst, bis man Ihm das Problem demonstrierte. Viele erachteten ihr System als fehlerfrei, bis Sie einen entsprechenden Benchmark durchführten oder eine Webseite mit vielen Flash-Inhalten besuchten. Berühmt-berüchtigt war in diesem Zusammenhang das Wownachten-Spiel von eBay Deutschland, welches selbst einen 3 GHz Quad auf einem 780G/790GX-Board in die Knie zwang, auf jedem anderen System mit halbwegs schnellem Singlecore-Prozessor oder auf dem gleichen System, jedoch unter Windows Vista, flüssig spielbar blieb.

Dass Anwender sich dieses Problems nicht bewusst waren, kann unseren Recherchen zufolge auf drei Ursachen zurückgeführt werden. Zum ersten wäre da eine niedrige Auflösung, denn unterhalb von 1.280x1.024 konnten wir subjektiv kaum eine Verlangsamung feststellen – scrollen lief flüssig, Flash-Videos ließen sich in Vollbild subjektiv flüssig abspielen. Nur Sorgenkinder wie Photoshop oder Lightroom waren ob der fehlenden Beschleunigung weiterhin unbrauchbar und auch die entsprechenden Benchmarks zeigten sich unbeeindruckt von der eingestellten Auflösung - wirklich verschwunden war das Problem also nicht, lediglich subjektiv nicht mehr spürbar. Zum zweiten können Besitzer mehrerer Monitore aufatmen, denn im Multimonitorbetrieb scheint der Fehler nur stark abgemindert aufzutreten, hier war selbst ein Arbeiten mit Photoshop und Lightroom noch möglich. Und zum dritten beeinflusst auch die Schriftkantenglättung die Gesamtleistung spürbar – ist Standard statt Cleartype eingestellt, wird das System spürbar schneller und umgekehrt. Zum Grund hierfür siehe „Exkurs Fensterdarstellung“."

Quelle: http://www.planet3dnow.de/vbulletin/showthread.php?t=355982&garpg=4
 
Zuletzt bearbeitet:
@MixMasterMike:
Ich vermisse eigene Gedanken und das nötige technische Basiswissen auf Deiner Seite, um so eine Diskussion überhaupt führen zu können. Und die 4er deiner dreamwavernden Kumpels kannst Du als Argument gern streichen, um die gings nämlich gar nicht. Also um die 4er, nicht die Kumpels. Oops, ich vergaß ja, dass Du den Artikel gar nicht gelesen hast. Damit können wir es dann auch getrost beenden.

Ich empfehle Dir mal einen Blick in RMA-Listen bzw. ein Gespräch mit einem größeren Händler. Du wirst Bauklötze staunen, was alles so ruckelt. Ich habe lange recherchiert.
 
@Bensen: Du brauchst das Fazit von da, nur mal mit dem Fazit von CB vergleichen.
Und die Leistung ist gestiegen, die 4550 ist nicht der Vorgänger, das ist die 4350, wie ich auch schon im Test von CB geschrieben und verdeutlicht habe.

Und das dieser Test vor allem im Fazit total überzogen und voreingenommen negativ geschrieben wurde, ist ja nicht nur mir aufgefallen. Es wird kein gutes Haar an der Karte gelassen, jeder Umstand wird nicht beschrieben, sondern ins negative gezogen. Die Karte ist zu langsam. Aber egal, die Karte ist ja eh nicht zum zocken gedacht. Kein Overdrive mehr, wo liegt der sinn das zu sperren. Egal, die Karte zuübertakten würde ja eh keinen Sinn machen. Eyefinity, DX11, BitStream .. bäh, sind eh alles Dinge die keinen Interessieren. 40nm - hat ja gar nix gemacht, das sie bei gleicher Leistung einer 4350 weniger verbraucht, und bei gleichem Verbrauch schneller als ne 4550 ist interessiert uns dabei nicht. alle haben ne passive karte bekomen, nur wir nicht, mimimi, schmollen wir ein wenig herum. Zum zocken ist ne Karte mit ner Leistung einer 2600 Pro ja voll untauglich, mehr wie Solitär bekommt ihr da eh nicht mit gebacken.

und noch so kleinere, aber feine unterschiede in der formulierung, die in einem neutralen test so nie gebracht worden wären. Sorry, aber ganz objektiv betrachtet, ist der test einfach nur peinlich, weil er sich liest, als wäre er von jemanden geschrieben, der total beleidigt und angepisst ist, und schön auf die tränendrüse drückt - das erkennt man vor allem am fazit.
die faktischen unwahrheiten, wie z.B. der presliche vergleich mit einer g210 für 30€, die es für 30€ passiv aber nicht gibt als beispiel, sondern erst für 35€, kommen da noch hinzu.
 
Sieht meiner ehemaligen 4550 von Sapphire sehr ähnlich. Exakt gleicher Kühlkörper, ebenfalls LowProfile Platine in Blau und wohl die gleiche verkorkste Verarbeitung? Würde mich nicht wundern.

PS, bei ATI-Karten sind Spieltests ansich überflüssig, da unterhalb der 45xx bzw 54xx alles nur für 2D und Video geeignet ist.
 
Die 5450 ersetzt 4550 und 4350. So einfach ist das. :D

Das Fazit von CB finde ich auch richtig passend.
Aber den Atrikel von HT4U finde ich jetzt nicht so dramatisch. Einfach etwas theatralisch geschrieben.
Der Stromverbauch hat sich nun mal nicht maßgeblich geändert und die Performance auch nicht. Ersteres ist aber einfach nicht mehr so einfach möglich und letzteres für diese Karte uninteressant.
Was zählt sind Features und der Preis.
 
Zuletzt bearbeitet:
mensch bensen; nicht laut dem CB Test, aber laut dem HT4u Test HAT sich die Geschwindigkeit bei gleichbleibenden (unter last veringertem) verbrauch um 30-50% verbessert gegenüber der 4350, und bei deutlich besserem Verbrauch ist die Geschwindigkeit ebenbürtig, gegenüber der 4550. Und was du als maßgeblich erachtest, würde mich echt interessieren; es sind ggü. der 4550 im Idle 1 Watt, unter Last 5-6 Watt. Was soll man erwarten, wenn diese Karten sich eh schon bei unter 10 bzw. weit unter 20 Watt bewegen? Das sie im Betrieb Strom Produzieren? ;)

Da ist es im Grunde völlig egal, welche der beiden Karten man nun als angeblichen Vorgänger zählt - sie ist beiden überlegen. Der G210 sowieso.
 
Ich rede nicht vom CB-Test.
Ja 4W zur gleich schnellen 4550 sind in meinen Augen nicht maßgeblich, da könnten Schwankungen von Karte zu Karte größer sein. 1W sind Messungenauigkeit.
Da mögen andere Personen andere Maßstäbe haben, aber für mich ist das total egal.

Sicher ist die Karte besser als die beiden Vorgänger, deswegen ersetzt sie die ja auch.
 
wobei 4 Watt ein Mehrverbrauch von 33% darstellen.
Daher ist es bei der Selben Leistung schon eine enorme Steigerung.
 
FormatC schrieb:
Der ATI_Win7_Vista_Catalyst10.1_Hotfix_8.69.4RC1 behebt das Problem, es sollte also mit dem nächsten WHQL (10.2) erledigt sein.
Ich habe die Treiber bereits testen können und mein Statement abgegeben (positiv). Benchmark morgen auf TH.


Wo bleibt der Test?
 
Frag die Redaktion. Mehr als abgeben kann ich die Ergebnisse auch nicht.

AERO
======================================================================

BENCHMARK: DIRECT DRAWING TO VISIBLE DEVICE

Text: 37230 chars/sec
Line: 37064 lines/sec
Polygon: 11464 polygons/sec
Rectangle: 5290 rects/sec
Arc/Ellipse: 9247 ellipses/sec
Blitting: 8744 operations/sec
Stretching: 698 operations/sec
Splines/Bézier: 27352 splines/sec
Score: 1572


BENCHMARK: DIB-BUFFER AND BLIT

Text: 29104 chars/sec
Line: 54845 lines/sec
Polygon: 17376 polygons/sec
Rectangle: 2006 rects/sec
Arc/Ellipse: 22696 ellipses/sec
Blitting: 9302 operations/sec
Stretching: 867 operations/sec
Splines/Bézier: 27005 splines/sec
Score: 1850


BASIC
======================================================================
BENCHMARK: DIRECT DRAWING TO VISIBLE DEVICE

Text: 27115 chars/sec
Line: 15071 lines/sec
Polygon: 7205 polygons/sec
Rectangle: 2667 rects/sec
Arc/Ellipse: 9014 ellipses/sec
Blitting: 8865 operations/sec
Stretching: 778 operations/sec
Splines/Bézier: 10207 splines/sec
Score: 1043


BENCHMARK: DIB-BUFFER AND BLIT

Text: 30488 chars/sec
Line: 42857 lines/sec
Polygon: 16988 polygons/sec
Rectangle: 1972 rects/sec
Arc/Ellipse: 23529 ellipses/sec
Blitting: 9302 operations/sec
Stretching: 861 operations/sec
Splines/Bézier: 24242 splines/sec
Score: 1790

Die rot markierten Zahlen sind die, die sich extrem verbessert haben.

hotfix.jpg
 
Obwohl es Quark wäre den Test zu veröffentlichen bevor der Treiber nicht verfügbar ist.
 
Im Prinzip wirds wohl auch der Grund sein.

Heute ist allerdings bereits der Hotfix für die 5800er (Streifen) online gegangen, da dürfte der 2D-Patch schon mit dabei sein.
 
Bezweifle ich. Erstens weil davon nicht die Rede ist und zweitens weil die Version unterschiedlich ist. Der von heute ist noch ein 8.69.3er.
 
Zurück
Oben