News Intels Grafiktreiber mit fragwürdigen Optimierungen?

Tja, wie ich in einem anderen Thread schon sagte, heute hat es Intel erwischt, NV wurde schon und ATI ebenso. Geforce 3 und Readon 3900 oder so. Naja alle tun es und keiner nimmt sich da etwas.

Stimme aber vielen zu die sagen, wie unwichtig solche Bensches sind (Synthetische)
 
Der große Unterschied bei diesem Trick ist doch das die Bildqualität nicht leidet und somit sehe ich da auch kein großes Problem.

Wenn Intel die Möglichkeit hat durch Nutzung der CPU die 3 D Leistung zu steigern ist das nen gutes Feature - AMD hat doch die gleiche Möglichkeit... vor allem da es ja nur um onboard Karten geht...
 
Volker schrieb:
Damit würde Futuremark jedoch gegen die selbst auferlegten Regeln (PDF), keine benchmarkspezifischen Optimieren zu erlauben, verstoßen.
Wenn man sich die Regeln von Futuremark durchliest, so sollte der Intel-Treiber keine Probleme mit der Zertifizierung haben. Es werden die Vertex-Shader halt nicht mehr in Hardware, sondern in Software berechnet. Die Bildqualität leidet darunter überhaupt nicht. Außerdem ist die Optimierung nicht benchmarkspezifisch, sondern wurde auch in echten Spielen freigegeben.

Im Grunde ist es das Gleiche, was man früher häufig bei GTA 3 und einer schwachen Geforce 2 MX gemacht hat - man hat dem Spiel vorgegeben, kein Hardware T&L zu unterstützen und damit hat diese Aufgabe die CPU übernommen. Diese Optimierung funktioniert natürlich nur solange, wie die Grafikkarte in dieser Disziplin relativ schwach ist und noch freie CPU-Zeit zur Verfügung steht.

@Kowa
Ich gehe davon aus, dass Intel diese Funktion nur für Spiele aktiviert, wo der Vertex-Shader der limitierende Faktor ist. Durch die heutigen Unified-Shader können z.B. die Pixel-Shader auch die Vertex-Verarbeitung auslasten und somit den Vertex-Shader zum limitierenden Faktor machen. Damit kann Intel sicherstellen, dass in Spielen, in welchen das Feature keinen Performance-Gewinn bringen würde, die CPU nicht weiter belastet wird. Durch das generelle Umschalten auf Software Vertex-Shader verlangsamt man mehr Spiele als ein paar wenige Ausnahmen beschleunigt werden.
 
Zuletzt bearbeitet:
Ist eigentlich nicht schlecht, wenn die teure Hardware ausgelastet wird, um bei gleichbleibender Qualität die Leistung zu erhöhen. Warum ist das aber an der Programmnamen gekoppelt? Die Optimierungen sollten aktiviert werden, wenn ein Kern frei ist und wenn es der Funktionsaufruf hergibt.
Welches Programm da läuft sollte schnuppe sein.
 
Ich denke auch, daß die Optimierungen im eigentlichen Sinne positiv sind und dagegen ist doch nichts einzuwenden, wenn freie Kapazitäten genutzt werden.
Ist denn diese Leistungssteigerung auch in anderen einfachen 3D-Anwendungen (keine Spiele) praktisch nachzuweisen? (z.B. Animationen in Powerpoint, einfacher 3D-Kram in produktiven Anwendungen)
Daß allerdings diese Lastverteilung einem untergemogelt wird, hinterläßt einen faden Beigeschmack.
Meiner Meinung nach, wäre es cleverer gewesen, Intel hätte es offen angesprochen und damit geworben.
Ich kann mir nicht vorstellen, daß die Verantwortlichen so naiv sind und glauben, mit 15fps in Crysis die Kunden ködern zu können.
Vielleicht ist es schon ein Fingerzeig auf den Larabee?
 
Crawler18 schrieb:
Ich seh da jetzt auch kein wirkliches Problem darin. Wieviele haben einen Quadcore? Wieviele Spiele nutzen den auch? Ach ja 1 oder 2 Spiele nutzen wirklich vier Kerne.

Woher hast du denn diesen Bloedsinn?
Gibt mittlerweile einige Spiele die von > 2 Kernen sehrwohl profitieren, also bitte keine solchen 1-2 Spiele Sprueche mehr! ;)

Crawler18 schrieb:
Wenn ATI/Nvidia in ihren Treibern auch für die ein oder andere Rechenaufgabe auf einen CPU-Kern auslagern würden wäre das doch nur genehm. Dann hätte man endlich einen richtigen Grund für eine CPU ab 3-Kernen aufwärts.
Ich finde, was Intel da macht absolut korrekt. Die denken mit ;)

Was glaubst du wohl warum GPU Computing immer mehr kommen wird? Weil da in gewissen Bereichen die X-fache Leistung rausschaut!
Und jetzt geht intel den umgekehrten weg bei Berechnungen fuer die die GPU gedacht ist? :freak: :stock:

Das ganze bringt in den meisten Spielen doch nur eine Verschlechterung da die CPU sowieso genug beschaeftigt ist, das ist dann so wie mit den SLI/CF Profilen und bringt nur bei <10% der Anwendungen etwas (statt 10 -> 15FPS).
Ergo ist es nur ein Versuch zu taeuschen und zu bescheissen!
 
och gott
ati hats bei einführung der radeon-serie genauso gemacht (radeon7500/8500), nvidia hats auch versucht und nun eben intel. warum wird da jetzt so ein terror drum veranstaltet?

alle graka-hersteller haben getrickst oder tricksen. beschäftigt euch doch mal ein bisschen mit dem werdegang der firmen und speziell der benchmarks von fm. es gab auch eine zeit vor gt200, larrabee und hd5870... aber hauptsache, man kann mitreden :rolleyes:
 
DJKno schrieb:
[..]Aber wenn durch diese Optimierungen bessere Werte erzielt werden,
weil der Prozessor einfach auch mitrechnen darf, ist das doch eigentlich nix schlechtes.
Eigentlich liegt doch immer CPU-Leistung brach, die hier praktisch genutzt wird.[..]
Sehe ich genauso.
Es ist doch keine benchmarkspezifische Optimierung, wenn diverse Spiele davon genauso profitieren.
 
Zuletzt bearbeitet:
Ist doch super. Wenn man mittels Software die Aufgaben zwischen CPU und GPU aufteilen kann, sodass die volle Leistung des Systems abgerufen wird.
Solange die Bildqualität nicht darunter leidet kann ich das nur befürworten.

Nur sollte AMD nicht Intel "anzeigen", sondern eher etwas entsprechendes entwickeln.
 
haben wir denselben Text gelesen?
wenn Intel beim GPU Test eine CPU hinzunimmt ist das Beschiss, so einfach ist das - zumal der
F.Mark das in den Regeln ausschliesst!

Vermutlich haette niemand was dagegen, wenn das extra erwaehnt wuerde: GPU Test generell; GPU+CPU Unterstuetzung oder was auch immer.
Natuerlich kann man ueberfluessige CPU Ressourcen nutzen soweit sie vorhanden sind und das energiemaessig sinn macht (ich halte zum Bespiel nix davon, wenn dann ein Spiel von 80 auf 100fps beschleunigt wird und die CPU deshalb staendig am anschlag arbeitet und unmengen Strom frisst) - aber eben nicht bei einem GPU bench!
 
Statler_Waldorf schrieb:
wenn Intel beim GPU Test eine CPU hinzunimmt ist das Beschiss, so einfach ist das - zumal der F.Mark das in den Regeln ausschliesst!
Intel hat mehr als zwei Jahre gebraucht, bis bei GMA der verfügbare Vertex-Shader überhaupt genutzt wurde - und dabei gab es vor allem Performance-Einbrüche statt Performance-Sprünge. Was spricht jetzt dagegen, dass dieser wieder teilweise abgeschaltet wird? Und welcher Punkt in den Regeln schließt diese "Optimierung" aus - ich habe keinen gefunden.
 
Zuletzt bearbeitet:
Fast spielbare 30 FPS mit einer Onboardkarte? Wow!

Ich meine, dass die GMA nicht zum Zocken gedacht ist, ist klar. Aber die haben ihre Daseinsberechtigung genau wie die anderen Großen IGPs von ATI, NVidia oder VIA. Und dieses "cheaten" ist in Wahrheit kein Cheaten sondern dient halt lediglich dem Performance gewinn und das es Intel nicht nur um die 3D-Marks geht sondern um die Performance sieht man ja anhand des Unterschieds in Crysis.

Meiner Meinung nach, ist das kein Unding. Ich würde sogar sagen, dass diese Variante der zusätzlichen CPU-Nutzung für die GPU eine gute Sache ist. Welche IGP kann das heute sonst noch?
 
@ topic

Diese Bauernfängerei kotzt mich an. Dieser Mist muss doch mal endlich unterbunden werden, egal von wem das kommt, einfach das Nichtwissen der Leute nutzen ... und dann hier noch die Leute die es nich so schlimm finden, weil sie genug Ahnung haben und nich drauf reinfallen :rolleyes: ... gibt auch Leute mit anderen Interessen, die trotzdem keinen Bock haben verarscht zu werden ! ... scheint irgendwie noch als Kavaliersdelikt gesehen zu werden.

@ Heretic Novalis

Na denn, auf die Plätze, cheaten, los, wenns alle machen :rolleyes:
 
Warum sollte AMD da etwas eigenen entwickeln?
Die GPUs ab dem 780G sind so stark, dass das Umlagern
auf die CPU die Leistung eher verschlechtern würde.
Das funktioniert nur bei wenigen Anwendungen,
die massiv Vertex-Shader einsetzen und das auch nur,
wenn die CPU sehr viel und die GPU sehr wenig Power hat.
Fraglich, ob die Lücke zwischen PhenomII 965BE
und 785G dafür ausreicht. Ich denke mal nicht.
Der 780/785/790G(X) hat 40 Stream Prozessoren
auf 500-700Mhz. Mehr Leistung als die CPU emulieren könnte.
 
Zuletzt bearbeitet:
Ich hatte meinen 780G damals auf 1Ghz,
damit gingen dann auch 1280x1024px sehr gut,
teilweise sogar auf mittleren bis hohen Einstellungen.
Halflife2 sogar richtig gut, schön und flüssig.
 
Es ist doch genial, was Intel da macht!

1. ist es genial aus Engineering-Sicht, was Intel da macht. Die Grafikkarte durch den Prozessor unterstützen wenn möglich. Hat das irgend ein anderer Hersteller bisher geschafft? Ich find das genial! Die gesamte vorhandene Power optimal nutzen und nicht brachliegen lassen.

2. bringt es letztendlich UNS etwas, dem Endnutzer, demjenigen der mit der GMA doch mal spielen will, etc.

Bitte mehr davon!
 
Zurück
Oben