News Intels Grafiktreiber mit fragwürdigen Optimierungen?

@Realsmasher: 3d Mark Werten vertrauen? Das Ding ist doch einfach nur Banane... taugt grad mal zum Funktionstest vom Rechner. Wenn *das* die Leute mal kapieren würden hätten wir das ganze Problem hier nicht.

Ansonsten frag ich mich, was du mit deiner 4500HD anstellst. Bei mir im Notebook läuft die Einwandfrei. FFXI oder WoW laufen (letztere halt min minmalen details) und selbst UT3 geht halbwegs (ok, es ruckelt schon ein wenig), wenn man einem LAN-Game beitritt (ansonsten ist die SU9400 am Ende).

Wenn der Treiber jetzt noch etwas auf die CPU umschichten kann find ich das gut, bei den meisten Games ist da noch Luft.
 
TheShaft schrieb:
Respekt, das beste was intel in der treiberentwicklung in den letzten jahr(zehnt)en abgeliefert hat...bis zu 50% Perfomanceplus ohne BQ-Verlust gabs imho noch nie.
War das jetzt Ironie? Drei Sandkörner gegenüber zwei macht immer noch keinen Strand. Wahnsinnig beeindruckend, eine GPU mit 16 GFLOPS mit einer CPU mit vermutlich mehr als 20 GFLOPS um 50% zu beschleunigen. :rolleyes:
Wenn Intel mal GPUs mit 1 TFLOPS und mehr um 50% durch die CPU beschleunigen kann, dann können wir mal anfangen und über gute Treiberentwicklung sprechen. Bisher waren Intels GPU Treiber jedenfalls ein ziemliches Desaster.
 
2. With the exception of configuring the correct rendering mode on multi-GPU systems, it is
prohibited for the driver to detect the launch of 3DMark Vantage executable and to alter, replace
or override any quality parameters or parts of the benchmark workload based on the detection.
Optimizations in the driver that utilize empirical data of 3DMark Vantage workloads are prohibited.
3. Generic driver optimizations that do not violate the above rules and benefit applications and
games in general, are acceptable only if the rendering output is mathematically consistent with
that of Microsoft® DirectX® reference rasterizer.
http://www.futuremark.com/pressroom/companypdfs/3DMark_Vantage_Driver_Approval_Policy_v101R2.pdf

Demnach verstößt der Intel-Treiber ganz klar gegen die Vorschriften. Was gibt es da noch zu diskutieren? Es ist ja schön, dass Intel den Treiber für Crysis optimiert, aber das rechtfertigt keine Optimierung für 3DMark Vantage.
 
Zuletzt bearbeitet:
Jesterfox schrieb:
@Realsmasher: 3d Mark Werten vertrauen? Das Ding ist doch einfach nur Banane... taugt grad mal zum Funktionstest vom Rechner. Wenn *das* die Leute mal kapieren würden hätten wir das ganze Problem hier nicht.

sag das den Leuten welche die Tests schreiben und daraufhin eine Kaufempfehlung aussprechen.

Ach halt, die bekommen die Hardware ja gestellt und daher auch die Testbedinungen diktiert... tja Pech gehabt.


Im Notebook Bereich hat sich an der Testqualität seit Jahren nichts verändert.

Das geht soweit, das man sogar sagen muss, das man selbst als gut informierter und interessierter Nutzer keinen vollständigen Einblick hat was man nun kauft.

Das Einzige was außer 3dmark dort ggf noch getestet wird, sind die erwähnten prestigeträchtigen Spiele....


Ansonsten frag ich mich, was du mit deiner 4500HD anstellst. Bei mir im Notebook läuft die Einwandfrei. FFXI oder WoW laufen (letztere halt min minmalen details) und selbst UT3 geht halbwegs (ok, es ruckelt schon ein wenig), wenn man einem LAN-Game beitritt (ansonsten ist die SU9400 am Ende).

... welche du hier sehr schön aufzählst.

ut3, css, wow, farcry seinerzeit, alles Titel die in aller Munde waren und für die sich Intel interessiert hat.


Versuchs mal mit :

- Total war Reihe
- Trine
- bridge commander
- enclave
- giants

aber bitte nicht aus allen Wolken fallen !

Oder nimm irgentein Spiel das auf openGL 2.0+ basiert(mittlerweile 5 jahre alt) -> die laufen garnicht erst.


Und das sind nur Titel die ich gerade auf dem Rechner habe, als aktiver Nutzer eines Notebookforums bekomme ich da so EINIGES mit, denn gerade im Notebookbereich ist es umso tragischer da man nicht wechseln kann.


Das ist der Punkt den ich kritisiere : man unterstützt vielleicht 5% aller Spiele vernünftig, aber anstatt da nachzubessern investiert man Zeit in Methoden um die 3dmark Punkte zu pushen.

Das dabei 5 fps in crysis mehr anfallen(warscheinlich auch nur im Bench und nicht im Spiel), lässt einige das vielleicht übersehen, aber das war schon immer der Grund.

Man verfolge mal Intels IGPs zurück und vergleiche die "echte" Leistung mit der 3dmark Leistung.

Dabei wird jedem auffallen das die 3dmark werte schon immer weit jenseits der tatsächlichen Leistung standen.
MMn ein klares Indiz dafür das durchgehend hier optimiert wurde, während anderes nachweislich stark vernachlässigt wurde.


Deswegen hinkt auch der Vergleich mit amd oder von mir aus auch nvidia gewaltig, denn die tun beide was in Sachen Kompatibilität und Spielbarkeit für die breite Masse, Intel eben nur wenn es prestigeträchtig ist und das als Marktführer.
Wenns S3 wäre könnte man es ja noch nachvollziehen, so bleibt es einfach nur frech.


Wer das nicht nachvollziehen kann, der ist wohl auf dem blauen Auge blind.

Für mich als Intel Kunden(bis auf den htpc nur Intel Rechner) ist das umso ärgerlicher, denn ich investiere ungerne in solche Machenschaften, aber man hat wenig Wahl, gerade im Notebookbereich.

So werde ich schon bald widerwillig eine igp von Intel kaufen müssen dank Integration in die CPU. Und auch hier werde ich wieder vorher wissen das ich sie hassen werde wie alle ihre Vorgänger in meinen Händen.(945,3100,4500)
 
Die Spielauswahl liegt an dem, was ich halt auf dem Notebook drauf hab.... ich hab's mir ja eigentlich auch nicht zum Spielen gekauft, ansonsten wäre da sicher keine Intel-Grafik drinnen.

Das meine MMOs laufen ist trotzdem ganz nett und UT3 war mehr zum testen, als dass ich es ernsthaft auf der Kiste spielen wollte. was ich auch noch getestet hab war Neocoron 2 (läuft sogar besser als auf meinem Hauptrechner, da gibts Probleme mit der Auflösung) und Book of Unwritten Tales (recht aktuell, aber nicht grafiklastig).

Aber nochmal zu den Testberichten: wenn die Hersteller Vorgaben machen ist doch sowieso schon gehörig was faul. Tests haben unabhängig zu sein, ansonsten sind sie für die Tonne. Leider scheint das aber bei vielen tatsächlich nicht so zu sein... ich schau mir inzwischen immer mehrere Tests und auch Erfahrungsberichte an und bilde mir daraus meine Meinung.

Ottonormaluser macht dies nicht, klar. Und das ist auch ein Problem. Aber nicht nur von Treiberoptimierungen sondern da muss man das Gesamtbild sehen, dass solche Schummeleien erst überhaupt ermöglicht. Darum geht es mir.
 
Hat wer bei CUDA gemeckert?:freak:

Das unterstützt auch die CPU dramatisch in manchen Programmen...

Ist das gleiche Spiel nur umgekehrt!

Solange es nur OnBoard-GPUs unterstützt finde ich sowas klasse, von AMD möchte ich soetwas auch sehen!:)

Dann braucht man weniger OnBoard-GPU-Leistung bei Games und hat eine etwas weniger heizende Northbridge! Die Prozessoren werden ja meistens gut genug gekühlt, Problem ist nur dass diese viel mehr verbrauchen bei Last als eine schnellere OnBoard-GPU, somit wäre diese Konstellation eigentlich auch nicht so ökonomisch...

MfG M.R.
 
Zuletzt bearbeitet:
Nochmal: Die HD3200/HD4000 von AMD-7**G-Chipsätzen
sind zu schnell, als das etwas bringen würde.
Mehr verbraucht wird gegenüber den G41 auch nicht.

Was Intel möchte, ist den schwachen Chipsatz besser dastehen zu lassen.
Hätte man nur Spiele optimiert, bei denen es was bringt, gerne. So nicht!
 
Zuletzt bearbeitet:
OK, hast Recht, sry!

MfG M.R.
 
Manche hier wollen es einfach nicht kapieren, oder?
Intel möchte dem potentiellen Kunden suggerieren das ihre GPU leistungsfähig sei. Ist sie aber nicht. Und das ist der Haken an der Sache, nur darum geht es!
Das ist nicht nur ein Verstoß gegen die 3D Mark Regeln, sondern auch Betrug am Kunden, der gutgläubig (und informiert) nach Benchmarkwerten kauft.

Somit können dann Intel und Notebookhersteller mit irgendwelchen 3D Mark werben und behaupten sie seien genauso gut oder gar besser als die Konkurrenz. Das dem nicht so ist merkt der Kunde dann vielleicht auch irgendwann, spätestens wenn Software eingesetzt wird, welche nicht durch den Treiber optimiert wird bzw ohne CPU Unterstützung auskommen muss.

Wer das immer noch nicht rafft, obwohl [TLR]Snoopy es jetzt schon sehr genau und deutlich erklärt hat, der sollte man seine grauen Zellen anstrengen und noch mal darüber nachdenken.

Und irgendwelche "Argumentationen" ala AMD / ATi würden es genauso machen / können es genauso machen ist non-sense, solche Leute haben es auch nicht kapiert.

Schon traurig was man hier für Aussagen lesen muss, offenbar setzt bei einigen die Kombination aus lesen und verstehen aus - oder sie wollen es einfach nicht und stellen sich dümmer als sie sind.
 
Naja, unter den Umständen wäre es dann doch besser eine bessere GPU zu entwickeln anstatt mit Scheisse so zu prahlen...

MfG M.R.
 
Realsmasher schrieb:
An Leuten wie "Theshaft" (sorry nix gegen dich !) zeigt sich klar das genug Leute darauf reinfallen, sogar wenn wenn davor ellenlang darüber geschrieben wurde UND die news an sich kritisch formuliert ist.

Nichts gegen Leute wie dich, aber ich bin seit beinahe 10 Jahren täglich auf der Seite und ebensolang beschäftige ich mich mit Grafikkarten. Crysis is für mich kein Benchmark sondern afaik ein Spiel ? Die Idee die die Intel-Treiberjungs hatten ist bemerkenswert und ich würde mir wünschen, dass sie das auf alle Real-World Applications ausdehnen können.

Btw, Schade dass du nicht meine Frage beantwortet hast, darum gings mir eigentlich ;)
Weniger Flameboy, mehr hilfreich sein wäre hier sinnvoller gewesen. Das selbe gilt für gruffi.
 
Zuletzt bearbeitet:
2. With the exception of configuring the correct rendering mode on multi-GPU systems, it is
prohibited for the driver to detect the launch of 3DMark Vantage executable and to alter, replace
or override any quality parameters or parts of the benchmark workload based on the detection.
Optimizations in the driver that utilize empirical data of 3DMark Vantage workloads are prohibited.
3. Generic driver optimizations that do not violate the above rules and benefit applications and
games in general, are acceptable only if the rendering output is mathematically consistent with
that of Microsoft® DirectX® reference rasterizer.
Genau darüber wird Intel streiten können - dieser Absatz wurde einst für nVidia und ATI gemacht, welche die Shader aus dem 3DMark erkannt haben und diese durch eigene, optimierte Shader ersetzt haben. Intel verändert - bis auf die Verteilung der Rechenlast - nichts an der Arbeitslast des Benchmarks, da immer noch alles berechnet werden muss.

Auch über den dritten Absatz kann man durchaus streiten - sind 3-4 Spiele "in general", oder nicht? Intel kann hier jedoch gut damit argumentieren, dass in Crysis ein höherer Performance-Gewinn vorhanden ist als im 3DMark.
 
gruffi schrieb:
Nein, natürlich nicht. Es bekommt nur der Hersteller den Zuschlag und verdient Geld, der es eigentlich nicht verdient hat. Echt seltsam, was einige hier für eine Mentalität an den Tag legen. :rolleyes:
Es kann nicht das Ziel sein, Dumme dumm sterben zu lassen. Offene und transparente Informationspolitik sollte gerade bei solchen Sachen forciert werden. Und dass synthetische Benchmarks nicht unbedingt aussagekräftig sein müssen. CB führt ja idR ausführliche Tests durch, wodurch man einen besseren Überblick hat. Aber wie du dir hoffentlich denken kannst, ist das nicht überall der Fall. Dann werden eben ein bis zwei Scores solcher verbreiteter Benchmarks herangezogen und damit die Hardware bewertet.
Meiner Meinung nach haben es die Dummen in manchen Punkten verdient dumm zu sterben.

Ich habe schon oft Leute darauf hingewiesen, dass es erstklassige Seiten wie Computerbase und Geizhals gibt, dass man sich dort mit 5 Mausklicks informieren kann, wenn man einen neuen PC konfigurieren will.

Du kannst den Leuten noch so gute Tipps geben, sie rennen doch in den nächsten Computerladen und lassen sich den letzten Mist andrehen, überteuert, versteht sich.

Noch schlimmer sind diejenigen, die zwar Ahnung haben, dann aber nur das teuerste kaufen. Extremeditionen und den ganzen Blödsinn... die Leute haben zu viel Geld, sieh es ein und wenn sie es unbedingt ausgeben müssen, lass sie doch.
 
TheShaft schrieb:
Crysis is für mich kein Benchmark sondern afaik ein Spiel ?

Der Crysis benchmark repräsentiert aber nicht das Spiel.

Das sieht man sehr schön daran, das selbst der cpu benchmark klar gpu limitiert ist.

Ein gefundenes Fressen für einen Treiber der die cpu zugunsten der gpu belastet. das dies sonst nichts aussagt sollte klar sein.
 
Seh ich ebenso. Selbst 3Dcenter hat sich dazu ja prinzipiell positiv geäußert, weils keine Nachteile für den User hat.
 
Zurück
Oben