Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News MHz-Geflüster: ATi vs nVidia
- Ersteller Parwez
- Erstellt am
- Zur News: MHz-Geflüster: ATi vs nVidia
wolf-cottbus
Lt. Junior Grade
- Registriert
- Juli 2004
- Beiträge
- 423
Dann gibt es nur eine Konsequenz. Die Schreiberlinge(nicht bös gemeint) dürfen nicht mehr benchen. Nur noch Qualität und Future zählt.
Denn wenn dem User kein Benchmark mehr vorgesetzt wird, kann er nicht mehr vergleichen. Nicht der User ist Schuld. Das ist immer noch der Hersteller.
Nur weil einer was, macht muss der andere noch lange nicht mitziehen. Oder sind wir alle Lemminge und springen hinterher?
Ansonsten bau ich meinen Kyro II wieder ein.
Ich geh jetzt schlafen.
Gute Nacht.
Denn wenn dem User kein Benchmark mehr vorgesetzt wird, kann er nicht mehr vergleichen. Nicht der User ist Schuld. Das ist immer noch der Hersteller.
Nur weil einer was, macht muss der andere noch lange nicht mitziehen. Oder sind wir alle Lemminge und springen hinterher?
Ansonsten bau ich meinen Kyro II wieder ein.
Ich geh jetzt schlafen.
Gute Nacht.
cR@zY.EnGi.GeR
Commander
- Registriert
- Juli 2003
- Beiträge
- 2.051
Naja irgendwann wirste dir ne neue Karte kaufen müssen, egal ob HQ dann wieder echtes HQ ist oder nicht, sonst kannste die dann erscheinenden neuesten Games nicht flüssig zocken.wolf-cottbus schrieb:Ich erwarte weder xxxMHz von ATI und nVidia sondern Qualität. Und die ist bei beiden Herstellern nicht gegeben. Bevor sich das nicht ändert, kaufe ich keine Karte mehr.
Egal wie schnell sie ist. Und wer wissen will warum ich so sauer bin, kann auf 3DCenter im Forum mal nachschauen.
Ich habe fertig.
Gruß Wolf
Aber ich denke mal, dass nVidia in den künftigen 80er Treibern das ändern wird (ich hoffs doch mal stark), eventuell ja auch auf Druck der Community das ändern muss. Spätestens aber, wenn die neuen ATi-Karten verfügbar sind und die auch bestmögliche Bildqualität liefern, muss nVidia dann nachziehen.
Aber dass nVidia behauptet, die 7800 GTX wäre doppelt so schnell wie eine 6800 Ultra (was nur auf die Pixelshader-Leistung zutrifft) und sich dann auch noch herausstellt, dass selbst bei HQ Filteroptimierungen aktiv sind, nur damit die neue Grafikkartengeneration im Vergleich zur 6er Serie besser darsteht, finde ich echt eine Unverschämtheit.
Ich bin mal gespannt, wie schnell eine 7800 GTX (und der G71) ohne Filteroptimierungen im Gegensatz zur 6800 Ultra in Games wirklich ist.
Zuletzt bearbeitet:
MountWalker
Fleet Admiral
- Registriert
- Juni 2004
- Beiträge
- 14.354
@Simon
Wenn der Durchschnittskunde wirklich wissen würde was die Auswirkungen der Filteroptimierungen so alles sind, die er bisher aus Unwissenheit ignoriert (Wissen ist erst vorhanden wenn es akzeptiert wird), würde er diese nicht akzeptieren, das wissen ATI und Nvidia auch sehr wohl, sie haben es aktuell nur leicht die Auswirkungen zu verschleiern, wobei gerade die Presse sehr gut hilft. Werden die Auswirkungen wirklich aufgedeckt? CB macht dahingehend Versuche und wird nochvon einigen Leuten gelesen, aber wirklich zufrieden bin ich mit dem Artikel nicht, er ist mir inhaltlich immernoch zu kurz. Wirklich ausreichend ("ausreichend" ist in der Schule 4) informiert man sich nur wenn man wie wild ewig in 3D-Center-Foren oä. hin und her sucht, was durch den müll, der selbst dort - wie in jedem Forum - auftaucht nicht gerade erleichtert wird. Wie viele Kunden schaffen das wohl? Und was lesen die meisten? Die meisten lesen, Computer-BILD, PC-Games-Hardware, Chip oder c't und selbst die c't hat mich vor langer Zeit in einem Artikel über AF-Qualität massiv enttäuscht.
Bei der Presse wie sie ist kann ich dem Durchschnittskunden keine Schuld geben, tut mir leid.
Und dass man Performance misst kann auch nicht verkehrt sein, denn eine S3 DeltaChrome mag ohne Winkeloptimierung beim AF daherkommen, das nutzt mir aber herzlich wenig, wenn die Karte sowieso nicht genug Power für höhere AF-Modi hat.
P.S.
Das eigentliche Interesse für "Mehr Power!" im Herzen der "Mehr-Power-Kundschaft" verlangt wirklich nach mehr Power, ganz wie Tim Taylor, der würde nie anfangen seine Tachonadel zu verziehen um sie weiter nach rechts zu bekommen. Deswegen sehe ich auch kein roblem in der "Mehr-Power-Mentalität".
Wenn der Durchschnittskunde wirklich wissen würde was die Auswirkungen der Filteroptimierungen so alles sind, die er bisher aus Unwissenheit ignoriert (Wissen ist erst vorhanden wenn es akzeptiert wird), würde er diese nicht akzeptieren, das wissen ATI und Nvidia auch sehr wohl, sie haben es aktuell nur leicht die Auswirkungen zu verschleiern, wobei gerade die Presse sehr gut hilft. Werden die Auswirkungen wirklich aufgedeckt? CB macht dahingehend Versuche und wird nochvon einigen Leuten gelesen, aber wirklich zufrieden bin ich mit dem Artikel nicht, er ist mir inhaltlich immernoch zu kurz. Wirklich ausreichend ("ausreichend" ist in der Schule 4) informiert man sich nur wenn man wie wild ewig in 3D-Center-Foren oä. hin und her sucht, was durch den müll, der selbst dort - wie in jedem Forum - auftaucht nicht gerade erleichtert wird. Wie viele Kunden schaffen das wohl? Und was lesen die meisten? Die meisten lesen, Computer-BILD, PC-Games-Hardware, Chip oder c't und selbst die c't hat mich vor langer Zeit in einem Artikel über AF-Qualität massiv enttäuscht.
Bei der Presse wie sie ist kann ich dem Durchschnittskunden keine Schuld geben, tut mir leid.
Und dass man Performance misst kann auch nicht verkehrt sein, denn eine S3 DeltaChrome mag ohne Winkeloptimierung beim AF daherkommen, das nutzt mir aber herzlich wenig, wenn die Karte sowieso nicht genug Power für höhere AF-Modi hat.
P.S.
Das eigentliche Interesse für "Mehr Power!" im Herzen der "Mehr-Power-Kundschaft" verlangt wirklich nach mehr Power, ganz wie Tim Taylor, der würde nie anfangen seine Tachonadel zu verziehen um sie weiter nach rechts zu bekommen. Deswegen sehe ich auch kein roblem in der "Mehr-Power-Mentalität".
Zuletzt bearbeitet:
@MountWalker:
Ist mir zu einfach.
Ich nehme es weder der Presse noch den Herstellern übel, wenn sie Versuchen in irgendeiner Weise Wertschöpfungen (welche schließlich das Ziel von Geschäftsprozessen sind) zu erlangen.
Jeder ist selbst verantwortlich dafür, wofür er sein Geld ausgibt. Und wenn es ihn nicht genau interessiert, wofür er sein Geld wirklich ausgibt und alles frisst, was man ihm vors Maul wirft anstatt kritisch zu hinterfragen, ist das in meinen Augen seine Sache.
Und die Tatsache, dass auch die ach so kritischen 3D Center Leute brav weiter bei ihren Grafikkartentest die Leistung (teilweise auch synthetisch) benchen, obwohl sie ja wissen, dass alle böse Tricks benutzen und Sachen wie Bildqualität und "Optimierungen" nur mit einem kurzen Absatz

mfg Simon
Ist mir zu einfach.
Ich nehme es weder der Presse noch den Herstellern übel, wenn sie Versuchen in irgendeiner Weise Wertschöpfungen (welche schließlich das Ziel von Geschäftsprozessen sind) zu erlangen.
Jeder ist selbst verantwortlich dafür, wofür er sein Geld ausgibt. Und wenn es ihn nicht genau interessiert, wofür er sein Geld wirklich ausgibt und alles frisst, was man ihm vors Maul wirft anstatt kritisch zu hinterfragen, ist das in meinen Augen seine Sache.
Und die Tatsache, dass auch die ach so kritischen 3D Center Leute brav weiter bei ihren Grafikkartentest die Leistung (teilweise auch synthetisch) benchen, obwohl sie ja wissen, dass alle böse Tricks benutzen und Sachen wie Bildqualität und "Optimierungen" nur mit einem kurzen Absatz
im 7800 GTX Review weitestgehend abgestempelt werden und im Fazit große dicke Prozente an Performancezuwachs plakatiert werden - stärkt auch nicht gerade das Ziel, sowas explizit einzudämmen.Bezüglich der Treiber-Settings bzw. den darin enthaltenen Optimierungen haben wir alle Grafikkarten im Auslieferungs-Zustand getestet. Da sich diese mitlaufenden Optimierungen bei ATI sowieso nur schwer bzw. teilweise ausschalten lassen, verbot es sich ganz automatisch, diese auch bei nVidia zu deaktivieren, da sich ansonsten ein höchst unfairer Test ergeben hätte. Daß die beiden Treiber im default-Zustand allerdings trotzdem eine durchaus vergleichbare Bildqualität liefern, zeigt ein Artikel der ComputerBase.
mfg Simon
Fragt sich echt nur noch warum das ganze... warum zum teufen pci-e 16x wenn agp 8x nichtmal voll ausgereizt wurde.. der cpu kann zur heutigen zeit noch garnicht schnell genug die grafikkarte mit daten versorgen...
da kauft man sich eine schnelle graka und muss schon davon ausgehen das der cpu die abbremst... genauso wars bei meinem amd xp 3200+ mit 6800 ultra... das ganze sys hat die karte gebremst ...
wobei ich auch glaube das die spiele bzw games immer schlechter programmiert werden das man überhaupt so eine schnelle grafikkarte brauch...
genauso ist es schwachsinn das einige firmen sich auf nvidia oder ati basierend ihre grafik engine anpassen .. ist doch totaler quatsch was soll denn der ganze kampf..
da kauft man sich eine schnelle graka und muss schon davon ausgehen das der cpu die abbremst... genauso wars bei meinem amd xp 3200+ mit 6800 ultra... das ganze sys hat die karte gebremst ...
wobei ich auch glaube das die spiele bzw games immer schlechter programmiert werden das man überhaupt so eine schnelle grafikkarte brauch...
genauso ist es schwachsinn das einige firmen sich auf nvidia oder ati basierend ihre grafik engine anpassen .. ist doch totaler quatsch was soll denn der ganze kampf..
HolyDude02
Commander
- Registriert
- Aug. 2004
- Beiträge
- 2.097
The Inquirer ist ja auch nicht unbedingt für die fundiertesten und wahrheitsgetreuesten Artikel bekannt 
Aber trotzdem bin ich auf ATis Chip sehr gespannt. Sollte der wirklich so gut takten wie angegeben denke ich mal das NVidia ziemlich weggebumst wird
Aber trotzdem bin ich auf ATis Chip sehr gespannt. Sollte der wirklich so gut takten wie angegeben denke ich mal das NVidia ziemlich weggebumst wird
MountWalker
Fleet Admiral
- Registriert
- Juni 2004
- Beiträge
- 14.354
@Simon
Was du über 3D-Center sagst ist ja richtig, ich sehe ähnlich, man kann sich nur vernünftig informieren wenn man sich dort im Forum durch Müllhalden wühlt. Aber das bringt uns ja gerade zu dem Punkt zurück: Wenn dem Anwender üebrall eingebläut wird, dass es nicht so schlimm ist mit diesen Un-Optimierungen zu leben, wieso sind die Anwender dann schuld? Ein Mensch der durch eine Propagandaflut beeinflusst wird ist nicht schlecht oder doof, er ist einfach nur menschlich und deswegen gebe ich nicht ihm die Schuld, sondern der Presse und den Entwicklern, die die Propagandamaschinerie (was ist moderne gewerbliche Presse denn sonst? ZDF 2002: "die Meinungsmacher") fest in diese Richtung steuern.
Ein Interesse an Leistungfähigkeit ist richtig und gut, deswegen sind Benchmarks nicht falsch, falsch ist nur wie sie gemacht werden und was die Hardware erlaubt. Nvidia und ATI sind mit schuld, denn wenn ich mein Produkt geziehlt beeinflusse um gute Propaganda zu bekommen betrüge ich mit, aktiv. Nur weil das meine Einnahmen erhöht ist das noch lange nicht gerechtfertigt, es ist eben nicht alles legitim was einem ökonomischen Interesse folgt.
Was du über 3D-Center sagst ist ja richtig, ich sehe ähnlich, man kann sich nur vernünftig informieren wenn man sich dort im Forum durch Müllhalden wühlt. Aber das bringt uns ja gerade zu dem Punkt zurück: Wenn dem Anwender üebrall eingebläut wird, dass es nicht so schlimm ist mit diesen Un-Optimierungen zu leben, wieso sind die Anwender dann schuld? Ein Mensch der durch eine Propagandaflut beeinflusst wird ist nicht schlecht oder doof, er ist einfach nur menschlich und deswegen gebe ich nicht ihm die Schuld, sondern der Presse und den Entwicklern, die die Propagandamaschinerie (was ist moderne gewerbliche Presse denn sonst? ZDF 2002: "die Meinungsmacher") fest in diese Richtung steuern.
Ein Interesse an Leistungfähigkeit ist richtig und gut, deswegen sind Benchmarks nicht falsch, falsch ist nur wie sie gemacht werden und was die Hardware erlaubt. Nvidia und ATI sind mit schuld, denn wenn ich mein Produkt geziehlt beeinflusse um gute Propaganda zu bekommen betrüge ich mit, aktiv. Nur weil das meine Einnahmen erhöht ist das noch lange nicht gerechtfertigt, es ist eben nicht alles legitim was einem ökonomischen Interesse folgt.
sramec.com
Cadet 3rd Year
- Registriert
- Juni 2005
- Beiträge
- 54
wayne? das mhz nicht alles ist hat man schon zwischen amd u. intel gemerkt, also abwarten u. tee trinken.
T
ThePeacemaker19
Gast
Das ist ja voll cool! Jeder dieskutiert und labert hier weiß aber garnicht was ATI oder nVidia noch in der Tasche haben.
Gedulden müsst ihr euch. Es macht keiner nen fehler wenn der ne 7800GTX kauft ist im mom die schnellster. Einer macht nen fehler wenn er ne X850XP PE kauft und keine 7800GTX.
Lasst euch doch überraschen! nVidia ist wieder da wo die immer waren, an der Spitze! Bin auch mal gespannt was ATi (ATiiiiii keine multiplen satzzeichen und wenn sagt mir wie das "wort" für einen ekel anders schreiben soll) dagen tun wird.
Also Beine hoch und abwarten!
Ist mir doch egal ob optiemirungen da sind! Das geht mir sowas von am A... vorbei! Solange ich alles spielen kann ist mir ds total egal.
Nur weil paar kranke sagen "ui das bild da sieht aber nit so 100% gut aus" gehe ich doch nicht zu ATI finde die firma nVidia einfach besser. Bessere Treiber besserer Support bessere Technik.
Es geht hier um Power und mehr power wegen bissl schlechterem bild was eh nur freaks auffällt ist mir total egal.
Gedulden müsst ihr euch. Es macht keiner nen fehler wenn der ne 7800GTX kauft ist im mom die schnellster. Einer macht nen fehler wenn er ne X850XP PE kauft und keine 7800GTX.
Lasst euch doch überraschen! nVidia ist wieder da wo die immer waren, an der Spitze! Bin auch mal gespannt was ATi (ATiiiiii keine multiplen satzzeichen und wenn sagt mir wie das "wort" für einen ekel anders schreiben soll) dagen tun wird.
Also Beine hoch und abwarten!
Ist mir doch egal ob optiemirungen da sind! Das geht mir sowas von am A... vorbei! Solange ich alles spielen kann ist mir ds total egal.
Nur weil paar kranke sagen "ui das bild da sieht aber nit so 100% gut aus" gehe ich doch nicht zu ATI finde die firma nVidia einfach besser. Bessere Treiber besserer Support bessere Technik.
Es geht hier um Power und mehr power wegen bissl schlechterem bild was eh nur freaks auffällt ist mir total egal.
Zuletzt bearbeitet:
- Registriert
- Jan. 2005
- Beiträge
- 8.584
ThePeacemaker19 schrieb:Das ist ja voll cool! Jeder dieskutiert und labert hier weiß aber garnicht was ATI oder nVidia noch in der Tasche haben.![]()
Gedulden müsst ihr euch. Es macht keiner nen fehler wenn der ne 7800GTX kauft ist im mom die schnellster. Einer macht nen fehler wenn er ne X850XP PE kauft und keine 7800GTX.
Lasst euch doch überraschen! nVidia ist wieder da wo die immer waren, an der Spitze! Bin auch mal gespannt was ATi (ATiiiiii keine multiplen satzzeichen und wenn sagt mir wie das "wort" wür einen ekel anders schreiben soll) dagen tun wird.
mhh, das klingt nach NVidia-Fanboy.... hey, ich bin das zwar auch, aber selbst ich als ATI-Hasser (jetz ned flamen!) muss zusehen wie die Bildqualität leidet. Dabei wäre die 7800GTX wohl auch mit bester Optik noch schnell genug.... schade eigentlich :/
TSHM
Lt. Commander
- Registriert
- Mai 2004
- Beiträge
- 1.370
nVidia ist wieder da wo die immer waren, an der Spitze! Bin auch mal gespannt was ATi (ATiiiiii keine multiplen satzzeichen und wenn sagt mir wie das "wort" wür einen ekel anders schreiben soll) dagen tun wird.
Zuerst informieren, dann kritisieren! Außerdem haben alle Grafikkarten ihre stärken und schwächen. Es kommt also auf den Anwendungsbereich an. Ich zum Beispiel will eher eine Grafikkarte, die eine hohe AF und AA Leistung und Bildqualität unter 1600x1200 oder 1920 x 1xxx(1440 oder 1080) hat. Dafür spiele ich eher Klassiker, damit meine Grafikkarte das auch noch kann. In diesem Bereich ist ATI meist einfach beser. Aber man weiß ja nie, vieleicht ändert sich das noch.
Andere wollen eher Rohleistung unter 1280 x xxxx oder 1024 x xxx, da z.B.: Der TFT gar keine höhere Auflösung hat. Außerdem wollen sie die neuen Spiele einfach mit vielen FPS.
Oder sie wollen eine längere Benchmark-Balkenlänge.
Was hat das mit den neuen zu tun?
Ganz einfach: Grafikkartenhersteller "optimieren" wo es nur geht. Man könnte glauben, gut so. Aber die Treiber optimieren so stark, dass viele Texturen stark flimmern. Und diese Optimierungen lassen sich oft nicht ausschalten. Die Optimierungskrone hat derzeit Nvidia mit ihrer neuen Serie inne. Denn mit dem neuen Treiber wurde die neue Karte nicht nur schneller gemacht, als sie ist, sondern ältere Karten wurden bewusst schlechter gemacht, damit der Unterschied zwischen alter und neuerer Serie noch viel größer wirkt, als er tatsächlich ist.
Das geht meineserachtens viel zu weit, ist schlicht und einfach Kundenverarsche.
Ich hoffe nur, dass entweder R520 von ATI oder ein neuer Treiber von Nvidia dafür sorgen, dass sich die Optimierungen ganz abschalten lassen. Nur komplett Mathematisch-Verlustfreie Optimierungen dürfen natürlich bleiben, sind sogar erwünscht.
Ansonsten ist die 7800er und 6800er Reihe für mich gestorben.
/EDIT: Wie ist es möglich, einen Brief an ATI oder NVIDIA bezüglich Optimierungen zu schreiben?
Die einzige Möglichkeit, direkt Information von ATI zu bekommen ist laut Kontaktliste "Developer Inquires". Ich bin zwar ein Entwickler, aber nicht im 3D Bereich.. Irgeneine andere Möglichkeit muss es doch geben.
(OT: Intel hat mir ein E-Mail geschickt, in dem sie mir Anboten, am IDF teilzunehmen. Für "nur" 500$ im Angebot...)
Zuletzt bearbeitet:
Dominator
Lt. Junior Grade
- Registriert
- Juli 2004
- Beiträge
- 447
Der R520 ist ja ein neuer Chip.Mann hat ja gesehen was Allein die neue Archtiektur Von NV 40 so gebracht hat.Vielleciht siehst ja bei Ati änlich aus,die Leute vom R300 haben ja denn neuen R520 Entwickelt.Wird bestimmt ne Gute Karte,hoffentlich wird das keine flimmer Karte wie der G70.
swz.alucard
Lieutenant
- Registriert
- Mai 2004
- Beiträge
- 705
Dominator schrieb:Der R520 ist ja ein neuer Chip.Mann hat ja gesehen was Allein die neue Archtiektur Von NV 40 so gebracht hat.Vielleciht siehst ja bei Ati änlich aus,die Leute vom R300 haben ja denn neuen R520 Entwickelt.Wird bestimmt ne Gute Karte,hoffentlich wird das keine flimmer Karte wie der G70.
so neu is die nv40 architektur net. ist eigentlich mehr eine nv30-architektur die allerdings stark getweakt wurde um eine höhere shader-perfromance zu erreichen. sm3 tauglich war der nv30 auch fast schon. das der r520 eine neue architketur is bezweifel ich auch, ich geh von einer r300-architektur aus an die sm3 drangefrickelt wurde.
swz.alucard schrieb:. das der r520 eine neue architketur is bezweifel ich auch, ich geh von einer r300-architektur aus an die sm3 drangefrickelt wurde.
Das denke ich auch.
Und was Texturfilter angeht: da hat sich ATi noch NIE mit Ruhm bekleckert, da sollte man nicht hoffen, dass sich das bessert.
Man kann verstehen warum sich einige Teils über solche Optmierungen beklgagen die überflüssig seien mögen. Aber es ist doch wohl nicht nötig sich so dermaßen den Mund darüber zu zerreißen. Denn es gibt wirklich nicht viele Menschen die auf solch hohen technologischen Niveau Forschung und Entwicklung betreiben, wie es bei ATI und nVidia der fall ist. Zudem bezweifel ich, dass überhaupt ein gerringster Anteil der Leuten, die sich meist mit paar oberflächlichen Aüßerrungen beklagen, die leiseste Ahnung haben solch eine komplizierte Architektur in kürzester Zeit zu entwickeln und dem passenden Treiber gleich mit auf den Markt zu liefern. Das die Konsequenz solch eines engen und hart umkämpften Wettbewerb keine unverbesserlichen und perfekte Produkte sind, ist einfach auf die kurzen Produktzyklen zurrückzuführen.
Man kann den ganzen Leuten nur empfehlen, die permanet etw. zu meckern haben, sich zusammenzuschließen, das kleine 1x1 der Treiberprogrammierung zu lernen und ihnen viel Glück zu wünschen ihre idealistischen Ziele selbst in die Tat umzusetzen.
Ich für meinen Teil bin immer wieder fastziniert welche hochentwickelte Technologie von solchen Menschen herrvorgebracht werden und man selbst nur mit abstrackten Denken die komplexität und arbeitsweise solcher Produkte erahnen kann.
Man kann den ganzen Leuten nur empfehlen, die permanet etw. zu meckern haben, sich zusammenzuschließen, das kleine 1x1 der Treiberprogrammierung zu lernen und ihnen viel Glück zu wünschen ihre idealistischen Ziele selbst in die Tat umzusetzen.
Ich für meinen Teil bin immer wieder fastziniert welche hochentwickelte Technologie von solchen Menschen herrvorgebracht werden und man selbst nur mit abstrackten Denken die komplexität und arbeitsweise solcher Produkte erahnen kann.
Zuletzt bearbeitet:
wolf-cottbus
Lt. Junior Grade
- Registriert
- Juli 2004
- Beiträge
- 423
@57 Die Qualität war schon mal da. Sie wird wegen der Balkenlänge geopfert. Und das alles für 500€. Prost Mahlzeit.
Und wenn es Ati und nVidia nicht mehr können in so kurzer Zeit Q zu bringen, dann sollen sie es sein lassen. Und wir wollen hoffen, das es nur am Treiber liegt.
Allein der Glaube fehlt mir.
Gruß Wolf
Und wenn es Ati und nVidia nicht mehr können in so kurzer Zeit Q zu bringen, dann sollen sie es sein lassen. Und wir wollen hoffen, das es nur am Treiber liegt.
Allein der Glaube fehlt mir.
Gruß Wolf
Blackfrosch
Lieutenant
- Registriert
- Sep. 2004
- Beiträge
- 558
Ich schließe mich 58 an!
Außer dem sollte es bei dieser von 57 angesprochenen entwicklung auf einem 1cm² möglich sein Karten mit leisen Lüftern zu präsentieren. Die schlechtesten Lüfter sind in der Regel ja die
Referenz Kühler.
Außer dem sollte es bei dieser von 57 angesprochenen entwicklung auf einem 1cm² möglich sein Karten mit leisen Lüftern zu präsentieren. Die schlechtesten Lüfter sind in der Regel ja die
Referenz Kühler.
Ähnliche Themen
- Antworten
- 28
- Aufrufe
- 1.889
- Antworten
- 22
- Aufrufe
- 3.140
- Antworten
- 48
- Aufrufe
- 4.889
N
- Antworten
- 33
- Aufrufe
- 2.707