News Bisher unbekannter Nvidia-Chip (D10U-30) in Q2?

@xxxx

Naja wenn DU so inkompetent bist und die Treiber nicht installieren kannst dann tuts mir Leid :rolleyes:
Ich hab Vista 64 Bit und keine einzigen Probs mit meiner Graka. Da war es bei ATI viel schlimmer. (Meine Erfahrung)
Und was bringt hat der XP Treiber was der Vista Treiber nicht hat?

mfg Kivi
 
@berber
hängt diene enter-taste? liest sich ja grausig, dieser zeilenumbruchswirrwarr :x

@topic
gerüchte sind schon was feines :) wer von der 9er-serie mehr erwartet hat (trotz gleichem chip wie bei der neuen 8er-serie) ist selbst schuld. wenn hier wirklich eine "ultra enthusiast"-karte auf basis einer alten architektur kommt, lohnt es sich immer noch nicht, die karte zu wechseln (sofern man bereits besitzer einer 88gt/gts/gtx/ultra ist) - und die user wissen das auch .. oder sollten es.

allerdings helfen solche gerüchte natürlich, im gespräch zu bleiben und druck auf die konkurrenz auszuüben. ich persönlich warte auf die neue generation und selbst dann rüste ich erst auf, wenn ich die mehrleistung auch wirklich benötige. alles andere ist sowieso infantil, auch wenns die wirtschaft ankurbelt :)
 
@Kivi 123 aha na da sind laut deiner Aussage alle Leute in diesem Thread hier https://www.computerbase.de/forum/t...idia-infinite-loop-error-sammelthread.320060/ zu inkompetent Treiber zu installieren.
Naja wenn du es unbedingt wissen willst hier die Liste vom 174.74 also dem aktuellen Treiber für Vista:

Unsupported Features
The following are features and functionality that were available in driver releases
supporting Windows XP, but are not–and will not be–available in driver releases for
Windows Vista:
• High resolution scaling desktop (HRSD)
• MultiView Display Mode (for NVIDIA Quadro NVS graphics cards)
• NVKeystone
• Unified back buffer (UBB) controls
• OpenGL Video Overlays
This is an operating system limitation.
Vista window manager features will provide new ways of accomplishing overlays,
but will require application porting.
• Overclocking
GPU overclocking is no longer supported in the default GPU driver control panel.
This feature is available in the NVIDIA nTune 5.05 software, which you can
download from NVIDIA.com.
• GPU Temperature Monitoring
Temperature monitoring is no longer supported in the default GPU driver control
panel. This feature is available in the NVIDIA nTune 5.05 software, which you can
download from NVIDIA.com.
• AGP Settings Adjustment
• Full‐screen Video Mirror
• Video Zoom
• Pan & Scan ‐ the process of panning across the desktop in order to display a
desktop on a monitor with lower resolution
• Per‐display Video Color Setting Adjustment
Video color setting adjustments through the NVIDIA Control Panel can only be
made across all displays in a system, and not on a per‐display basis.
• nView Horizontal and Vertical Span Modes
Due to architectural changes in the new Windows Vista Window Display Driver
Model (WDDM), span mode cannot be supported in NVIDIA graphics drivers.
NVIDIA recommends using the built‐in Windows Vista multi‐display modes.
• Edge Blending
• Run display optimization wizard
 
Immer wieder schön zu lesen: Die Leute kaufen sich ne Grafikkarte für 400 oder 500,- € und regen sich auf, wenn ihre Stromrechnung um 5,- €/Monat steigt. (Wenn überhaupt so viel.)
Kraft kommt von Kraftstoff aber da ne Graka kein Verbrennungsmotor ist, lebt sie nunmal von Strom...

Wer einen Stromspar-PC will, soll nen Notebook kaufen. Der soll sich dann aber auch nicht beschweren, wenn er damit nicht spielen kann.
 
@xxxx

Ja und wer braucht all die ganzen "features"? Ich mein mir ist nichts aufgefallen.
Hab den Treiber auch installiert ohne Probs. Naja ich find Nvidia hat "bessere" treiber bzw. es ist leichter sie zu installieren.

Naja ich kann dazu nicht mehr sagen denn mich stört es nicht bzw. brauche all das garnicht. Und da ich keine Probs habe ist mir das auch wurst.

mfg Kivi
 
"...dass die Leistungsaufnahme der D10U-30-Karte bei hohen 225 Watt bis 250 Watt liegen soll..."

O_o

Find ich aber nicht gerade gut...
die sollen mal lieber diese stromfresser in den griff bekommen, anstatt immer ein bischen an der leistung zu drehen.
 
@ Kivi 123 das Nvidia die besseren Treiber hat wage ich stark zu bezweifeln hast du dir den verlinkten Thread überhaupt mal angeschaut? Naja ist letztendlich auch egal jeder hat seine Erfahrung mit der einen wie mit der anderen Seite der eine gute der andere schlechte.
 
Wenn Nvidia es nach all den langen Jahren, wo ich bereits vergebens darauf warte, endlich mal geschafft haben wird ein anständiges und längst überfälliges On-Screen-Echtzeit-Hardwaremonitoring in den Treiber zu integrieren, so dass man die Möglichkeit hat sich rechts oder links oben in der Ecke während des Spielens so superwichtige Sachen wie Core-Temps, vRam-Temps oder Lüfterdrehzahl der Graka und am besten gleich auch noch die FPS anzeigen zu lassen, dann werde auch ich sagen, dass dies ein guter Treiber ist. Aber vorher nicht... :p
 
Zuletzt bearbeitet:
Naja die Stromkosten wachsen zwar aber ob die leistung da nicht wichtiger ist ich finde was viel leistung hat soll auch ruhig viel Strom
fressen.:daumen::daumen:
 
Zuletzt bearbeitet:
wieso wird das ganze zeugs eigtl immer kleiner gebaut? Wieso setz ich net nen Dual-Core anstatt auf sag mer mal 2x2cm aufs doppelte? --> mehr platz zum kühlen -- bessere Performance....Platz hat doch jeder?!

hm...
 
Weil die Anzahl der Transistoren stetig vervielfacht wird? ;)
Doppelt soviele Transis brauchen logischerweise auch doppelt so viel Platz!
Daher ist eine Miniaturisierung nötig!

Der G80 war/ist aber wirklich ungewöhnich gross!
 
Ich muss mich doch sehr über die Aussagen und Begriffe mancher wundern.

Der G92 ist ein sehr guter Chip in Bezug auf Verbrauch und Effizienz. Solche Chips wurden vom Markt auch gefragt. Die Highend-Chips, auf die einige wenige (z.B. ich) warten, lohnen sich derzeit nur für ein Spiel (Crysis) bzw. zukünftige Spiele in Auflösungen über 1600x1200. Wieso sollte Nvidia dann sowas rausbringen?

Deswegen zu sagen man steigt auf ATI um - bitte sehr, dann hat man eben noch weniger Leistung. Einzig die X2 ist leistungsmäßig interessant, aber bei all den Nachteilen von X2/GX2 Karten?

Wenn der RV770 ca. 50% schneller wird als sein Vorgänger wird auch der Singlechip mit etwas Glück konstant die Leistung einer 8800 GTX bringen (wenn überhaupt).

Wer weiß - vielleicht ist die GPU Situation so wie bei den CPUs für einigen Jahren: Die Leistung lässt sich nicht mehr in bekannten Tempo einfach so weitersteigern.

Eigentlich ist die Situation doch nicht mal so schlecht:
  • Man kann brav auf den Q9450 warten
  • Wenn es die 8800 GTX dann noch geschenkt gibt schnappt man sich diese
  • Ansonsten im Juni eine RV770 zum guten Preis
  • In jedem Fall kann man fast alle Spiele in 1920x1200 spielen
  • Ende des Jahres kommen dann neue Highend-Karten, die man sich dann nächstes Jahr schnappen kann

Das kommende Jahr wird ohnehin interessant werden: Es ist gut möglich, dass ATI/Nvidia sehr gute Karten zu sehr günstigen Preisen rauswerfen um den Markt zu sättigen bevor Intels Larrabee kommt.
 
@IgG:

Im Grunde genommen hast du vollkommen recht: Es gibt momentan wirklich keinen echten Grund (ausser Crysis) warum eine neue High-End-Graka für die aktuell bestehende Spielelandschaft dringend erforderlich wäre!

Beim g92 stimme ich dir ebenfalls zu, wobei man aber nie vergessen sollte, dass sich noch andere wichtige Bauteile auf dem PCB einer Graka befinden und dieser Chip alleine keine Gute solche ausmacht!

Das Problem ist vielmehr die verkrüppelte Speicheranbindung und vor allem die mickrige vRam-Bestückung mit der Nvidia neuerdings (seit dem g92) hausiert! Selbst auf ihren vermeintlichen Highend-Karten! (gx2, 98GTX)
 
@ HereticNovalis:

Ach Mensch! Weißt...
Ich finde es so wirklich übersichtlicher.
Und zwar nicht nur beim lesen, sondern auch beim selbst schreiben.

Jetzt mach' ich mir schon die Mühe und möchte ein wenig Licht
ins Tiefdunkel bringen und dann muss ich mir sowas anhören... :heul:

Nein ersthaft - es nervt mich eben tierisch, wenn ich immer diese
falschen Vereinfachungen à la "GDDR5 = DDR3" lese. :kotz:
 
Zurück
Oben