News 512 MB-Grafikkarten nicht mehr dieses Jahr

Damit hast du Absulut recht. Aber es gibt nach wie vor bereiche bei denen man für höhere Qualität mehr leistung braucht, da kann man optimieren wie man will. (z.B: Amimationen rendern mit Cimema 4D Studios)
 
CHP1980 schrieb:
Och, schade. :(
Und ich wollte doch unbedingt mein ganzes Erspartes dafür berappen. :rolleyes:
Son Schiet.

Ma im Ernst, wozu brauch ich jetzt ne 512MB Karte ?
DOOM läuft bei mir flüssig genug und andere Spiele die vielleicht mal 512MB benötigen, um in extra ordinary super high quality spielen zu können, kommen eh erst 2005.

Dann lies mal hier weiter

klick

Der sollte es wissen ;) :D
 
ja blablubb und könnte und würde und wär besser und ach...

alles völlig hinfällig, denn wer im kapitalismuss sitzt fällt selbst hinein! ;)

sinnvoll? 512mb? jo bestimmt, wie gesagt man könnte wenn man wollte auch doom3
so programmieren das es auf nem 1gh p3 läuft mit ner gf1, aber warum sollte man?
man bekommt ja schließlich geld von denen die daran verdienen! ;) usw...

naja das is alles kein fortschritt sondern einfach der zwang neues auf den markt zu werfen um mehr geld zu verdienen, mehr nicht! man könnte aus alten produkten viel mehr durch konsequente entwicklung rausholen anstatt alle paar monate was neues zu bauen, aber es geht na eben nur darum geld zu verdienen!

achja es gibt schon lange wildcats mit 512mb, aber im consumer bereich is das natürlich n absolutes highlight, was gleich gekauft werden muss damit cs wirklich immer auf 99 frames läuft!

ich freu mich schon drauf!
 
@ Mr.Zweig: CS mit 100 FPS würde ich sagen(Tripple Buffering und v-sync)
Natürlich nur wenn der Monitor das auch kann.
Denn was nützen 300 FPS wenn der Monitor nur 65 Hz hat?
Gar nichts!

Für HL² auf 2000er Auflösung, 8xAF 16xFSAA,120 Hz, v-sync, Tripple Buffering, Optimierungsfrei und alle Details auf maximum werden auch 512 MB zu wenig sein. :D
 
Zuletzt bearbeitet:
Aber es gibt nach wie vor bereiche bei denen man für höhere Qualität mehr leistung braucht, da kann man optimieren wie man will. (z.B: Amimationen rendern mit Cimema 4D Studios)

Das mag stimmen, aber die Grafik-Karten um die es hier geht wenden sich ja hauptsächlich an den Comsumer-Markt, oder sehe ich das falsch?


Denn was nützen 300 FPS wenn der Monitor nur 65 Hz hat?
Gar nichts!

Mehr Frames als 65 können dir durchaus auch noch was bringen, wenn der Monitor nur 65Hz anzeigt! Nicht, dass das Auge einen Unterschied sehen kann (ist ja auch unmöglich, da ja de facto nur 65Bilder angezeigt werden...), aber die Reaktionszeit, wie schnell der Rechner anspricht ist das doch schon noch unterschiedlich...
 
Natürlich ist es gut, ein par reserven Für besonders Anspruchvolle Teile zu haben
(zB: Auf einmal Massenmetzlerei und braucht mehrleistung)
Ansonsten ist das mit der schnelleren Reaktionszeit irrglaube.
Aber wie gesagt, man benötigt oft reserven um die FPS konstant über der Hz rate eines Monitors halten zu können.
Das währe dann deine sogenannte "Reaktionszeit"

/EDIT:
Das mag stimmen, aber die Grafik-Karten um die es hier geht wenden sich ja hauptsächlich an den Comsumer-Markt, oder sehe ich das falsch?
Naja, es gibt auch Workstation-Karten von ATI und Nvidia.
 
Zuletzt bearbeitet:
Hmpf....§$%/ ich spiele Doom3 in Ultra-High-Auflösung gröstenteils "ruckelfrei" mit einer OC X800pro@XT ( 30++ Frames in 1280x1024 / 4aa / 16af ) > In Spielezeitschriften bzw. Tests wurde berichtet das es nur fließend mit 512MB Grafik-Memory spielbar wäre ( wobei man sagen muss, daß zwischen High-Grafik und Ultra-Grafik für mich kein merklicher Unterschied festzustellen war ) - desweiteren frage ich mich wer auf 512er Karten wartet ? Es gibt gar keine Games die das Ausreizen !! Bis diese Spiele erscheinen die 512MB benötigen, werden noch 1-2 Jahre ins Land gehen - und bis dahin gibts dann 1GB Grafikkarten und noch mehr...........na dann warte ich mal bis dann Game kommt kommt wo mein Rechner anfängt zu ruckeln....dann bekommt mein Sohn die kleine....


Grüssle

Seven :love:
 
Zuletzt bearbeitet:
512MB ist echt Hammer viel, aber wie sage ich immer so schön... "Warum nicht?" :D
Ich würde es sehr begrüssen, da fallen die Preise der 256MB GraKa's.
Wenn jemand immer noch 1GB Ram als verrückt haltet, der soll mal seine Ram auslastung wärend dem Betrieb mit Games und co. anschauen.
Meine Ram hats schon mehrmals bis 900MB gefüllt!
Aber 2GB Ram ist JETZT noch zuviel und unnötig, genau wie 512MB GraKa's.
Aber es wäre doch was, 512bit Speicheranbindung anstatt 256bit ^^
Oder habe ich mich da was verlesen?!
Wenn ich jetzt ein PC kaufe, oder es jemand empfehle, würde ich folgendes empfehlen:

AMD Athlon XP ab 3200+ (Oder OC von Athlon XP-M 2500/2600) oder Intel Pentium 4 ab 3Ghz mit 800Mhz FSB
1GB Ram DDR400 (2x 512)
Von der Grafikkarte würde ich sagen mindestens eine GeForceFX 5900XT!
Ich würde mehr sagen ab Radein 9800er. Allerdings keine GeForce6 6800 Ultra oder X800 XT PE! Da die meisten Hammer Teuer sind!
Und mindestens 160GB Harddisk.

So, das sind meine Empfehlungen.
Aber in 1 Jahre wird es sich um viele steigern, da ist GeForce6 6800 Ultra nichts mehr neues, und sicher für unter ca. 350€ erhältlich sein!
 
Hmpf....§$%/ ich spiele Doom3 in Ultra-High-Auflösung gröstenteils "ruckelfrei" mit einer OC X800pro@XT ( 30++ Frames in 1280x1024 / 4aa / 16as ) > In Spielezeitschriften bzw. Tests wurde berichtet das es nur fließend mit 512MB Grafik-Memory spielbar wäre ( wobei man sagen muss, daß zwischen High-Grafik und Ultra-Grafik für mich kein merklicher Unterschied festzustellen war ) - desweiteren frage ich mich wer auf 512er Karten wartet ? Es gibt gar keine Games die das Ausreizen !! Bis diese Spiele erscheinen die 512MB benötigen, werden noch 1-2 Jahre ins Land gehen - und bis dahin gibts dann 1GB Grafikkarten.........und noch mehr...........na dann warte ich mal bis dann Game kommt kommt wo mein Rechner anfängt zu ruckeln....dann bekommt mein Sohn die kleine....

Bei zu hoher Speicherbelastung schaltet die Grafikkarte automatisch AA und AF ab. Dh, plötzlich eine gewaltige Mehrleistung owohl "man AA und AF eingestellt" hat.

Vieleicht liegts ja daran :D

Und wie gesagt, ich warte auf 512 MB (aber nur wenn die Karte auch sonst gut ist)

Aber es wäre doch was, 512bit Speicheranbindung anstatt 256bit
Du hast dich verlesen. Es sind 512Mbit Bausteine vorhanden, anstall 256Mbit, daher braucht man keine 16 Speicherbausteine zu verbauen. Die sind noch zu teuer, und deswegen gibt's erst später 512 MB Karten.

512bit speicheranbindung kenne ich nur von dieser:
http://www.3dlabs.com/products/product.asp?prod=293&page=1

640 MB Speicher :D
 
Zuletzt bearbeitet:
*lol* 640MB GDDR3 :D Sexy!
Wozu? ^^
Damit ich denn Windows Media Player Visualisation flüssig abspielen kann? :p
Jetzt spass bei Seite. Kann gut verstehen das Filmschnitter und solche Leutz das brauchen, aber so eine Karte ist echt gewaltig.
Mega Lang :o
Warum steigen die wohl nicht in denn Grafikkarte Desktop Markt ein um die ATI und nVidia mal Feuer unters Ar*** zumachen? :D
Wäre doch was lustiges neues! Und die Preise würde für uns alle sinken!

PS: Yeah! 1100 Posts! Hatte nicht mal gewusst dass ich die 1000er Posts Grenze überschritten habe :schluck:
 

Anhänge

  • mainpic_prod293.jpg
    mainpic_prod293.jpg
    48,1 KB · Aufrufe: 483
Zuletzt bearbeitet:
@alle die hier schreien: "hu ho ha ich hab ja bald mehr speicher auf der grafikkarte als im rechner..."
damals als die vodoo2-karten mit 12mb kamen hatte ich 2 @ SLI davon gepaart mit nem 166Mhz P1 und 16MBRam...alles klar kollegen...
gabs alles schonmal.
und warum soll die technik nicht vorranschreiten.
 
Naja es soll ja auch Leute geben, die nichts besseres zu tun zu haben, als sich alle 3 Monate eine neue Kiste geschweige denn Graka zu holen.

Naja wers hat...

Ich werde meine Radeon 9800 Pro solange nutzen wie es geht
 
meine 9800Pro (256MB Speicher) reicht auch noch. ich werde wohl erst bei der nächsten graka generation (geforce 7xxx oder radeon x900 oder wie die dann auch heißen sollen) zuschlagen..
512 MB sind mir dabei allerdings nicht soo wichtig, bzw. kommt es auf die hardwarevorausetzungen der zukünfigen spiele an- wozu 512MB wenn jedes spiel bis dato mit 256MB locker auskommt ???
der doppelte speicher kann unter umständen auch mal fast das doppelte kosten ;-)
und mal ehrlich, der 512MB Modus von Doom3 spielt nun echt keine rolle, und ist wohl eher als spielerei bzw. engine-demo zu verstehen..
 
Der Unterschied zwischen 128 und 256 MB bei aktuellen Spielen liegt im Extremfall vielleicht bei 5 bis 8 FPS. Bei 256 - 512 wird das nicht anders sein. Ich seh nicht ein, warum ich dafür wieder unmengen Geld ausgeben soll ?! Wird doch wieder alles viel zu früh (Auch nächstes Jahr noch) rausgeschossen. <Zyn-Mode on> Na hoffentlich kommen die 512MB Karten dann wenigstens mit PCI Express <Zyn-Mode off> ;)
 
@8
Es will keiner bei der Technik stehen bleiben. Aber anstatt immer mehr, lieber effektiever. Weniger Strom zum Beispiel. Heutzutage hat ja jede Karte mindestens ein Stromstecker zusätzlich. Die Kühler werden auch immer größer und lauter. Da wäre noch viel zu tun.
Also liebe Graka-Hersteller und Entwickler, bitte kleiner/kühler/-Watt/-€/ und vor allen das Niveau der Grafik mindestens auf dem Stand einer Ti.
Wolf
 
Der Unterschied zwischen 128 und 256 MB bei aktuellen Spielen liegt im Extremfall vielleicht bei 5 bis 8 FPS. Bei 256 - 512 wird das nicht anders sein. Ich seh nicht ein, warum ich dafür wieder unmengen Geld ausgeben soll ?! Wird doch wieder alles viel zu früh (Auch nächstes Jahr noch) rausgeschossen. <Zyn-Mode on> Na hoffentlich kommen die 512MB Karten dann wenigstens mit PCI Express <Zyn-Mode off>
Unter dem normalen Modus macht es, genau genoomen, ungefähr gar keinen unterschied. Das ist etwa so wie man 1 GB RAM hat aber trotzdem nie 512 MB voll hat. Bei gleichen RAM Geschwindigkeiten macht es so keinen unterschied.
Wenn wir jetzt wieder von Grafikkarten reden macht es aber wohl einen unterschied, wenn mehr als 256 MB Gebraucht wird (trotz Texturenkomprimierung á lá ATI).

Wann wird also viel MB gebraucht? Einerseits, wenn man viele hochauflösende Texturen verwendet (auch wenn man sie teilweise eigentlich nicht bräuchte, sprichwort Optimierungen), wenn man unter hohen Auflösungen mit maximaler AA und AF spielt (Ich spreche bei 1600x1200 nicht von einer hohen Auflösung), wenn man Videos rendert oder Videoeffekte rendert etc.

Wenn viel Arbeitsspeicher gebraucht wird haben 512 MB sinn, sonst nicht, fertig. :D

*lol* 640MB GDDR3 Sexy!
Wozu? ^^
Damit ich denn Windows Media Player Visualisation flüssig abspielen kann?
Jetzt spass bei Seite. Kann gut verstehen das Filmschnitter und solche Leutz das brauchen, aber so eine Karte ist echt gewaltig.
Mega Lang
Warum steigen die wohl nicht in denn Grafikkarte Desktop Markt ein um die ATI und nVidia mal Feuer unters Ar*** zumachen?
Wäre doch was lustiges neues! Und die Preise würde für uns alle sinken!

Die billigste 512er Karte gibt's für 550 Euro, also für die meisten bereits unbezahlbar. Die 640er Karte kann man gar nur im Großhandel kaufen, d.h: Nur für Firmen. Der Preis ist wahrscheinlich imens hoch, deswegen haben auch ATI und Nvidia keine 512er Karte hergestellt, aber bei solchen Karten ist der Preis nebensächlich :D
 
Zuletzt bearbeitet:
Faustpfand schrieb:
"640 kilobytes of computer memory ought to be enough for anybody."

(Ich weiß, es ist alt -- ..., aber die Zeit bleibt nun mal nicht stehen.)

Wer braucht Dual Core Prozessoren?
Wer braucht 2GB RAM?
Wer braucht 24''-Monitore?
Wer braucht Geld? .. Ehm, ach vergesst es. Keine Karmabewertungen bitte ;D

Ich muss es nochmal wiederholen auch wenn wiede rnur wenige begreiffen werden.
Und jetzt ein Vorwurf an alle die Meckern und Hetzen wird würden den Speicher nicht brauchen:
Wie könnt ihr eine Option zum Deaktvieren der Winkeloptimierung beim Anisotropen Filter verlangen, etwas das den Speicherbedarf enorm in die Höhe treiben würde und gleichzeitig hier eine Stagnation der vorhandenen Speichermenge auf der Grafikkarte verlangen? Man kann viel behaupten wenn der Tag lang ist, was mit Komprimierungstechnologien möglich ist kann man allerdings sehr gut bei Doom3 beobachten, schlieszlich arbeiten alle Darstellungsgrade bis auf Ultra-High irgendwo mit Komprimierungstechniken und das zeigt auch stets die Folgen die das eben mit sich bringt; akzeptiert doch bitte einfach, dass das eben nicht jedem genügt!
Selbst mit den Optimierungen ist Groszformatspielen mit 1920*1080 oder mehr kaum flüssig möglich ohne die Texturqualität sehr weit herabzusenken und auf AF sowie AA zu verzichten.
Warum soll man nicht auf diesem:
http://www7.alternate.de/shop/infoNodes/productDetails.html?artNr=v5lu03
Monitor spielen, warum soll ich, der ich ja das Spiel erleben will nicht auch mein Blickfeld vergröszern? Wenn ich nur den Monitor vergröszere aber bei der gleichen Auflösung spiele, auf einem 17-Zöller sind 1024*768 bei gutem Anti-Aliasing ja noch ganz brauchbar, erhalte ich zu grosze Pixel, soetwas zu betrachten ist einfach unangenehm.

Natürlich darf man die ökologische Komponente nicht vernachlässigen, dabei gibt es allerdings auch durchaus starke Verbesserungen, also verminderungen des Verbrauchs. Der Monitor den ich dort verlinkte, der Samsung SyncMaster 243T (silber) ist einer der stromhungrigsten 24"-TFT-Monitore und verbraucht im Betrieb bei seiner Auflösung von 1920*1200 Bildpunkten nur 75 W und ist dabei bereits TCO 03 was nicht nur irgendein Marketingstempel sondern etwas das für Umwelt und Gesundheit durchaus eine wichtige Rolle spielt ist, ein guter 19" TFT der die TCO-03-Norm erfüllt verbraucht im Schnitt unter 40 W, wie dieser der nur 34 W verbraucht:
http://www7.alternate.de/shop/infoNodes/productDetails.html?artNr=v3lp10
Um das jetzt zu vergleichen: Mein billiger Proview 772M, ein 17"-Monitor der nur TCO 95 erfüllt und die gesunden 85 Hz nur bis maximal 768 Bildzeilen schafft verbraucht im Betrieb 110 W. Was die Monitorentwicklung in den letzten Jahren trotz Qualitätsverbesserung beim Stromverbrauch erreicht hat ist enorm!

Bei anderen Komponenten ist es nicht viel anders, momentan sträuben sich alle gegen DDR2, dabei verbraucht ein DDR2-533-Modul ungefähr nur halb soviel Strom wie ein DDR-533-Modul gleicher Grösze. Bei verdoppelter Speichergrösze erhalte ich also den gleichschnellen Speicher bei gleichem Stromverbrauch. CPUs sind auch nicht zwangsläufig so teuflisch wie uns das der Presscot bescheren wollte, es gibt ja noch andere. Ein Intels Banias und Dothan (Pentium-M) sind ökologisch fabelhaft und bei AMD hat man die Desktop-CPU ganz gut im Griff, immerhin darf man beim Stromverbrauch des Athlon64 nicht vergessen, dass es keine Northbridge mehr gibt die ebenfalls ganz gut Strom ziehen würde, 15 W können das in einer Northbridge bei passiver Chipkühlung immernoch locker sein und trotz dieser Integration verbraucht ein Athlon64 der ersten Generation nicht mehr als ein Thoroughbred mit weniger Cache.

Der Verbrauch der Grafikkarten ist in letzter Zeit deutlich in die Höhe gegangen, allerdings sollte man mal untersuchen, immerhin wurde auch dort die Spannung des Speichers stetig gesenkt, ob der gewachsene Speicher wirklich viel daran ausmacht, ich glaube nicht, dass meine alte GF4Ti4200 im selten betriebenen Zweitrechner mit ihren 128 MB wirklich deutlich mehr verbraucht als ihre Modellschwester mit 64 MB, der deutliche Hauptverbraucher ist immernoch der Grafikchip. Was Bedenken schafft ist natürlich die bei den Topmodellen nötig gewordene Aktiv-Kühlung der Speicherchips, allerdings ist hier in erster Linie auch einmal über den Stromverbrauch des einzelnen Chips nachzudenken und ob man dort nicht etwas unternehmen könnte, die Speicherwentwicklung muss hier weiter vorranschreiten und den Betrieb mit immer weniger Spannung ermöglichen. Vielleicht sollten wir die Geduld haben mit der Videospeichervergröszerung auf GDDR4 oder was auch immer warten, allerdings wird das den verbrauch der GPU nicht senken. Was den Stromverbrauch bei Grafikkarte in erster Linie so gesteigert hat ist unsere Shadersucht und die damit einhergehende stete Vergröszerung der Transistorenanzahl die in einer Geschwindigkeit vorranschreitet mit der die Entwicklung zur Senkung des Stromverbrauchs momentan nicht schritthält. Da nun aber kaum Verbesserungsspielraum bei der Kühlung bleibt wird sich der Verbrauch nicht mehr so stark steigern können. Viele erwarten ein Wunder von BTX, dabei gilt die dadurch verbesserte Kühlung in erster Linie für die Komponenten an die viele nicht denken, es dient der Glättung des Luftstroms der momentan durch die starken CPU- und Grafikkartenkühler verwirbelt wird, es geht also darum dass Spannungsregler, Elkos, RAM, Laufwerke, Sound- und andere nicht aktiv gekühlte Steckkarten länger halten. Da man Grafikkarten nicht besser mit einem Luft-Kühlblock-Konzept kühlen kann als mit einer Konstruktion der Art des ajktuellen VGA-Silencers von Arctic Cooling wird man nicht viel mehr verbrauchen können, es gibt zu viele die ihre High-End-Grafik-Karte auch leise haben möchten und weil diese ganze Angelegenheit sich eben so verhält drängen die Grafikchipentwickler auch nach einer Verlängerung der Produktions- und Entwicklungszyklen. Deutlich schnellere Grafikchips müssen eben in Zukunft auch etwas länger auf die verkleinerten Fertigungsprozesse und die Spannungssenkungen warten, die hardwareentwicklung läuft also im Vergleich zu den letzten "boomenden" Jahren etwas langsamer. ATI hat den Verbrauch besser im Zaum als Nvidia und ATI hat viele Fähigkeiten beim guten Alten belassen, damit die Transistorenmenge eben nicht zu stark steigt und die Möglichkeiten der Senkung des Stromverbrauchs pro Transistor nicht gänzlich überfordert werden.

Letztenendes sollte aber auch jeder der Energie sparen will noch abseits des Rechnerinnenlebens handeln: Meine Deckenbeleuchtung brauchte früher 100 W, bei gleicher Helligkeit verbraucht sie seit einigen Jaren 30 W, den meisten würden hier vielleict auch zwei solche Birnen, also 20 W genügen. Nicht jede Peripherie muss ständig in Betrieb sein, Drucker, Scanner und Zeug an eine andere Verteilersteckdose (natürlich nur Geräteschutzstecdosen mit An/Aus-Schalter) und diese stets ausschalten wenn man die Peripherie nicht braucht und die HiFi-Anlage abschalten wenn man sie nicht nutzt und für die weniger anspruchsvollen Aufgaben, also für Word und Zeug nimmt man vielleicht einen Zweitrechner, eine alte billige Gurke ohne viel Power mit Duron600 oder sowas - oder noch besser ein Via C3, fürs Office sollte das locker langen und einer GF2MX oder wenn man die nicht mehr bekommt eben eine GF4MX - Wer ne Filesharingmaschine braucht soll sie damit aufziehen.
 
Zuletzt bearbeitet:
Schöner, langer Artikel. Dein Artikel gefällt mir, außer dass der 1920x1200 Moitor nicht fürs spielen geegnet ist (offoziell 30ms, inoffiziell 100ms=1/10 sek. ?)
:D

Ich bin mit meinem Monitor zufrieden. Er hat eine Ausreichend hohe Frequenz für 1920x1440 ist durch steifenmaske besonders scharf, hell, hoher Kontrast, etc. alles top (außer 2000er Auflösung, die er nicht mehr schafft).

Für spiele á la Warcraft braucht man keine besondere Leistung, um sie auf 1920x1440 spielen zu können. Aber wohl eine hohe Speichermenge. Wenn man mit AA und AF spielt, und nicht genug Grafikspeicher hat, wird das Automatisch abgeschaltet. Hat man immer noch zu wenig entstehen bei mir Grafikfehler(128MB)

Der Stromverbrauch meines CRT's liegt bei TCO99 Niveau,
[Witz=Ein]aber wahrscheinlich auch aufgrund der extremen helligkeit, bei der man im dunkeln fast bling werden könte[/Witz]
 
Sorry Leute: "Heutige 256 MB-Grafikkarten verwenden acht GDDR3 256 Mbit-Chips."
laut meinem Windows-Rechner sind 8x256=2048? Ist mein Rechner verbugt, oder habt Ihr alle in der Grundschule beim lesen oder rechnen gefehlt?
 
Zurück
Oben