News Nvidia GT300 mit 512 Bit und GDDR5?

Suizid schrieb:
Tut mir leid, mit der Annahme liegst du weit daneben. Ausführbare Programme sind immer EXE unter Windows!

Nenn mir doch mal bitte ein Spiel, welches du mit einer BIN Dateiendung direkt starten kannst.

Vllt. meint er eine .bat oder eine .lnk :D
 
Suizid schrieb:
Tut mir leid, mit der Annahme liegst du weit daneben. Ausführbare Programme sind immer EXE unter Windows
Wie komme ich dann zu DIESEM PROBLEM?

Ich saug mir das nicht aus den Fingern, hab 3 Rechner mit ATi Karten...:rolleyes:

Ich seh das Spielmenü, stelle ein und gehe ins Spiel. Die EXE wird geschlossen, ATT taktet auf 2D runter und stellt das Qualitätsprofil auf Standard um, während das Spiel die BIN aktiviert und das Spiel darin laufen lässt. Da hilft immer nur ALT+TAB und manuell wieder alles machen. Taktrate und Qualitätseinstellungen setzen. DAS NERVT ! Bei Nvidia kann man per nHancer jede Dateiendung auswählen, bei Ati ist es auf eine aktive EXE beschränkt.

Suizid schrieb:
Nenn mir doch mal bitte ein Spiel, welches du mit einer BIN Dateiendung direkt starten kannst.
Mit einer Bin startet man nicht, war noch nie so. Wat weiss ich warum vom EXE Menü auf das BIN Spiel gewechselt wird und wieso das die Entwickler machen, bin kein Programierer. Ich weiss nur das mir 2D/3D/Quality Profile nix nützen, wenn ich da auch mit Tools (ATT) nix machen kann.

Das BIN Verhalten hab ich jetzt bei Project Torque, Archlord und Nostale beobachet. Ich denke es werden die meisten Online Games sein.
 
Zuletzt bearbeitet:
Ich halte es für Overkill ein 512SI +GDDR5. Außer der GT 300 ist wirklich 2-3mal so schnell wie die Gerüchte schon andeuten. In sachen Energieeffizienz ist aber ein 256SI +schnellsten GDDR5 definitiv besser. Bisher war es zumindest so das die NV Karte vom Speicherdurchsatz fast überhaupt nicht profitierten. Sieht man deutlich an GTS 250 1GB v. GTX 260-192, 70400 MB/s v. 111888 MB/s aber trotzdem kann die GTS 250 1GB gut mithalten. Vielleicht ist die neue Architektur bzw. neue Speicherverwaltung auch mehr auf die Bandbreite angewiesen, weil eben weniger im Vram bereit gehalten wird und dann braucht man plötzlich wieder die Bandbreite. Abwarten...


Das der kompakte Chip von ATI immer besser ist würde ich nicht unterschreiben, in sachen GPGPU geht der HD4000 schnell die Puste aus weil viel am cache gespart wurde und alles erst aus dem Vram geladen werden muss.(die theoretischen Werte sind überhaupt nix wert) Intel geht auch den Weg eines Monster Chips und wahrscheinlich sehr guter GPGPU Performance! GPGPU ist mit Sicherheit der Wachstumsmarkt(dafür baut Intel den Larabee und nicht für Gamer) der Zukunft und Intel und NV bauen dafür meiner Meinung nach genau die richtigen Chips. Hauptsache Stromsparmechanismen funktionieren einwandfrei und der Preis stimmt, und gegenüber den CPUs(ca. 200€ nur ein einziger Chip) sind die Grafikkarten geradezu geschenkt.


MfG Kasmo
 
Zuletzt bearbeitet:
Sentionline schrieb:
Wie komme ich dann zu DIESEM PROBLEM?

Ich saug mir das nicht aus den Fingern, hab 3 Rechner mit ATi Karten...:rolleyes:

Ich seh das Spielmenü, stelle ein und gehe ins Spiel. Die EXE wird geschlossen, ATT taktet runter und stellt das Profil um, während das Spiel die BIN aktiviert und das Spiel darin laufen lässt. Bei Nvidia kann man per nHancer jede Dateiendung auswählen, bei Ati ist es auf eine aktive EXE beschränkt.


Mit einer Bin startet man nicht, war noch nie so. Wat weiss ich warum vom EXE Menü auf das BIN Spiel gewechselt wird und wieso das die Entwickler machen, bin kein Programierer. Ich weiss nur das mir 2D/3D/Quality Profile nix nützen, wenn ich da auch mit Tools (ATT) nix machen kann.

naja ich würd mir mal die aktiven tasks und vor allem die laufenden prozesse genauer anschauen um erstmal festzustellen ob der im profil angegebene name überhaupt mit der vom spiel übereinstimmt...

beispiel... GTA 4 der game launcher von rockstar den man zuerst startet ist nicht identisch mit der game.exe

wenn man also das profil zu diesem verknüpft kann der spaß nicht funktionieren... zwar evtl der takt da im falle des rockstar launchers dieser weiter im hintergrund laufen muss... aber AA und AF werden auf die falsche aplikation ausgeführt und können somit nicht funktionieren...

desweiteren packt bei GTA zum bleistift garkein AA auch nicht mittels nHancer und ich denke es ist möglich das es die ein oder andere anwendung gibt wo man ebenfalls keine kantenglättung anwenden kann... insofern würde ich nicht allein das problem beim ATT suchen.


was das topic angeht... ich fände es zwar gigantisch was da spekuliert wird, aber aufgrund der aktuellen wirtschaftslage und der kaufkraft der kundschaft halte ich es für utopisch ein solches pixelmonster vermarkten zu wollen... in anbetracht der derzeit starken konkurrenz durch amd und deren preis strategie halte ich es eher für wahrscheinlich das nvidia versuchen wird das P/L verhältnis zu verbessern und nicht zu verschlechtern...


but time will tell
 
Hallo,

also eine Radeon HD 4770 würde ich bezüglich der Leistungsaufnahme nicht als Maßstab für die 40nm Fertigung heranziehen. Diese Karten wurden aus Marketing Gründen und wohl auch aus technischen Gründen irgendwie verhunzt. Zuerst hat man die Breite des Speicherinterface halbert und dann den RAM-Takt enorm erhöht um das wieder auszugleichen. Das war bestimmt nicht ideal für die Leistungsaufnahme.

Die ATI Grafikkarten sind zwar im Idle sparsammer als die Gegenstücke von nVidia, unter Last (Power Play deaktiviert) ist die Leistungsaufnahme dann jedoch größer. Die ist sogar dann der Fall wenn der nVidia Chip in 65 nm gefertigt ist und das ATI Gegenstück in 55 nm.

Wenn die neuen Grafikchips von ATI und nVidia jeweils in 40 nm hergestellt werden, könnte ATI in Bezug auf die Leistungsaufnahme evtl. das Nachsehen haben.

Gruß

Tikonteroga
 
@Kasmopaya: Wie es um GPGPU bei ATi und Nvidia wirklich steht sehen wir erst, wenn das (via DX11 und OpenCL?) endlich auf breiter Ebene unterstützt wird. Aktuell ist GPGPU genau wie DX10.1 und GPU Physx noch ein absolutes Nischenthema.
@topic: Möglich wär´s sicher, aber selbst in 40nm dürfte so ein Monster sehr viel kosten (Die, PCB...) und nicht wenig aus der Steckdose ziehen, zumindest unter Last. Wenn man die Gerüchte um ATi und NV zusammennimmt, bastelt ATi aktuell an einer 200-250,-€ Karte, die aber schon ziemlich schnell sein dürfte, während NV an dem schnellen Monsterchip schlechthin schraubt, der aber zur Einführung 500,-€ aus dem Geldbeutel zieht.
Die Lösungsansätze wären doch sehr unterschiedlich. Das wäre ein Unterschied wie zwichen 8800GTX und 3870.

@Bildqualität: Stimmt, bei Spielen bietet AMD aktuell tatsächlich nicht die gleiche Qualität wie Nvidia, die meisten sehen aber keinen Unterschied. Und die Viedofilter im Catalyst sind für mich wichtiger und über jeden Zweifel erhaben.
So oder so, man darf auf beide Karten gespannt sein, und auch darauf, ob Nvidia tatsächlich erst Anfang 2010 den GT300 bringt oder nahezu zeitgleich mit ATi auf DX11 setzt.
 
@Kasmopaya:
Bisher war es zumindest so das die NV Karte vom Speicherdurchsatz fast überhaupt nicht profitierten. Sieht man deutlich an GTS 250 1GB v. GTX 260-192, 70400 MB/s v. 111888 MB/s aber trotzdem kann die GTS 250 1GB gut mithalten.
das ist so auch nicht korrekt. nvidia-karten profitieren sehr wohl von speicherbandbreite. gib der gts250 ein 448-bit si und sie lässt die gtx260 im regen stehen ;) allerdings ist die speicherbandbreite bei der gtx260 bereits so hoch, dass hier eine steigerung aufgrund der gpu fast nichts mehr bringt. das verhältnis muss stimmen.
du vergleichs grad äpfel (g92) mit birnen (g200). die g92 karten sind sehr stark speicherlimitiert, um den "kleineren" g200-karten nicht zu nah zu kommen. es wurde mit einer 9800gtx+ mit 1400mhz ramtakt geschafft, die werte einer gtx260 zu toppen, obwohl der g92 auf dieser karte sehr schlechte oc-eigenschaften hatte (glaub bei 780mhz war schon sense). 850mhz machen aber noch sehr viele g92b mit. wenn die speicherbandbreite reichen würde, kannst du dir denken, wo die reise hingen würde ;)

512bit si + gddr5 ist imho zu teuer in der herstellung, wenn die bandbreite nicht erforderlich ist. und eine zwei- bis dreifache leistung gegenüber der gtx280 halte ich für sehr unwahrscheinlich.
 

@Drackconn:
GDDR5 1024MB auf ner HD4870 findest du für 160€ teuer?
Der Speicher kostet nichtma 50USD pro GB, das doch top billig!
 
Aber 2GB GDDR5 in Verbindung mit teurem PCB und 512Bit SI summieren sich nun mal.
ATi hat eben nur ein 256Bit SI und ein einfacheres PCB.
 
Ich freue mich auf die 300er Serie aber wird bestimmt am anfang sehr teuer.
 
ich warte auch auf den 300er aber ich wette es wird wider mehr gelavert wie das Teil leistet und zu beginn bestimmt wider 500+ kosten.

Naja ist ja net mehr sooooo lange ;)


Mfg
 
Tikonteroga schrieb:
....

Die ATI Grafikkarten sind zwar im Idle sparsammer als die Gegenstücke von nVidia, unter Last (Power Play deaktiviert) ist die Leistungsaufnahme dann jedoch größer. Die ist sogar dann der Fall wenn der nVidia Chip in 65 nm gefertigt ist und das ATI Gegenstück in 55 nm.

...

Tikonteroga

Es ist genau andersrum, ATI hat probleme im IDLE - weil der Takt des GDDR5 und/oder der Speicherkontroller nicht runtergetaktet wird! Unter Last ist ATI vorn - vor allem mit der 4770.

Wenn man manuell Hand anlegt - per BIOS Mod oder mit einem Tool - um den RAM Takt zu senken reduziert das die Leistungsaufnahme im IDEL erheblich.

DRAM verbraucht bei weitem nicht so viel wie da an Leistungsaufnahme eingespart werden kann bei der Karte - daher schließe ich auf den Kontroller.
Sollte ATI das bei der HD5 Serie in den Griff bekommen sehe ich da Land.

Aber in einem Punkt gebe ich dir Recht - es war mit Sicherheit nicht geplant den Fehler aus der 4770 zu entfernen.
Verkaufsargument für die kommende Generation.
 
Kasmopaya schrieb:
Ich halte es für Overkill ein 512SI +GDDR5. Außer der GT 300 ist wirklich 2-3mal so schnell wie die Gerüchte schon andeuten. In sachen Energieeffizienz ist aber ein 256SI +schnellsten GDDR5 definitiv besser.


256Bit mit GDDR5 brächte Nvidia aber keinen Bandbreitenzuwachs gegenüber ihrer jetzigen 512Bit GDDR3 Lösung. Vielleicht werden es ja aber auch 384Bit GDDR5.
 
ja genau so ähnlich heiße ich :p

GDDR5 1024MB auf ner HD4870 findest du für 160€ teuer?
Der Speicher kostet nichtma 50USD pro GB, das doch top billig!
2*1GB, 512Bit Speicherinterface.. das wird bestimmt nicht billig werden. Ich glaube nicht, dass man damit annähernd ähnliche ATI-Preise gehen kann. Nvidia muss sich mit dem Konzept mit Leistung repräsentieren.. alles andere ist mit diesen Eckdaten gar nicht mehr möglich. Man darf sicherlich gespannt sein ob der Chip das Gerüst sinnvoll ausnutzt - derzeit ist das SI in meinen Augen, jedenfalls in Verbindung mit GDDR5, zu groß.

Zum Wunsch "Strom sparen"
Die gleichen Probleme wie ATI derzeit hat: GDDR5 Controller, Speicher wird Nvidia auch bekommen..
Naja da wird sich bei Beiden bestimmt noch etwas ändern .. der Stromverbrauch des GDDR5 hat sich bei der 4xxx Serie als ein Manko herausgestuft. Man sieht aber das man mit Tools hier auch nochmal sparen kann - aber die wenigsten legen selbst Hand an. Für die 2 neuen Serien muss sich da einfach was verbessern .. aber da hoff ich schon lange drauf :(
 
Zuletzt bearbeitet:
Ich habe mir keine 280gtx gekauft, da mir bisher die 8800gtx gereicht hat - ok ausser bei Crysis & C. Warhead, aber das beide Teile habe ich bei knappen 25 Bildern pro Sekunde durchgespielt - war trotzdem ziemlich cool.

Die nächsten 400 Euro die ich ausgeben werde wird für die neueste GRaka der Firma sein, die das schnellste Flaggschiff auf Kurs bringt.

Ich würde mir wünschen, dass ich eine ATI-Karte kaufen muss.

Gruß

PS: 2 Chip-Modelle finde ich nicht so berauschend.
 
Ch!illor schrieb:
@ Stna: Ich hatte vor ca 1 Jahr meine Musterung und da hieß es mein Gehör sei völlig in Ordnung (im Gegensatz zu den Augen :D), d.h. ich kann sehr wohl noch sehr gut hören, obwohl ich des öfteren in Clubs gehe!
Und dann stelle ich mir doch die Frage warum ich das fiepen denn fast nicht wahrnehme, wenn deine Behauptungen stimmen!

Das war eine generelle Erklärung, warum VIELE, aber nicht ALLE, das nicht hören können. Manche Karte haben das Problem wohl weniger deutlich als andere, was in deinem Fall so sein könnte. Außerdem würde ich auf die Musterung nicht allzu viel geben, aus eigener Erfahrung ^^
 
ugur44 schrieb:
welcher Mensch braucht schon 2 GB VRAM??
1 GB ist ja ok aber 2 finde ich nicht sehr sinnvoll es sei denn man zockt gern auf 2560 x ....und 8xAA

Mein Gott ... 1GB werden Standard wie es bei 512MB auch derzeit ist und mit 512MB ist man bei einigen Spielen auch schon an der Leistungsgrenze also sind 2GB beim Spitzenmodell doch verständlich. Letztlich fehlt es eh an Leistung wenn es nach den Entwicklern geht denn technisch ist im Grafikbereich ja jetzt schon mehr drin als jede Karte vertragen kann.

Bin mal gespannt den GT200 fand ich nicht so pralle. Hoffe die Preise werden nicht wieder so ein Wucher sonst kauf ich mir lieber ne ATI Karte da bekommt man für sein Geld auch ne angemessene Leistung.
 
Meine nächste Graka wird sogar MINDESTENS 2GB VRam haben. Sobald euer Monitor mehr als 24 Zoll hat werdet ihr merken wie dreckig das mit >1GB ist ..
 
Zurück
Oben