eyefinity mit der dp-geschichte wird in folgendem thread diskutiert: https://www.computerbase.de/forum/threads/ati-eyefinity-vorraussetzungen.640115/
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidias Antwort auf ATis HD5K-Serie Ende November?
- Ersteller Volker
- Erstellt am
- Zur News: Nvidias Antwort auf ATis HD5K-Serie Ende November?
Luxmanl525
Admiral
- Registriert
- Mai 2007
- Beiträge
- 9.349
Hallo zusammen,
@ KAOZNAKE
Ich rede von normalen Settings, nicht von 8 x AA oder dergleichen! So etwas ist für mich einfach Unrealistisch und wenn man die Relation von Performance und Leistung gegenüberstellt, sowieso nicht lohnend, erst recht wenn man den praktisch nicht vorhanden Zugewinn der Bildqualität im Verhältnis dazu nimmt!
Und wenn ich das Sagen darf, ich Rede hier von Praxisnahen 1600er Auflösungen, welche immer noch von der Mehrzahl der Spieler genutzt werden. Die wenigsten Nutzen 1900er Auflösungen, nicht zu Reden dann noch von 8 x AA bei dieser Auflösung, überhaupt Benches diesbetreffend einzubeziehen, halte ich definitiv für nicht Praxisnah.
Bestätigt Sehe ich mich dann auch übrigens auch noch von @ BullRun der mit seiner Geforce 8800 GTX, laut seinen eigenen Silben - Beitrag Nr. 135 in diesem Thread -, bisher noch jedes Spiel mit sogar 1920 x 1200er Auflösung Flüssig Spielen konnte, sogar mit 2x AA/2xAF, ausgenommen Crysis, was bei der Auflösung aber auch kein Wunder ist.
Sorry, ich will niemand zu Nahe treten oder gar Beleidigen, das ist meine eigene Persönliche Meinung bzw. sogar meine eigene Persönliche Erfahrung anhand der Konfiguration in meinem Profil.
So long....
@ KAOZNAKE
Ich rede von normalen Settings, nicht von 8 x AA oder dergleichen! So etwas ist für mich einfach Unrealistisch und wenn man die Relation von Performance und Leistung gegenüberstellt, sowieso nicht lohnend, erst recht wenn man den praktisch nicht vorhanden Zugewinn der Bildqualität im Verhältnis dazu nimmt!
Und wenn ich das Sagen darf, ich Rede hier von Praxisnahen 1600er Auflösungen, welche immer noch von der Mehrzahl der Spieler genutzt werden. Die wenigsten Nutzen 1900er Auflösungen, nicht zu Reden dann noch von 8 x AA bei dieser Auflösung, überhaupt Benches diesbetreffend einzubeziehen, halte ich definitiv für nicht Praxisnah.
Bestätigt Sehe ich mich dann auch übrigens auch noch von @ BullRun der mit seiner Geforce 8800 GTX, laut seinen eigenen Silben - Beitrag Nr. 135 in diesem Thread -, bisher noch jedes Spiel mit sogar 1920 x 1200er Auflösung Flüssig Spielen konnte, sogar mit 2x AA/2xAF, ausgenommen Crysis, was bei der Auflösung aber auch kein Wunder ist.
Sorry, ich will niemand zu Nahe treten oder gar Beleidigen, das ist meine eigene Persönliche Meinung bzw. sogar meine eigene Persönliche Erfahrung anhand der Konfiguration in meinem Profil.
So long....
FrankC
Banned
- Registriert
- Nov. 2007
- Beiträge
- 285
NV hat nur 2 Möglichkeiten:
1. Billiger und ca. gleich schnell als ATI
2. Teurer und schneller als ATI
Ich glaub ja nicht an Version 1, da ATI preislich schon sehr streng kalkuliert (sonst hätte Dell wohl ned NV rausgekickt) und es is irgendwie nicht typisch für die Grünen..
1. Billiger und ca. gleich schnell als ATI
2. Teurer und schneller als ATI
Ich glaub ja nicht an Version 1, da ATI preislich schon sehr streng kalkuliert (sonst hätte Dell wohl ned NV rausgekickt) und es is irgendwie nicht typisch für die Grünen..
Luxmanl525
Admiral
- Registriert
- Mai 2007
- Beiträge
- 9.349
Hallo zusammen,
@ Robo32
Du darfst nicht vergessen, meine 8800 GTS 640 läuft mit 680 MHz Chip- und 1100 MHz Speichertakt. Das ist beim Chiptakt beinahe 40 % mehr und beim Speichertakt knapp 30 % mehr als die Standardversion der 8800 GTS 640, welche auch in den Benches mit dem Standardtakt ja auch gebencht wird. Dabei läuft meine nicht einmal am Anschlag. Ich hatte sie auch Problemlos auf 700 / 1100 laufen, nur bin ich davon abgewichen, da ich normalerweise niemals meine Hardware am Limit Nutze. Sie läuft auch genau in der Konfiguration wie in meinem Profil aufgeführt, das ganze ist also auch entsprechend gut belüftet.
@ FrankC
Ich Persönlich Glaube, daß ATI momentan die Neue 5000er Reihe taktisch vom Preis her höher angesiedelt hat, so daß sie noch Spiel nach unten haben. Das erscheint mir auch sehr logisch. Meiner Ansicht nach hat ATI sich alle Optionen offen gehalten, um zu reagieren, je nachdem, wie gut der G300 von Nvidia wird.
Denke auch, daß ATI eine hohe Chipausbeute hat, da sie ja mit der Radeon 4770 schon Erfahrung mit dem 40 Nm Prozeß Sammeln konnten. Und Nvidia hat definitv noch keine Erfahrung mit dem 40 Nm Prozeß. Aber warten wir ab, es wird sicherlich Spannend zu beobachten, was nach der Einführung des G300 Passiert.
So long.....
@ Robo32
Du darfst nicht vergessen, meine 8800 GTS 640 läuft mit 680 MHz Chip- und 1100 MHz Speichertakt. Das ist beim Chiptakt beinahe 40 % mehr und beim Speichertakt knapp 30 % mehr als die Standardversion der 8800 GTS 640, welche auch in den Benches mit dem Standardtakt ja auch gebencht wird. Dabei läuft meine nicht einmal am Anschlag. Ich hatte sie auch Problemlos auf 700 / 1100 laufen, nur bin ich davon abgewichen, da ich normalerweise niemals meine Hardware am Limit Nutze. Sie läuft auch genau in der Konfiguration wie in meinem Profil aufgeführt, das ganze ist also auch entsprechend gut belüftet.
@ FrankC
Ich Persönlich Glaube, daß ATI momentan die Neue 5000er Reihe taktisch vom Preis her höher angesiedelt hat, so daß sie noch Spiel nach unten haben. Das erscheint mir auch sehr logisch. Meiner Ansicht nach hat ATI sich alle Optionen offen gehalten, um zu reagieren, je nachdem, wie gut der G300 von Nvidia wird.
Denke auch, daß ATI eine hohe Chipausbeute hat, da sie ja mit der Radeon 4770 schon Erfahrung mit dem 40 Nm Prozeß Sammeln konnten. Und Nvidia hat definitv noch keine Erfahrung mit dem 40 Nm Prozeß. Aber warten wir ab, es wird sicherlich Spannend zu beobachten, was nach der Einführung des G300 Passiert.
So long.....
Zuletzt bearbeitet:
mapel110
Lieutenant
- Registriert
- März 2003
- Beiträge
- 990
nvidia hat sehr wohl Erfahrung mit 40nm. Die neuen Mobile Chips mit DX10.1 basieren darauf.Luxmanl525 schrieb:@ FrankC
Ich Persönlich Glaube, daß ATI momentan die Neue 5000er Reihe taktisch vom Preis her höher angesiedelt hat, so daß sie noch Spiel nach unten haben. Das erscheint mir auch sehr logisch. Meiner Ansicht nach hat ATI sich alle Optionen offen gehalten, um zu reagieren, je nachdem, wie gut der G300 von Nvidia wird.
Denke auch, daß ATI eine hohe Chipausbeute hat, da sie ja mit der Radeon 4770 schon Erfahrung mit dem 40 Nm Prozeß Sammeln konnten. Und Nvidia hat definitv noch keine Erfahrung mit dem 40 Nm Prozeß. Aber warten wir ab, es wird sicherlich Spannend zu beobachten, was nach der Einführung des G300 Passiert.
So long.....
Die letzte Zahl, die ich gelesen habe, wie hoch die Ausbeute bei GT300 ist, war über 40 %. Und das ist einige Wochen her.
ATI hat wohl was breite Verfügbarkeit angeht einen Vorsprung von etwa 8-9 Wochen. Nicht gerade viel. Deswegen auch dieser halbe Paperlaunch mit ein paar Karten, um noch ein paar Wochen zusätzlich rauszuquetschen.
ATI wäre schön blöd, mit sehr niedrigen Preisen anzufangen. Die neue Technik muss auch ihre Entwicklungskosten wieder einspielen. Sicher haben sie Spielraum nach unten, aber den wird nvidia auch haben.
Zuletzt bearbeitet:
Jo, zB die GeForce GT 240M ist schon seit Wochen auf dem Markt und in 40nm gefertigt. Funktioniert auch ganz ordentlich das Teil! Somit hat Nvidia sehr wohl Erfahrung im 40nm-Bereich...
P
Pickebuh
Gast
So wie es aussieht wird die GTX380? zum 27.11.2009 vorgestellt.
Die Frage ist nur ob sie dann auch verfügbar ist.
Die Frage ist nur ob sie dann auch verfügbar ist.
https://www.computerbase.de/news/gr...wort-auf-atis-hd5k-serie-ende-november.25947/cb-news schrieb:Bereits im November, genauer gesagt dem 27.11.2009, soll der Grafikchip der neuen Generation vorgestellt werden, mit einer Lieferung in den Handel ist im Dezember zu rechnen. Analysten, Investoren und Partnern seien die Chips angeblich bereits Anfang September gezeigt worden, die Massenproduktion soll Mitte bis Ende Oktober anlaufen können.
stoneeh schrieb:falsch
bei der hd5870 wurde shaderleistung, pixelfüllrate, texelfüllrate, ROPs gegenüber hd4870 mehr als verdoppelt. das sind im prinzip alle aspekte die die geschwindigkeit einer GPU heutzutage ausmachen
Du hast mich doch richtig zitiert, da steht doch ganz klar in Klammern 5870-4890 und darauf beziehen sich die Vergleiche. Und in dem Falle ist es mit Ausnahme der Speicherbandbreite eine klare Verdopplung der theo. Werte, wie FLOPS, Texturleistung und Pixelfüllrate, mit dem Zusatz, dass dies "nur" durch Verdopplung der Recheneinheiten geschieht. Deswegen sind das auch nur Aspekte, die die theoretische Geschwindigkeit einer GPU ausmachen. Wenn man nicht weiß, wie sich diese Zahlen zusammensetzen, lässt sich die praktische Geschwindigkeit nicht abschätzen.
Hätte AMD den GPU-Takt verdoppelt bei gleicher Shaderanzahl, hätte die Karte exakt dieselben theo. Werte, aber eine prakt. Mehrleistung von 80 - annähernd 100% (und nicht "nur" etwa 50%), wenn kein andere Flaschenhals vorher dichtmacht, (Was natürlich auch eine zu geringe Speicherbandbreite sein kann)
stoneeh schrieb:die speicheranbindung wurde jedoch mit einer erhöhung der bandbreite um 25% grob vernachlässigt. je nach spiel hat sich das mehr oder weniger stark ausgewirkt - manche spiele werden durch die speicheranbindung limitiert und zeigten ähnliche anstiege um die 25%, während andere spiele sich fast rein über die angestiegene shaderleistung freuten und doppelt so schnell liefen
eine der leistung des chips entsprechende steigerung wird bei der hd5870 durch den relativ gesehen mageren speicherdurchsatz verhindert - dieser ist schlicht und einfach bei dem design der flaschenhals
Das kann durchaus sein, Tests in Zukunft mit gut übertaktetem GDDR5 werden es zeigen, die momentanen Tests in 25x16 mit 8AA zeigen aber jetzt schon, dass da etwas dran sein könnte.
stoneeh schrieb:gt300 kommt gerüchteweise mit mehr als doppelt so viel shadern wie gt200 - man sollte auch davon ausgehen, dass nvidia nicht so dumm ist den rest des chips nicht an diese geschwindigkeit anzupassen. nvidia hat vll den einen oder anderen die-shrink verpasst, aber sie waren bei jedem GPU-neudesign bisher sehr erfolgreich - und das wird der GT300, im gegensatz zum gt200, der nur eine evolutionäre verbesserung zum g80 darstellt
wichtiger aber ist folgendes: ein 512 bit breites speicherinterface wird den gt300 an gddr5 speicher anbinden. somit verdoppelt nvidia auch die speicherbandbreite
Die Gerüchte um das GT300-SI belaufen sich mittlerweile "nurmehr" auf 384bit. In Verbindung mit GDDR5 in Taktregionen wie bei ATIs 5870 wird das wohl genügend Bandbreite geben, bezogen auf die zu erwartende Leistung, wenn sich die anderen Specs wie Shaderzahl (512) bewahrheiten und der Takt etwa gleich bleibt.
Und wie schon mehrfach erwähnt, doppelte Shaderanzahl ist nicht gleich doppelte FPS-Leistung, war es nie und wird es auch nicht sein, da ändert auch eine hohe Speicherbandbreite nix dran. Wenn NV ihre theoretische Flopleistung noch zusätzlich zur nahezu Verdopplung der ALUs über Mehrtakt insgesamt verdreifacht, dann könnten 100%+ rauskommen.
Gruß
Raubwanze
john carmack
Banned
- Registriert
- Nov. 2004
- Beiträge
- 1.652
SirGrabbe schrieb:Ich denke auch eher so wie Ohmann - abwarten, was wiklich in 2 Monaten passiert.
Vielleicht wäre es interessant, welches Datum im NDA vermerkt ist - oder fällt das unter das NDA ?![]()
würd mich auch interessieren...
wenigstens das Datum...
Schaffe89 schrieb:Wenn die Massenproduktion erst Ende Oktober anläuft, dann dürfte Nvidia wohl das Weihnachtsgeschäft nur teilweise mitnehmen können.
Glaub mir, es gibt sicher genug Leute, die mit ihrer alten karte auch noch bis zum Januar überleben werden...
Schaffe89
Banned
- Registriert
- Sep. 2008
- Beiträge
- 7.933
http://www.pcgameshardware.de/aid,696154/GT300-Neue-Geruechte-zu-Nvidias-DirectX-11-Chip-mit-Codenamen-Fermi/Grafikkarte/News/
Die Leistung, wie auch die Leistungsaufnahme, soll hoch sein.
Von den immensen Chipkosten mag ich liebe rnicht sprechen, bzw die Lautstärke des Kühlers.
Hoffe mal das Gegenteil.
Die Leistung, wie auch die Leistungsaufnahme, soll hoch sein.
Von den immensen Chipkosten mag ich liebe rnicht sprechen, bzw die Lautstärke des Kühlers.
Hoffe mal das Gegenteil.
Robo32
Fleet Admiral
- Registriert
- Sep. 2006
- Beiträge
- 24.118
Luxmanl525 schrieb:@ Robo32
Du darfst nicht vergessen, meine 8800 GTS 640 läuft mit 680 MHz Chip- und 1100 MHz Speichertakt. Das ist beim Chiptakt beinahe 40 % mehr und beim Speihertakt knapp 30 % mehr als die Standardversion der 8800 GTS 640, ...
Schon klar, meine lief auch mit OC - auch wenn es nicht ganz so viel gewesen ist.
Es ist immer noch eine sehr gute Karte und ob aufgerüstet werden soll, muss jeder selbst entscheiden - wenn du mit der Leistung zufrieden bist, dann behalte sie ( verkaufen lohnt sich nicht mehr ).
Luxmanl525
Admiral
- Registriert
- Mai 2007
- Beiträge
- 9.349
Hallo zusammen,
@ Robo32
Die Übertaktbarkeit einer Geforce 8800 GTS 640 hängt sehr stark vom Stepping ab, wenn man eine mit Stepping A3 erwischt hat, kann man bei vernünftiger Kühlung sicher sein, daß diese schon ziemlich Gut zu Übertakten ist.
Meine besitzt das A3 Stepping und Chip- u. Speichertakt wie in meinem Profil aufgeführt, ist keinetwegs das Ende der Fahnenstange, ich lasse aber meine Hardware grundsätzlich nie am Limit laufen.
Bis zu einer 1600er Auflösung ist bisher noch jedes Spiel Flüssig gelaufen, Flüssig nenne ich mindestens ca. 30 fps. Bis auf Crysis auch mit bis 4 x AA. Von daher habe ich bisher noch keinen Grund gesehen, zu einer Neuen Karte zu Greifen.
Auch die Neuen Generationen von Nvidia und ATI stellen für mich noch keinen Grund dar, etwas zu ändern. Meiner Ansicht nach haben die derzeitigen Karten soviel Power, daß die Spiele das zum Großteil gar nicht ausnutzen können, bis auf ganz wenige Ausnahmen.
@ Schaffe89
Also wenn das alles nur teilweise stimmt, was da in dem von dir verlinkten Artikel steht, glaube ich Persönlich, daß sich nicht so viele finden werden, welche sich eine solche Karte kaufen werden. Jedenfalls nicht so viele, damit Nvidia ATI Marktanteile abnehmen kann.
Wenn die Dinger wirklich um ca. 300 Watt benötigen sollten, glaube ich sogar an eine totale Bruchlandung der Neuen Nvidia Generation. An die Kühlung eines solchen Monsters will ich gar nicht erst Denken!
Irgendwie habe ich noch das Desaster der damaligen Geforce 5000er Reihe im Hinterkopf, die auch als Revolution angekündigt war. Und dann vor allem wegen des Radaus nicht besonders geschätzt wurde.
So long....
@ Robo32
Die Übertaktbarkeit einer Geforce 8800 GTS 640 hängt sehr stark vom Stepping ab, wenn man eine mit Stepping A3 erwischt hat, kann man bei vernünftiger Kühlung sicher sein, daß diese schon ziemlich Gut zu Übertakten ist.
Meine besitzt das A3 Stepping und Chip- u. Speichertakt wie in meinem Profil aufgeführt, ist keinetwegs das Ende der Fahnenstange, ich lasse aber meine Hardware grundsätzlich nie am Limit laufen.
Bis zu einer 1600er Auflösung ist bisher noch jedes Spiel Flüssig gelaufen, Flüssig nenne ich mindestens ca. 30 fps. Bis auf Crysis auch mit bis 4 x AA. Von daher habe ich bisher noch keinen Grund gesehen, zu einer Neuen Karte zu Greifen.
Auch die Neuen Generationen von Nvidia und ATI stellen für mich noch keinen Grund dar, etwas zu ändern. Meiner Ansicht nach haben die derzeitigen Karten soviel Power, daß die Spiele das zum Großteil gar nicht ausnutzen können, bis auf ganz wenige Ausnahmen.
@ Schaffe89
Also wenn das alles nur teilweise stimmt, was da in dem von dir verlinkten Artikel steht, glaube ich Persönlich, daß sich nicht so viele finden werden, welche sich eine solche Karte kaufen werden. Jedenfalls nicht so viele, damit Nvidia ATI Marktanteile abnehmen kann.
Wenn die Dinger wirklich um ca. 300 Watt benötigen sollten, glaube ich sogar an eine totale Bruchlandung der Neuen Nvidia Generation. An die Kühlung eines solchen Monsters will ich gar nicht erst Denken!
Irgendwie habe ich noch das Desaster der damaligen Geforce 5000er Reihe im Hinterkopf, die auch als Revolution angekündigt war. Und dann vor allem wegen des Radaus nicht besonders geschätzt wurde.
So long....
Robo32
Fleet Admiral
- Registriert
- Sep. 2006
- Beiträge
- 24.118
War leider keine A3 - die kamen auch etwas später...
Lieber nicht - das wäre nicht gut für die Kunden ( auch wenn man AMD kaufen will... )
Ich glaube aber, dass NV eine schnellere Karte anbieten wird und das mit höherem Preis und Verbrauch bezahlt - wirklich entscheidend ist aber der Idle Verbrauch, nur hat dort AMD auch sehr gut vorgelegt.
Luxmanl525 schrieb:Irgendwie habe ich noch das Desaster der damaligen Geforce 5000er Reihe im Hinterkopf, ...
Lieber nicht - das wäre nicht gut für die Kunden ( auch wenn man AMD kaufen will... )
Ich glaube aber, dass NV eine schnellere Karte anbieten wird und das mit höherem Preis und Verbrauch bezahlt - wirklich entscheidend ist aber der Idle Verbrauch, nur hat dort AMD auch sehr gut vorgelegt.