Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Neues von ATis R520 und nVidias G70
- Ersteller Arne
- Erstellt am
- Zur News: Neues von ATis R520 und nVidias G70
Night-Hawk
Lieutenant
- Registriert
- Jan. 2004
- Beiträge
- 779
WaAkY schrieb:Der Vorteil bei Ati ist du kannst später dein mobo verticken neues kaufen, alte x850xt versklaven, neue R5... anhenken, einwenig besser als SLI,
hoffentlich bringt es aber viel Mehrleistung!!!!
ich denke mal es wird ein grundlegendes problem dabei geben wenn du deine x850 mit ein r520 koppelst, denn die r520 beherscht "vermutlich" shadermodell 3 wärend die x850 ja "nur" shader 2.0+ kann was eventuell zu problemen führen kann, da ja halt nicht beide die selben features unterstützen. ansonsten ist der ansatz interresant das man alle grafikleistung also auch onboard einbinden kann.
Carsten
Commodore
- Registriert
- Juli 2001
- Beiträge
- 4.590
Das eine schließt das andere doch nicht aus...Simon schrieb:*kopfschüttel*
Vor gerademal gut einer Woche hat Inquirer das genaue Gegenteil geschrieben:
http://theinquirer.net/?article=22917
Nochmal + 75 Watt bei der PCI-Sig angemeldet.
Ja watt denn nun...
mfg Simon
Nur weil ein Chip möglicherweise sparsam werden könnte, muss das ja nicht für mehrere gelten.
nV muss ja via Quantum3D auch den Profi-Markt bedienen und da dürften so langsam die alten Obsidian-Dinger ersetzt werden.
Mit vier oder mehr GPUs auf einer Karte wird's auch bei einem (relativ) stromsparenden Chip eng.
Ausserdem: Der nV40 wurde ursprünglich von nVidia mal mit "130W+" angegeben, bevor er erhältlich war. Und was hat xBit dagegen gemessen? Irgendwas in den 80ern?
Stell' dir mal vor, was passiert wäre, wenn GDDR3 ein proprietärer Standard von ATi geworden wäre...crux2003 schrieb:Daran ist aber nur NVIDIA schuld - sie haben sich alles geschützt.
Ati war bis jetzt meist netter - haben ja GDDR3 mit entwickelt und Nvidia profietiert davon auch oder jetzt hat ATI Nvidia 3DC gegeben für die neue G70 oder spätere GPU's.
~Halbe Stückzahlen, höhere Preise, weniger Marge für den GPU-Bauer, da die endgültigen Karten ja auch preislich am Mitbewerb orientiert bleiben müssen.
Keine Firma ohne Eigennutz.
Zuletzt bearbeitet:
MountWalker
Fleet Admiral
- Registriert
- Juni 2004
- Beiträge
- 14.354
Gut, jetzt kriegt jeder Sopieler gleich zwei Grafikkarten statt nur einer, also, naja, bauen wir in Deutschland doch einfach zehn neue Großkraftwerke. Solange wir Kyoto unterschrieben haben ist unser Gewissen ja rein. 
Lenny
Commodore
- Registriert
- Apr. 2004
- Beiträge
- 4.184
Ich hoffe ja, dass die Chips nicht soviel Verlustleistung haben und auch nicht all zu teuer werden.
Da der R520 SM3.0 bieten wird, ist er recht interessant, der NV interessiert mich nicht wirklich, da dort nicht allzuviel veränderungen zu erwarten sind. SLi und SM3.0 gibt es ja schon in der aktuellen Generation, mal sehen, wie sie das noch verbessern können.
Hauptsache die GraKas brauchen keine zwei extra Stromanschlüsse wie die 6800 Ultra (AGP)
Bye
Da der R520 SM3.0 bieten wird, ist er recht interessant, der NV interessiert mich nicht wirklich, da dort nicht allzuviel veränderungen zu erwarten sind. SLi und SM3.0 gibt es ja schon in der aktuellen Generation, mal sehen, wie sie das noch verbessern können.
Hauptsache die GraKas brauchen keine zwei extra Stromanschlüsse wie die 6800 Ultra (AGP)
Bye
Hildebrandt17
Lt. Commander
- Registriert
- Feb. 2005
- Beiträge
- 1.849
Ich würde es sehr begrüßen, wenn Nvidia kleinere (boadrdgöße) Karten machen würde.
Die 6800er Serie bekomme ich mit einenm VGA Silencer kaum in meinen Computer!
Die 6800er Serie bekomme ich mit einenm VGA Silencer kaum in meinen Computer!
Altes-kamel
Lt. Junior Grade
- Registriert
- Sep. 2003
- Beiträge
- 408
SLI gekauft ja
aber das was jetz nvidia als sli verkauft ist ne komplett andere technik ihr bimbos..
Die abkuerzung steht sogar fuer was andres...
das SLI von 3dfx damals war einmalig und wird nie wieder vorkommen.
aber das was jetz nvidia als sli verkauft ist ne komplett andere technik ihr bimbos..
Die abkuerzung steht sogar fuer was andres...
das SLI von 3dfx damals war einmalig und wird nie wieder vorkommen.
Richthofen
Lieutenant
- Registriert
- März 2004
- Beiträge
- 547
@10 NV hat SLI nicht entwickelt sondern nur gekauft
In diesem Sinne hat auch ATI den R300 (Radeon 9700pro) nicht entwickelt sondern nur gekauft (ARTX).
Also ganz so einfach ist das dann wohl nicht.
Nvidia's SLI hat mit dem von 3dfx nur wenig gemeinsam. Die Technologie ist eine andere.
Ja ATI ist die super nette Firma die nur gemeinnützig denkt - lol selten so gelachtDaran ist aber nur NVIDIA schuld - sie haben sich alles geschützt.
Ati war bis jetzt meist netter - haben ja GDDR3 mit entwickelt und Nvidia profietiert davon auch oder jetzt hat ATI Nvidia 3DC gegeben für die neue G70 oder spätere GPU's.
Der Notebook MXM Standard von Nvidia ist ATI zb. zur Nutzung freigestellt. Trozdem wollten sie hier unbedingt was eiegenes herausbringen.
SM3 ist von Nvidia ebenfalls zuerst implementiert, wenn auch durch DirectX vorgegeben. Auch dieses kann ATI ja herzlich gern nutzen.
SLI zu patentieren ist ja wohl nur logisch. Wer istn schon so bescheuert und gibt so eine entscheidende Technologie im Kampf um die Leistungskrone frei für jedermann.
3DC freizugeben war logisch. Sollte es im nächsten DirectX enthalten sein, dann musste ATI das so machen. Ansonsten wirds kein DX Standard. T&L konnte ATI ja auch nutzen obwohl es eine Nvidia Technologie ist - zumindest sind sie die ersten gewesen.
Also eine etwas erwachsenere und realistischere Betrachtung wäre fürs nächste mal wünschenswert, ansonsten wirkt es kindisch.
Zuletzt bearbeitet:
Hi,
also ich finde das ich immer wieder hier auf kritik für die 2 slot technik stoße!
Was meint ihr wie lange das gut gehen soll!
Wenn man mehr leistung benötigt wird auch mehr verlust leistung enstehen, also wie soll man diese dann in zukunft abführen.
Die kritik ist doch eigentlich nicht die Grafikkarten werden breiter sondern die hauptplatinen sind falsch konstruiert! Auch sollte man sich von diesen gedanken endlich mal frei reden können!
Ich versuche ja auch nicht zu sagen das ein Ferrari Motor nicht mehr in meinen Trabbi passt und daher eine schlechte entwicklung ist!
danke und cu
Selflex
also ich finde das ich immer wieder hier auf kritik für die 2 slot technik stoße!
Was meint ihr wie lange das gut gehen soll!
Wenn man mehr leistung benötigt wird auch mehr verlust leistung enstehen, also wie soll man diese dann in zukunft abführen.
Die kritik ist doch eigentlich nicht die Grafikkarten werden breiter sondern die hauptplatinen sind falsch konstruiert! Auch sollte man sich von diesen gedanken endlich mal frei reden können!
Ich versuche ja auch nicht zu sagen das ein Ferrari Motor nicht mehr in meinen Trabbi passt und daher eine schlechte entwicklung ist!
danke und cu
Selflex
R
Rheuma-Kai
Gast
Scheinbar Neues vom R520:
http://www.ati-news.de/cgi-bin/News/viewnews.cgi?category=1&id=1117138247
Imo nicht so ganz glaubwürdig.
http://www.ati-news.de/cgi-bin/News/viewnews.cgi?category=1&id=1117138247
Imo nicht so ganz glaubwürdig.
Ähnliche Themen
- Antworten
- 56
- Aufrufe
- 5.676
- Antworten
- 72
- Aufrufe
- 7.890
B
- Antworten
- 55
- Aufrufe
- 5.684
- Antworten
- 50
- Aufrufe
- 5.405
- Antworten
- 64
- Aufrufe
- 6.765
G