News Kommt der R700 einen Monat nach dem RV770?

Ich hoffes auch, dass ATIs R700 ein Knaller wird... dann würd ich sie mir sofort kaufen da ich nämlich ein komplett neues System zusammenstellen möchte.... ATI bzw AMD weiss selber, dass sie aufholen müssen also kann es gut sein ein paar überrrrrrraaaaschungen zu sehen... natürlich geht es bei den beiden Firmen nicht nur um die stärkste Karte der Welt sondern um den Umsatz, welcher realistisch angesehen vor allem bei den ''schwächeren'' und günstigeren Karten erzielt werden kann...

Ich wünsche beiden Erfolg, denn schliesslich möchten wir ja auch profitieren :-D..
 
Naja,wenn der R700 wirklcih auf einen Speicher zugreifen würde,wäre zumindest schon mal das Problem mit dem Microrucklern halbwegs gelöst, da man dieses dann einfacher limitieren könnte. zudem wäre dann eine Skalierung von 100% möglich, da die Daten nicht doppelt gespeichert werden müssten. Wenn dazu noch ein überarbeitete CF Technik kommt, in der man evt selber profile erzeugen kann, wie es bei Nvidia der Fall ist, oder eine alternative Technik gewährleistet wird,dass bei allen Spielen beide Chips skalieren, wäre es ein Traum.

Auch muss man erwähnen,dass ATI jetzt den Schritt, den Nvidia mit dem G80 gegangen ist,und der diesem seine Leistung brachte, eine eigene Shaderdomain zu begründen. Hier im Forum wurde der Test gemacht, wenn man bei einem G80 die Shader vom Takt gleich setzt mit der Chiptakt, ist die Karte 30-50% langsamer, somit auf dem Niveau eines RV670, teils sogar langsamer. Wenn man jetzt annimmt, dass der RV770 auch eine eigene Shaderdomain hat,die höher getaktet ist, eine wesentlich höhere Speicherbandbreite und hoffentlich eine höhere Texturfüllrate, dann sind alle nachteile von ATI besetitigt und die Karten würden endlich ihrem realistischem Rechenwert entsprechen,der jetzt schon teils höher als die Nvidia karten sind.

In meinen augen war das einzige,was den R600 so so stark gebremst hat,die niedrige Texturfüllrate und die Shaderdomain, bzw andersrum gesehn, war dies der einzige Vorteil von Nvida, bei Shaderlastigen SPielen ein großer muss man bedenken.


gruß
 
Am Anfang hieß es, dass der R700 die erste Multicore-GPU der Welt werden solle und nun haben es die Kanadier doch nur zu einer billigen Multi-GPU-Version geschafft, falls es dabei bleiben sollte, dass die Hersteller verstärkt auf alte Architekturen setzen und diese mittels Multi-GPU-Varianten konkurrenzfähig zu halten versuchen, so dann: Ich freue mich schon auf die erste Multicore-GPU, wie ich es so auf den R700 getan habe.

PS:
Jaja, GPUs sind ja so schon auf multithreading ausgerichtet und nicht mit CPUs vergleichbar, aber dennoch!
 
Nix dennoch, du würdest durch dieses Verfahren bei den GPUs keinen Leistungsgewinn erzielen. Überleg mal warum. ;)
 
@ Unyu: Du hast das Welt-Energieproblem gelöst ;)

Hast Du schon mal etwas vom Energieerhaltungssatz gehört? Ich kann Deinen Angaben nur schwer folgen. Wenn eine Grafikkarte beispielsweise eine reale Leistungsaufnahme von 160W Energie durch elektrischen Strom hat, dann kann sie niemals 240W Energie als Wärme abgeben.

Richtig wäre zum Beispiel eine reale Leistungsaufnahme von 250W und bei einer TDP von 240W.

Oder gehst Du davon aus, dass die Karten generell eine niedrigere Leistungsaufnahme haben, als angegeben wird?

Wie Florian richtig erkannt hat, dient die TDP (Verlustleistung) nur der Dimensionierung einer Kühllösung.
 
Zuletzt bearbeitet:
Zitat: "Gerüchte über ein verbessertes Speichermanagement (sodass die Daten nicht mehr doppelt im VRAM vorhanden sein müssen) drehen durchaus munter ihre Runden"

Habe ich schon bei den letzten News diesbezüglich vermutet. Was was war daran "unsachlich" ist mir ein rätsel. Ich glaub es gibt hier Leute im Forum die einfach nur Spass daran haben alles quer als unsachlich zu bewerten, ohne es gelesen zu haben.

Das nennt man evolution und früher oder später wird sich dieses shared memory Konzept durchsetzenm so wie 64 bit und Dual/Quadcores. Genauergenommen wäre JETZT der richtige Zeitpunkt für solche Ideen, denn dia Kombination aus 512 Interface und GDDR5 bringt astronomische Bandbreite mit sich und das ist die Voraussetzung für High-End X2 Karten mit Shared Memory. Wer weiss, wenn sie jetzt den Zeitpunkt verpassen, wird es vielleicht in Zukunft nicht mehr einfach oder unmöglich sein solche Konzepte zu realisieren, wenn z.B. die Kombination aus 512 bit und GDDR6 nicht mehr die ausreichende Bandbreite für Next-Gen GPUs bringen.
 
Zuletzt bearbeitet:
Ich bin auch mal gespannt was beide Hersteller auf den Markt bringen und hoffe, dass Ati sowohl mit der R700 als auch mit der RV700 Serie Erfolg haben wird, ich denke mal ein wichtiger Schritt ist schonmal, dass man jetzt bei den Ati Karten auch den Shadertakt explizit takten kann, mal sehen wie sich das mit den GDDR5 Speicher zusammen macht.
 
Allgemein kann man ja sagen dass ATI zur X1900 Generation einen kleinen Schritt voraus war, der G80 hat das Blatt dann mehr als gewendet. Mit dem rv670 konnte ATI nicht mehr herausholen als sie geschafft haben da es eben doch noch auf dem r600 basiert, nun sehe ich aber keinen Grund warum man nicht wieder aufschließen können sollte - man hatte ja mehr als genug Zeit genauestens zu studieren was den G80 schneller macht als das r600/670 design und sollte das mit dem r700 in jedem fall in den griff bekommen.
Die Große Frage wird dann um wie viel sich nvidia mit dem G200 steigern kann...

Bleibt jedenfalls garantiert spannend bis zum schluss :)
 
mir als endkunde ist die speicherverwaltung egal. es zählt was hinten rauskommt. atis ringbus könnte hier aber von vorteil sein.
 
na dann hoff ich jetzt erst mal das ati gute treiber produziert bei denen auch noch die 3850er karten unterstützt werden, und ein bisschen perfermance zulegen

wie gut die nvidia karte ist bin ich auch neugierig, ob man endlich crysis mit einer gt200 karte bei dx10 very high spielen....
 
Bitte diesen unnützen Kommentar versenken
was sinnloseres gibts nicht
 
Du hast mich nicht ganz verstanden. ;)
TDP != Verbrauch

Ein R600 kommt mit 215W TDP ohne IHS daher und verbraucht 160W, das ist Fakt!
Jetzt kommt GT200 mit 240W TDP hat den IHS Nachteil, verbracuht also maximal diese 160W!

R700 kommt mit 250W TDP daher, hat keinen IHS, tja kannst du dir überlegen, werden wohl 180W sein.

TDP hat nur mit Kühllösung zu tun, nicht mit dem Verbrauch. Ist das so schwer zu verstehen?
Eine 8800Ultra hat auch eine höhere TDP als die 8800GTX, verbraucht trotzdem etwas mehr.
 
Theoretisch hast du ja recht.
Trotzdem bleibt das alles Spekulation

Denn die TDP wird nicht immer mit dem gleichen "Sicherheits" Faktor zum realen Verbrauch angegeben.

Siehe Intel. Da blieben die TDP angaben beim Penry gleich wie beim Conroe obwohl er viel weniger verbraucht.
 
ich muß laut lachen...

ati soll es schwerer haben? wasn quatsch.... nvidia kommt doch mit nix mehr aus den pötten, da sind neue karten nur noch umbennungen und verarsche.... ich denke, die hatten mit der 8800GTX ihre offenbarung und kommen da net mehr weiter, weil das konzept AM ENDE ist

ati macht es richtig und wenn das mit dem gemeinsamen speicher des r700 klappt sind die MEILENWEIT vor nvidia.

nvidia ist mit ihrer produktpolitik doch nur noch lol
 
Also ich verstehe die Aussage nicht, dass AMD/ATI so einen grossen Rueckstand gegenueber Nvidia haette, vor allem im Performance-Bereich trifft dies doch nicht oder nur im geringen Masse zu. Wenn ich solche Aussagen lese, frage ich mich immer was der Autor uns damit sagen will. Ich druecke AMD/ATI die beide Daumen, dass sie mit dem RV770 wirtschaftlichen Erfolg haben werden. Letztlich profiieren doch wir Verbraucher davon. Im Grunde ist eh Alles reine Spekulation und Kaffeesatzlesen, was man hier und anderswo ueber die beiden neuen Chips lesen kann. Also abwarten und Tee trinken. scnr
 
Zurück
Oben