News RV870 erst im November verfügbar

Ja damit solte es auch gut sein, bin da halt anderer Meinung, ist imho nicht wichtig.^^

Hey, du hast selbst gemault, dass die Überschrift der News fehlleitend ist und nicht "Gerücht: RV870 verspätet sich" heißt. Also, bitte mal konsequent bleiben, okay? War ja nur ein nett gemeinter Hinweis, da ich ansonsten dir schon zustimme.

Man sollte aber auch zwischen ner News und Posts ind der Wichtigkeit unterscheiden.
Eine kurze knappe Nachricht verwirrt mehr als wenn man einen Post liest, wo es ersichtlich ist, dass es größtenteils um Gerüchte geht.
 
Zuletzt bearbeitet:
bin auf die preise gespannt und die leistungsverbesserung zwischen einer 4850 und ner 5850
 
Ich würde mal behaupten, die Leistung ner 5850 läge auf dem Niveau einer HD4890.
Wenn die im Internet kursierenden Specs stimmen sollen, sollte ne HD5850 in etwa 50% schneller als die HD4850 werkeln.
Lese ich an den Specvermutungen der HD5870 ab.
 
Schaffe89 schrieb:
Das Problem ist, dass du immernur von deinen gewünschten Settings ausgehst.
Das Problem ist, das ich es nicht verstehen kann, das man unbedingt 8 statt 4 Farbsamples braucht, aber gleichzeit auf HQAF für fast umsonst verzichtet und gleichzeitig auf Alphatextur oder Shaderglättung vollkommen verzichtet und dieses Setting dann "HQ" nennt.

Es ist echt schade, das du es immer noch hinterfragst, was an dem Setting Unfug, aus Sicht eines Geforce-Users ist.
Das du mir nicht glaubst ist eine Sache, es ist ja modern einen Sündenbock zu haben, aber das du all den anderen auch nicht glaubst ist schade.

Ist halt nunmal so das ATI nen cleveren Weg geht und an der AF Qualität soweit spart wie es geht ohne das es stört.
Die Optimierung stört, unsichtbare AF Optimierungen sind ein Wunschtraum.

Man hätte 8xAF auch einfach 8xAF sein lassen können, aber nein man packt die Optimierungen dazu und nennt es 16xAF.
Die Tester fahren drauf ab und testen dies, ja das ist unglaublich klever, loben wir diese Vorgehensweise noch.
Zumal die HD4870x2 nichts dafür kann, dass sie mehr Speicher besitzt und Nvidia so dumm war und nur 896mb verbaut.
Ja und, was willst du mir damit sagen?

Die 8xAA Schwäche der Nvidias kommt ja auch noch dazu, um nicht immer am AF herumzuhacken.
Richtig es ist eine Schwäche. Mit ein paar Unterschieden. Sie wurde nicht versteckt, sie wird fleissig getestet und von vielen, siehe ein paar Posts zurück als das HQ Setting dargestellt.
 
Leute, das ist hier offtopic, ungeachtet der Tatsache, dass hier mal wieder ein altbekanntes Faß aufgemacht wird. Man kann sich hier den Mund fusselig reden, wie an anderen Stellen, aber Argumente und Einwände scheinen wie an einer Wand abzuprallen, denn die Einwürfe werden nur unreflektiert wiederholt.

Das, was "sinnvoll" ist, zeigt sich auch dort: http://extreme.pcgameshardware.de/quickpolls/61086-mit-welchen-aa-af-einstellungen-spielst-du-normalerweise.html

Die Deiner Ansicht nach "sinnvollen" Einstellungen werden nur von nicht einmal 10% genutzt, der Rest bevorzugt die übrigen Einstellungen. Und das in einem Forum, in dem sich per definitionem eher die ambitionierteren Spieler aufhalten.

Ansonsten: zurück zum Thema!
 
Zuletzt bearbeitet:
Daumen hoch für diese doch sehr unterhaltsame Disskussion;). Passt zwar nicht zu dem mögl. Verschieben des Launchtermins, also der Meldung, aber wen störts schon?

€: Da hatte rumpel01 den gleichen Gedanken etwas früher^^
 
Dann les' Dich mal durch die Kommentare, das "mehr als (8xAA/16xAF)" sowie "andere Einstellung" bezieht sich direkt darauf, das lässt sich gut ablesen. Immerhin 16% nutzen den "unsinnigen" 8xMSAA-Modus. ;)

So, jetzt aber wieder zurück zum Thema!
 
Bei den Lieferschwierigkeiten der HD4770 habe ich den leichten Verdacht, das dies den ATI-Partnern sehr gelegen kommt um die Restbestände an 4830/50 noch an den Mann zubringen. Wer weiß wie groß die Lagerbestände noch sind und immerhin macht ATI kein Umgelabel.
 
Zuletzt bearbeitet:
Ich behaupte die 5850 wird bedeutensd schneller als ne 4890, denn die 5870 muss gegen die 360gtx antreten. Wird kennen den G300 ship ja schon ganz gut und auch kastriert dürfte der abgehen wie schmitz kastze, 50% mehrleistung bei der 5850 im vergleich zur 4890 halte ich für realsitisch. sonst wird es ati verdammt schwer haben.

Denn die Daten die duchs internet geistern sind zu 98% falsch, ich kjann es nur immer wieder wiederholen. der Codename für den chip ist cypress und für die serie evergreen. der codename rv870 oder so hat NIE existiert. glaubt ihr nicht das die leute die die daten kenn auch den namen für den chip kennen?
 
Also erstmal on topic: Eine "Verschiebung" auf November ist ja per se erstmal keine schlechte Nachricht. Wenn die "Verschiebung" zum 1. November dauert, ist es ja grad mal ne Woche später als der 22. Oktober, dem W7 Release. Während einige da schon wieder von Paperlaunch faseln, würd ichs einfach als ganz normale Produktvorstellung bezeichnen. Grad nach dem Trubel, dens z.B. bei der 4850 gab (schon Wochen vorher zu kaufen) kann das auch gar nicht schaden und ich unterstütze diese Politik auch. Von Paperlaunch würde ich höchstens sprechen, wenn sich entsprechende Produkte mehr als einen Monat nach Produktvorstellung verzögern, was dann Ende November der Fall wär. Also abwarten und Tee trinken.

Auf zum Kommentare kommentieren, einiges kann man echt nicht lesen, Augenkrebs und so.

Kasmopaya schrieb:
Das gleiche Spiel wie bei der HD 4770, ein Paperlaunch weil TSMC es immer noch nicht gebacken bekommt.

Nochmal für dich, weil du dich auch so schön wiederholst: Die 4770 ist und war nie ein Paperlaunch. Produkte waren von Anfang an und durchgängig verfügbar.

Mister79 schrieb:
Denke aus Fehlern lernt man und wenn die Leute sich eine gekauft haben und NV bringt den oberknüller dann werden die es bereuhen und beim nächstenmal fragen oder warten und sich besser informieren.

Selbst das Wissen, dass kurz (2 Wochen oder so) nach dem Launch der GTX280 die neuen Atis kommen würden, hat manche nicht davon abgehalten, sich so ein völlig überteuertes Teil (500€+) an Land zu ziehen. Ebensowenig das Wissen (Gerüchteweise), das ein Refresh (die 285) nicht lange auf sich warten lassen wird. Ich zitier mich spaßeshalber mal selber:

KAOZNAKE schrieb:
Mein persönliches Fazit: Auf keinen Fall kaufen, die Preise der GTX280 werden in den kommenden Wochen nach unten explodieren. An der GTX260 sieht man ja, wie günstig die Graka eigentlich sein könnte. Auf jeden Fall wird mit dem Launch der 4870 ein ernstzunehmender Konkurrent erscheinen, der für einigen Preisverfall bei NVIDIA sorgen wird.

Genauso läuft das hier auch, denn die 10-15%, die der 4890 auf die 285 fehlen, wird AMD vermutlich doch toppen können, zusammen mit DX11 und vermutlich einigermaßen ordentlichen Preisen wird das viele überzeugen.

Unyu schrieb:
Für den Markt wäre es gut wenn die Preise mal wieder steigen.

Sachen gibts :D Als ob nicht alles schon teuer genug geworden ist :rolleyes: Mir doch egal, was gut für den Markt ist, es kommt drauf an was ich davon hab.
Also von mir aus können die Grafikkarten noch billiger werden, wenn das Topmodell dann mal unter 100€ kostet, würde ich evtl. mal über Verbrauch und Lautstärke hinwegsehen und das Teil trotzdem kaufen.
Dann kann das Ding auch ruhig mal abrauchen, bei 100€ tut das nicht so weh....

Unyu schrieb:
Ob RV870 dabei ein AFR Produkt zweier RV830 wird, ist da auch nebensache, den die bisherigen GT300 Daten müssen falsch sein, zumindest bis man wieder über die Die Size schimpft, dann ist wiederum wieder alles im Lot.

Das der RV870 ein Dual-Chip auf einem Package aus zwei RV830 wird, glaubst du ja wohl selbst nicht ;)

Das hieße ja nach den Vermutungen, die in deinem Link standen, das der R800 ("5870 X2") quasi ein "Quadcore" Chip wird (2xRV870=4xRV830). Also vier Mainstream Grafikchips auf einem Package :lol:
Das glaub ich erst, wenn ichs sehe. (vielleicht ;))

M.(to_the)K. schrieb:
Naja, NVs BIg Bang 2 treiber soll MIT DX11!!! unterstützung zwischen August und November kommen. Wobei wohl eher November und net August. ATIs Karten sind für Oktober angesetzt, also wird wohl NV mit max. einen Monat verzögerung releasen.

Was ein Treiber kann oder nicht, hat ja mit verfügbarer Hardware nix zu tun. Ab dann ist halt W7 (offiziell) verfügbar, Treiber gibts ja jetzt schon mit DX11 Unterstützung.

Denahar schrieb:
Die Gerüchte um die Größe der Dice könnten stimmen, aber wie kommst du auf die TDP? Und selbst wenn, mehr als die Konkurrenz ist es auch nicht.

Großer Chip = viel Stromverbrauch (bei Vollast natürlich, idle interessiert bei der TDP Diskussion ja nicht)

Denahar schrieb:
Edit: Dunnigton besteht auch aus über 2 Mrd. Transistoren und hat "nur" eine TDP von 130W. Soviel zum Thema "Logik". ;)

Bei diesem besteht ja auch 90% (oder so) der CPU aus Cache, der 1. wenig Strom verbraucht und 2. nie komplett beansprucht wird. Im Gegensatz zu den Shadereinheiten auf ner Grafikkarte. Äpfel und Birnen und so.

Denahar schrieb:
Das war gar nicht gemeint. Dis Diskussion Unya vs. Turbostaat ist eine Sache für sich. Mir ging es um Aussagen wie "der Verbrauch wird schon nicht niedrig sein" als reine Vermutung hinzustellen und ohne Quellen Larrabee zu verreißen aber im gleichen Thread, quasi im gleichen Atemzug widersprüchlich von "Diskussionskultur" zu sprechen. Das klingt sehr hypokritisch.

Niemand verreißt hier Larabee, im Gegenteil, ich denke jeder (auch INTEL-"nichtgutfinder" wie ich) ist sehr gespannt darauf, was INTEL hier so abliefert. Interessant finde ich vielmehr, wie du abgehst, wenn einer was über ein INTEL-Produkt vermutet, was dir nicht in den Kram passt. Überleg dir das bitte das nächste mal, wenn du wieder grundlos AMD basht ;)
 
Zuletzt bearbeitet:
Binn mal gespannt darauf, aber ich kann auch noch biss November warten ist ja nicht allzuviel später.
 
Flamewars auf CB ! Und das wegen einer UNBESTÄTIGTEN MELDUNG ( Dazu noch eine Priese Offtopic ) :rolleyes:

Ich seh es schon kommen wenn Intel sich mit Larrabee wirklich gut positionieren kann, dann haben wir ein 3 Fronten Flamewar in Zukunft denn die Intelfanboys werden sich dann in Zukunft zu den Grafikkarten Zicken Nvidiaboys und Atiboys dazugesellen .
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Großer Chip = viel Stromverbrauch (bei Vollast natürlich, idle interessiert bei der TDP Diskussion ja nicht)
Wie kommst du auf solch eine grundlose Pauschalisierung? Quellen oder Berichte verfügbar? Ein großer Chip kann auch durch entsprechende Stromsparmechanismen sehr effizient arbeiten. Zudem geht es doch weniger um absolute Stromaufnahme sondern endgültige Effizienz. Von mir aus kann ein 64-Core-Larrabee-Chip auch 2 KW aufnehmen, wenn entsprechen 200 SLI-GTX280 zersägt werden. Wartet doch einfach mal ab bevor hier sinnlos zu mutmaßen.

KAOZNAKE schrieb:
Bei diesem besteht ja auch 90% (oder so) der CPU aus Cache, der 1. wenig Strom verbraucht und 2. nie komplett beansprucht wird. Im Gegensatz zu den Shadereinheiten auf ner Grafikkarte. Äpfel und Birnen und so.
Eben, so wie 2 Mrd. Transistoren völlig sinnfrei als Vergleich sind. Daher mein "Konter" mit Dunnigton. ;)

KAOZNAKE schrieb:
Niemand verreißt hier Larabee, im Gegenteil, ich denke jeder (auch INTEL-"nichtgutfinder" wie ich) ist sehr gespannt darauf, was INTEL hier so abliefert. Interessant finde ich vielmehr, wie du abgehst, wenn einer was über ein INTEL-Produkt vermutet, was dir nicht in den Kram passt.
Das eine hat mit dem anderen überhaupt nichts zu tun. Ehrlich gesagt interessiert mich Larrabee herzlich wenig. Mir fiel lediglich der Widerspruch auf, dass Turbostaat einerseits fröhlich Vermutungen in den Raum wirft ohne Quellen (300 W TDP???) und dann später andere anmüfft, dass diese nur spekulieren. Irgendwie aberwitzig, diese hypokritische Einstellung.

Im Übrigen weiß ich relativ wenig über Larrabee, so dass ich gar nicht "abgehen" kann, wenn mir nicht etwas "in den Kragen passt". Ich wäre froh über neue Information, wobei, wie gesagt, es weniger interessant für mich ist. ;) Aber ich lass das jetzt mal...
 
Ich persönlich seh das ganze recht entspannt, Nvidia und ATI können sich den Allerwertesten abrackern und es wird ihnen nichts nützen, wenn die Spieleindustrie nicht irgendwann mal wieder in die Gänge kommt. Das gleiche gilt im übrigen (wenn auch nicht ganz so krass) für den CPU (Quad) Markt, da 95% der Kunden für die ein Quad interessant ist Gamer sein dürften.

Was die Leistung angeht kann man nur spekulieren, ich persönlich glaube das ATI ganz gut daran tut ihre Karten so schnell wie möglich auf den Markt zu bringen, da ich denke das der GT300 mehr können wird als der RV870. ATI wird aber denke ich vorallem Preislich punkten können und letzten Endes werden die Games entscheiden, es kann nämlich nur zu gut sein das kein Spiel einen GT300 wirklich brauchen wird in der Anfangszeit von DX11.

Mfg
 
Also das eine gpu zu SCHNELL ist, das gabs noch nie;)

Ich würde wiegesagt den ATI-Chip nicht unterschätzen, da es noch keine offiziellen daten gibt. Die daten des G(T) 300 stehen ja jetzt fest.

Der RV770 war auch eine MEGA überraschung. Womöglich haben sie noch größere änderungen am chip alsw Nvidia vorgenommen und somit noch mehr leistung rausgeholt.

Auf die gazen zahlrn die bis jetzt durchs i-net geistern geb ich keinen pfifferling.
 
M.(to_the)K. schrieb:
Die daten des G(T) 300 stehen ja jetzt fest.

Seit wann denn das? Gibt es da eine zuverlässige Quelle? Oder beziehst Du Dich auf die Spekulationen, die auf diversen Seiten kursieren?
 
Dann steig ich auch mal in die Disskussion ein.
1. Ein großer Chip (mehr Recheneinheiten) sollte bei gleicher Leistung nicht mehr verbrauchen als ein kleiner Chip mit weniger Recheneinheiten und höherem Takt.

Beispielrechnung:

Für eine bestimmte Leistung benötigt ein Chip mit 100 Shadern bspw. 800Mhz und 1,3V, dagegen benötigt ein Chip mit 200 Shadern nur 400Mhz und sagen wir mal 1V. Da die Verlustleitung mit der Spannung zum Quadrat wächst, ergibt sich sogar eine Ersparnis beim großen Chip: Durch die doppelte Anzahl an Recheneinheiten ist di2 Verlustleistung 2 mal so hoch, durch die halb so hohe Taktfrequenz wird der Verbrauch dagegen wieder halbiert. Also ist der Verbrauch theoretisch genauso hoch wie beim Kleinen. Kommen wir zur Spannung: Durch die Reduzierung der Spannung von 1,3V auf 1V wird der Verbrauch um ca 40% gedrückt [(1V/1,3V)²=~0,6]

Das alles ist aber nur THEORIE!. Natürlich brauchen größere Chips für den gleichen Takt mehr Spannung und die Leistung steigt auch nicht linear mit den Recheneinheiten, dennoch soll die Rechnung zeigen, dass größere Chips nicht unbedingt mehr verbrauchen (bei gleicher Leistung!) müssen als ihre kleineren Ableger.

2.Ich bin auch davon überzeugt, dass der Larrabee verdammt viel für eine reine Grafikkarte verbrauchen wird, da jeder Rechenkern leistungsfähiger und komplexer sein wird als die Shader, die wir kennen. Das liegt auch daran, dass x86 benutzt wird, was nicht gerade zu den effektivsten Architekturen gehört. Ebenso werden hier Äpfel mit Birnen verglichen, da Intel ein anderes Zeil verfolgt und nicht hauptsächlich für Gamer dieses "Monster" entwickelt hat, sondern um wissenschaftliche Berechnungen damit anzustellen. Auf diesem Gebiet MÜSSTE m.M.n. der Larrabbee allen anderen Karten davonziehen, da bei etwas komplexeren Berechnungen diese EXTREM einbrechen und kaum noch schneller als ein einfacher Quad sind.


So und nun lasst das Bashing beginnen:rolleyes: oder auch nicht;)
 
Offtopic:

Unyu schrieb:
Füllraten mäßig ist GT200 auch um längen vorraus. ;)
Schon vergessen, das eine 2,5 Jahre alte 8800 GTX 20% mehr Texturfüllrate als eine brandneue 4890 vorzuweisen hat?

Wie kommst du darauf?

Nach meinen bescheidenen Kenntnissen hat die 8800GTX@stock 36,8 GT/s Texturleistung.
64 TMUs a 575Mhz.
Die 4890@stock hat 34 GT/s Texturleistung. 40 TMUs a 850Mhz.
Gut sind grob gerechnet fast 10%, aber keine 20%.

Erwähnen muss man noch,auch wenn es eig. unbedeutend ist, dass die 8800GTX "nur" 32 TAUs (Adressierung)hat. Wenn also nur einfach bilinear (Was kaum ein GTX-Besitzer machen sollte, da 2xAF bei der GTX eben keine mehrleistung kostet) gefiltert wird, sinkt die Texturleistung auf die Hälfte, da nur 32 Pixel pro Takt adressiert werden. Dies ist bei der ATI-Architektur des RV770 nicht der Fall. Hier ist das Verhältnis TMU zu TAU 1:1.

Gruß
Raubwanze
 
Zuletzt bearbeitet:
Es wäre natürlich ein Rückschritt wenn sich ATI verspätet. Interessant wie hier einige ihr Lager bzw. die neuen Serien schon in den Himmel loben. Ich hoffe ja auch auf eine "5670" die etwa so schnell ist wie die 4850 ohne dabei einen zusätzlichen Stromstecker zu gebrauchen.

PS: Gab es eigentlich schon eine Bestätigung wegen der Namen. Also wird die "5000er" Serie auch von ATI so genannt ? Sie könnten ja einen anderen Weg gehen. :lol:
 
Zuletzt bearbeitet:
Zurück
Oben