News ATis Radeon HD 5850 & HD 5870 gelistet

"Damit kostet die 5850 etwa so viel wie eine GTX 275..."

Also die günstigste 275er kostet 169€, also "etwa" ist da lustig ausgedrückt.
Ein Preisunterschied von 50-60€(wenn man von den 229€ ausgeht) ist schon erwähnenswert!


Ich warte jedenfalls noch ab, genauso mit den SSD...
Bei den Grafikkarten wird sich ja noch einiges tun wenn erstmal Nv sein Produkt abliefert. Daher ist überhastetes Kaufen total unangebracht.
 
Marcel^ schrieb:
Achtung Quadratzahlen! ;)

256^2=65536
338^2=114244
470^2=220900

Der nVidia-Chip ist also oberflächenmäßig fast doppelt so groß.


256mm²*256mm²=65536mm^4.........hmm wusste garnicht, dass es vierdimensionale Chips gibt:p.
Es wird doch schon die Fläche angegeben und nicht die Seitenlängen. Also kann man auch ohne Umrechnungen die Flächen miteinander vergleichen.

€: sry war etwas langsam
 
@XziTe + @Silveran schreiben aber schönen tollen Bullshit, hatte auch selber immer/ständig Nvidia (außer 1x wo ich 1996??? mich mit ATI selber geärgert/beschissen hatte),
nicht wahr @Silveran??? Das ist dann so (nach deiner Aussage, im Vergleich): AMD ist ja besser als Intels CPU Sockel 1156 Core i7-870 , in Leistung + Verbrauch, denne 2011 kommt da das ganz große Ding.
LOL :D :D :D
 
Zuletzt bearbeitet:
Auch wenn die 5870 eine Super Grafikkarte geworden ist (mir pers. zu wenig Speicher hat) würde ich keine Kaufempfehlung aussprechen,
bevor man was von nVidia zu gesicht bekommt oder es endlich die 2 GB Modele gibt. :) vielleicht noch die 5890 abwartet^^

300/350€ klingen aber sehr verlockend wenn man so ungeduldig ist wie ich. :D

mfg
 
PCGH spricht von gerade einmal 20W! Leistungsaufnahme unter Windows für die hd5870. Klick. Auch der Spielebetriebverbauch ist sehr gut. Wiedermal zeigt Furmark, wie viel die Graka verbrauchen kann, dabei bleibt sie aber (ausnahmswise) innerhalb der Spezifikationen und der TPD. Leider lastet Grid die Gpu nicht so gut aus, wie andere Spiele? oder doch besser als Bioshock?
 
Ich würde nichts vor der HD9870 oder GTX785 kaufen. Die werden nämlich DX14 unterstüzen bei dem Microsoft nichtmal weiß was es können wird xD
Zudem werden diese ~70k 3D-Marks haben mit denen man sich nichts kaufen kann weil alles auf Euro umgestellt wurde...
 
Der Preisvergleich mit der GTX 275 erforderte tatsächlich einen sehr großen Daumen :). Keine Ahnung, warum ich das geschrieben hab. Ich hoffe, die überarbeitete Formulierung findet eher Zustimmung.

@Killermuecke
Wenn die 550 mm² für den GT300 stimmen sollten, wären wir also bei einer zusätzlichen Fläche von 17 %. Wenn ATI mit 33% Größenzuwachs etwa 60-70 Prozent Leistungssteigerung schafft, würde das analog etwa 35 % beim GT300 bedeuten.
Deshalb halte ich 50% Steigerung bei Nvidia für das absolute Maximum.
 
unglaublich was hier wieder fürn müll zusammengetragen wird. Dieses ganze dann kann ATI einpacken bla bla...

Niemand wird einpacken. Fakt ist das ATI ein tolles Produkt abgeliefert hat, Probleme der alten Generation beseitigt hat (Stromverbrauch) und weiterhin in einem angenehmen Preisrahmen liegt.
 
Silveran schrieb:
HAllo,..

Abwartn auf NVIDIA mit Ihrer GT300, dann wird wider richtig Spannend, dann kann ATI/AMD wider einpacken, und nach hause gehen, !!

Nvidia wird sicher wider um einiges Schneller und Besser sein, gut Ding braucht halt weile!!

MFG Silveran

In 6 Monaten wenn der GT300 realesed wird intressiert das ding keinen mehr weil schon fast jeder auf 5870 /X2) aufgerüstet hat.Ausserdem wirds bestimmt ein refresh von Ati geben wenn die neue Nvidia Karte kommt.
 
Experte18 schrieb:
In 6 Monaten wenn der GT300 realesed wird intressiert das ding keinen mehr weil schon fast jeder auf 5870 /X2) aufgerüstet hat.Ausserdem wirds bestimmt ein refresh von Ati geben wenn die neue Nvidia Karte kommt.

So ist es!
Da gabs schon wesentlich unsinnigere Upgrades!
Hier hat sich das Warten gelohnt...
 
@Moros
Hast du schon Details zum G300?
Denn deine Informationen implizieren, dass Nvidia einfach nur mehr Einheiten verbaut und sonst nichts verbessert. Kann ja gut sein, dass da das Design erheblich ge#ndert wurde.
Vielleicht ist auch irgendwo ein Flaschenhals, dessen Beseitigung dann ohne großen Aufwand einiges bringt. Oder man hat beim G200 Transistoren für Sachen verplempert die unsinnig waren.



Mit dem Begriff maximal wäre ich etwas vorsichtiger. Kann sein, dass es nur ~35% sind, kann genauso gut bis + 75% gehen.

@Marcel^
:stacheln:
 
Ich bin vor allem heiss auf 3 Monitore mit Eyefinity, man spielt ja öfters mit dem Gedanken ein TribleHead2Go zu kaufen, war mir aber immer zu teuer.
Wenn im Winter NVidia nicht sowas anbietet (hoffentlich kommen se vor Weihnachten! Selbst wenn aktuell November feststeht darf das bezweifelt werden) dann wird meine Entscheidung auf ATI fallen SELBST wenn NV eine stärkere Karte für den gleichen Preis anbieten sollte.
 
Nein, ich habe keine zusätzlichen Infos. Das ist eine reine Spekulation meinerseits.

Die 50 Prozent halte ich persönlich für das Maximum. Warum habe ich ja begründet. Das kann natürlich jeder anders beurteilen.
Wenn wir die 17 Prozent Größenzuwachs annehmen, wären 50 % schon ein Verhältnis von 3. Das würde bedeuten, dass Nvidias Architekturverbesserungen 50 Prozent leistungsfähiger sein müssten als die von ATi. Bei 75% hätten wir einen Faktor von 4,4. Das erscheint mir absolut abwägig.

Du darfst mich aber gern mit einer guten Argumentation von dieser Meinung abbringen :)
 
Zwirbelkatz schrieb:
Habe mich jetzt doch selbst auf die Suche gemacht. Es gibt also eventuell sogar Hoffnung:
http://www.hardwareluxx.de/index.ph...re-radeon-hd-5870-und-hd5850-abgelichtet.html

In dem Thread zu einer News vor ungefähr einer Woche sind die Bilder auch schon einmal aufgetaucht. Da hat sich einer auch die Mühe gemacht, die ungefähre Länge der Karten zu berechnen (in Relation zur genormten Länge des PCIe Steckplatzes). Es scheint also wirklich so zu sein, dass die Karten unterschiedliche Längen haben.

Spannend wird dann zu sehen, wie die Lautstärke- und Wärmeentwicklung auf dieser Karte im Vergleich zur HD 5870 sein wird.
 
bensen schrieb:
Realistisch ist der Bereich um die GTX285. Genau sagen kann das keiner ohne die Karte zu haben. Aber langsamer als ne GTX275 ist unwahrscheinlicher als Schnee im Sommer.

In bestimmten Kreisen is das garnich so unwahrscheinlich :D

Ich werd mir erstmal keine kaufen, bin von Oktober bis Februar im Ausland und wenn ich wieder hier bin will ich ne HD5890 unter 300€ sehn. Das wär nett.
 
all-4-one schrieb:
Es scheint also wirklich so zu sein, dass die Karten unterschiedliche Längen haben.

Ich mag es, dass AMD offenbar mitdenkt, um seine Kunden mit smarten Lösungen zufrieden zu stellen. Klar, das ist der Tatsache geschuldet, dass man jeden Markt abschröpfen möchte, aber man macht es irgendwie auf eine halbwegs faire Art.

Es gibt da extrem sparsame Karten mit akzeptabler Leistung wie die HD4670 und HD4770; die HD5850 scheint offenbar etwas kürzer und einbauverträglicher zu sein, als das Highendschiff 5870.
Dann gibts die 705e und 905e CPUs, die keinen Aufpreis gegenüber den normalen Porzessoren kosten. Diejenigen CPUs mit offenem Multi kosten ebenfalls keinen Aufpreis. Wenn sie das doch nur mal in einem sinnvollen Marketing den Leuten näher bringen könnten, dann würden sie vllt. auch verstehen, warum AMD eben doch manchmal die "smarter Choice" ist.[/Loblied]

Spannend wird dann zu sehen, wie die Lautstärke- und Wärmeentwicklung auf dieser Karte im Vergleich zur HD 5870 sein wird.
Hoffentlich wird sie Powerplay 3.0 ebenfalls erlernen.

Die Launchpreise der Karten von 200 und 300 Euro gehen sehr in Ordnung. Die Versionen mit 2 Gig Ram werden leider vorerst und aufgrund des hochwertigen Rams bestimmt 40-60 Euro mehr kosten. Aber entweder man braucht solche Monster, oder man kauft sich halt ne HD4870 für 95 Euro neu oder eine GTX260 für 110. Da ist doch jedem gedient.

Von daher ist ein Flamen ohnehin sinnlos. Quasi jede Firma und jede Marke ist gewinnorientiert.​
 
Zuletzt bearbeitet:
Zurück
Oben