News Verwirrung um „Radeon HD 6700“-Spezifikationen

Dr. MaRV schrieb:
Da stimme euch auch zu, auch wenn es weiter oben anders klingt. Dann sagt mir doch aber wozu wir, also speziell Deutschland, noch mehr für den Umweltschutz machen sollen? Sollen erst mal die Staaten, welche eine wirklich starke Umweltverschmutzung ausüben etwas nachziehen. Denn den tollen Umweltschutzkurs den die Regierung eingeschlagen hat zahlen wir, die Steuerzahler! Wir sind bereits jetzt Vorreiter und decken unseren Energiebedarf, mal abgesehen von Island, mit einem solch hohen Prozentualen Anteil an Öko Strom wie kaum ein anderes Land. Fakt ist regenerative Energie ist teuer, teurer als Kern-, Kohle- oder Gasenergie und je mehr Strom die Menschen sparen, umso teurer wird er. Nicht weil dessen Produktionskosten so immens steigen, sondern weil Stadtwerke den Großversorgern Abnahmemengen garantieren die sie aufgrund von "zu sparsamen" Konsumenten nicht einhalten können, die Profitgier der Konzerne weiterhin ins unermessliche steigt und der Anteil an teurem Öko Strom bereits jetzt schon relativ hoch ist. Oder was glaubt ihr wer den Bauern den eingespeisten Solarstrom vom Scheunendach subventioniert? Der Stromkunde, nicht der Staat auf dessen Mist das ganze gewachsen ist.

Das wird jetzt aber zu abwegig hier, es ging um Radeons, nicht um Stadtwerke oder Umweltschutz oder Weltwirtschaft.

Das stimmt gar nicht, dass wir einen hohen Ökostromanteil haben. Deutschland ist da schlechter als man glaubt. Wir sind zwar teilweise sparsam. Aber kaum ein anderes Land hat zum Beispiel so viele Autos relativ gesehen. Der Verbrauch jedes Autos, das ständige Nutzen, überhaupt die Herstellung kostet so viel. Außerdem ist leider auch die Industrie ein absoluter Stromfresser in Deutschland. Also international gesehen, sind wir schon Energieschleudern.

Aber die Energiepolitik von unseren "Politikern" ist eh der totale schwachsinn...

Das Argument "andere Staaten sollten sich mal an die Nase fassen" kann ich nicht gelten lassen. Andere Länder haben nämlich auch die nötigen Resourcen. Die USA, China etc. die haben selber Resourcen. Wir müssen sie einkaufen. Daher sollte es ist unserem ureigenen Interesse liegen, wenig zu verbrauchen!!!
Denn wir sind es, die in die Röhre gucken am Ende. Das ist aber glaube ich so manchem Deutschen noch nicht ganz klar ^^
 
Schaffe89 schrieb:
Wenn die Gerüchte von ATI gestreut sind, dann schenke ich eher der kompletten Auflistung der Daten mehr Glauben.
Die alte Folie unterscheidet sich vom Verbrauch her ja auch nicht groß gegenüber der neuen.
ATI streut schon Jahre keine Gerüchte mehr. ;P

Es ist doch jedes Mal das gleiche, wenn Folien die Runde machen, wo der Ursprung nicht klar erkennbar ist. Wie mit Licht und den Motten. *g*

Der vermutliche Max.-Verbrauch der HD6750/70 stört mich pers. etwas. Mal sehen, was bei rumkommt am Ende. :)
 
KainerM schrieb:
HD2xxx, der HD3xxx, der HD4xxx NIE die Performancekrone gehabt, waren aber immer schlechter als nVidia im Verbrauch und meistens beim Lärm auch.
Desaster war nur der R600.
Low-End & Mainstream kamen zu spät.
Wenn man das Desaster nennt, dann sind GF106 & GF108 auch ein Desaster

HD 3000 war schon ganz gut. Nicht umsonst ging es ab RV670 mit Nvidias Umsatz & Gewinn mit der HD 3000er-Serie steil bergab.

HD 4000 war schon besser.
Zwar nicht in Performance-pro-Watt, aber in Performance-pro-mm².

Und das ist genau Nvidias Hauptproblem.
Ab HD 4000er hat AMD eine viel bessere Performance-pro-mm² und kann jederzeit einen Preiskampf anzetteln & gewinnen sowie aufgrund der kleineren Dies auch die Dies mit neuer Fertigung früher einführen (siehe RV870 vs. Fermi)

Zwar ist der Performance-pro-mm²-Abstand von RV870 vs. Fermi wieder etwas kleiner geworden, aber dafür ist jetzt AMD in Sachen Performance-pro-Watt besser.

Das Problem: Fermi ist die neue Architektur für die nächsten Jahre und kann sich nichteinmal von AMDs alter Architektur absetzen bzw. sogar nicht einmal einholen.

Da die High-End-GPUs in Sachen Stromverbrauch limitiert sind, hat halt Performance-Pro-Watt einen wesentlichen Einfluss, wenn es um die Performace-krone (single oder dual) geht.
Sowie entscheidet die GPU-Größe die Yieldrate (=Kosten --> Preis) sowie den Einführungstermin der High-GPU.

Also, wer nur auf die Performance sieht, der wird nicht viel über die GPU-Entwicklung der letzten Jahre sehen.

Am besten sieht man die Entwicklung mit Performance-pro-Watt und Performance-pro-mm².
Entscheidend sind diese Sprünge und nicht ob HD 5870/HD6870 5/10/20% vor oder hinter 480GTX liegen.
 
Zuletzt bearbeitet:
Plastikman schrieb:
Ich glaub du hast meine Aussage nicht richtig gelesen. Es geht darum, dass so viele PURE Leistung wollen, aber den Leuten dann eine richtige Soundkarte von 50€ im Vergleich zum Rest auf einmal zu teuer ist.

So etwas verstehe ich persönlich nicht. Aber genau das ist teilweise der Grund, warum Sound auch in Spielen teilweise nicht so ausgereizt wird, wie man es könnte.
Wer einmal BF 2 mit einer Creative gezockt hat und dann mit einem Onboardsoundchip. Der weiß was Sound ausmachen kann!!!

Aha ok dann habe ich dich falsch verstanden, sry!
Ich dachte du meintest mit deinem vorigen Post mich, denn für mich ist guter Sound ebenso wichtig wie gute Grafik. Aber du hast sicher recht wenn das den meisten leider eher unwichtig ist, deshalb gibt es in dem Sektor auch keinerlei Innovation mehr seit fast 10 Jahren. Es wäre schön wenn mehr Leute darauf Wert legen würden aber das wird nicht passieren, von daher bin ich schon zufrieden wenn wenigstens der aktuelle Standard gehalten werden kann.
 
terraconz schrieb:
Aha ok dann habe ich dich falsch verstanden, sry!
Ich dachte du meintest mit deinem vorigen Post mich, denn für mich ist guter Sound ebenso wichtig wie gute Grafik. Aber du hast sicher recht wenn das den meisten leider eher unwichtig ist, deshalb gibt es in dem Sektor auch keinerlei Innovation mehr seit fast 10 Jahren. Es wäre schön wenn mehr Leute darauf Wert legen würden aber das wird nicht passieren, von daher bin ich schon zufrieden wenn wenigstens der aktuelle Standard gehalten werden kann.

Hoffen wir, dass er es wird. Dabei fällt einem direkter guter Umgebungssound viel besser auf, als ein Polygon mehr an einem Auto. Egal. Ist wirklich mühselig die Leute von gutem Sound zu überzeugen. Herrlich finde ich dann nur, wenn sie sich geile Kopfhörer holen. ^^
Der dann auch nur Vergeudung ist.
 
Das interessante ist, in Fusion Llano & Fusion-Ontario könnte auch die HD 6000er-Architektur drinnen sein.

Schließlich hätte HD 6000 ja mit 32nm-Bulk schon Mitte 2010 erscheinen sollen. Also, ein halbes Jahr vor 32nm-Llano.
Ontario hätte ja im 2Q 2011 (eher ende 2Q) erscheinen sollen.

Nachdem AMD in der 5000er-Serie die AF-Blume perfekt machte, bin ich sehr gespannt ob AMD in der 6000er-Serie das AF-Flimmer deutlich reduziert.
Denn das wäre IMO sehr wichtig, wenn AMD einen Großteil der High-End-Gamer gewinnen will, die viel Wert auf Grafik legen bzw. wenn sie ihren Marktanteil weiter deutlich erhöhen wollen.
 
aylano schrieb:
Desaster war nur der R600.
Und das ist genau Nvidias Hauptproblem.
Ab HD 4000er hat AMD eine viel bessere Performance-pro-mm² und kann jederzeit einen Preiskampf anzetteln & gewinnen sowie aufgrund der kleineren Dies auch die Dies mit neuer Fertigung früher einführen (siehe RV870 vs. Fermi)

Zwar ist der Performance-pro-mm²-Abstand von RV870 vs. Fermi wieder etwas kleiner geworden, aber dafür ist jetzt AMD in Sachen Performance-pro-Watt besser.

Das Problem: Fermi ist die neue Architektur für die nächsten Jahre und kann sich nichteinmal von AMDs alter Architektur absetzen bzw. sogar nicht einmal einholen..

Wieso, der Fermi ist WESENTLICH schneller als der RV870. Und wenn man z.B.: den GF104 anschaut, der liefert mit weniger Transistoren mehr Leistung als der RV870 in der HD5830. Entsprechend getaktet sogar mehr Leistung als in der HD5850.

Wei gesagt, AMD war bis zur HD5000 Serie immer (Seit der X1900XT) hinten nach. Diesen Vorsprung jetzt zu halten wird schwer werden, vor allem weil nVidia auch dazu gelernt hat. Die HD6000 Serie setzt auf eine neue Struktur, das hat nVidia mit dem Fermi auch getan. Ob es was bringt wird man erst sehen müssen. Ich habe die Befürchtung dass AMD in die selbe Richtung geht wie NV mit dem GF100. Und ich habs bereits mehrmals betont: Über die neue Generation kann noch niemand etwas mit Sicherheit sagen.


@DvP: Langsamer als die 8800GT, aber in fast gleich teuer. Bei noch dazu schlechterer Bildqualität. Für mich ist das ein Flop. Stromverbrauch idle etwas niedriger, Last etwas höher.
 
An alle Strom"verbrauchs"FANatiker: Lasst euren Rechner aus wenn ihr das Klima retten wollt oder verkauft ihn...Rechner sind völlig überflüssig und vor allem zum Spielen.
Ihr solltet mal ernsthaft (!) darüber nachdenken ob ihr dieses Hobby braucht zum Leben.

Herrlich!
Sich über ein paar Watt Gedanken zu machen und jedes Jahr in den Urlaub fahren oder fliegen. :rolleyes:
Oder Sounkarten zu haben die unnötig Strom aufnehmen, Gehäuse aus Aluminium die Unmengen an Energie bei der Herstellung brauchen oder 24+ Zoll Monitore...und und und.
Reichen euch die Beispiele oder wollt ihr 100 weitere? :rolleyes:
Spart euch euren Pseudo-Umweltschutz bitte das nächste mal.

@topic

Ich bin nach langer ATI Zeit (mal) wieder zu NV gewechselt und zwar auf GTX470.
Dank WaKü ist die Stromaufnahme ok, die Leistung auch.
Der Hauptgrund des Wechsels war die bessere Bildquali dank richtigem AF.
Und solange ATI nicht die Zwangsoptimierungen weglässt und endlich wieder die Bildquali auf ein normales Niveau hieft, werde ich auch bei NV bleiben.

;)
 
akuji13 schrieb:
An alle Strom"verbrauchs"FANatiker: Lasst euren Rechner aus wenn ihr das Klima retten wollt oder verkauft ihn...Rechner sind völlig überflüssig und vor allem zum Spielen.
Ihr solltet mal ernsthaft (!) darüber nachdenken ob ihr dieses Hobby braucht zum Leben.

Herrlich!
Sich über ein paar Watt Gedanken zu machen und jedes Jahr in den Urlaub fahren oder fliegen. :rolleyes:
Oder Sounkarten zu haben die unnötig Strom aufnehmen, Gehäuse aus Aluminium die Unmengen an Energie bei der Herstellung brauchen oder 24+ Zoll Monitore...und und und.
Reichen euch die Beispiele oder wollt ihr 100 weitere? :rolleyes:
Spart euch euren Pseudo-Umweltschutz bitte das nächste mal.

@topic

Ich bin nach langer ATI Zeit (mal) wieder zu NV gewechselt und zwar auf GTX470.
Dank WaKü ist die Stromaufnahme ok, die Leistung auch.
Der Hauptgrund des Wechsels war die bessere Bildquali dank richtigem AF.
Und solange ATI nicht die Zwangsoptimierungen weglässt und endlich wieder die Bildquali auf ein normales Niveau hieft, werde ich auch bei NV bleiben.

;)

Klar ist in Urlaub fliegen schlimmer für das Klima. Grafikkarten sind nur ein kleines Puzzle im Gesamtbild. Aber wenn ein paar Millionen 10 Watt sparen, sind das auch 10 Millionen Watt. Man sollte es natürlich nicht nur darauf begrenzen.

Warum wird bei dir aber eigentlich die Stromaufnahme besser, wenn du sie mit WaKü betreibst??
 
KainerM schrieb:
Ich habe die Befürchtung dass AMD in die selbe Richtung geht wie NV mit dem GF100. Und ich habs bereits mehrmals betont: Über die neue Generation kann noch niemand etwas mit Sicherheit sagen.

Ich weiss gar nicht wieso die ganzen Leute hier dauernt 30-40% Mehrleistung wollen,
ich kann bei vielen Spielen meine momentane HD5870 nicht richtig ausreizen, was ich aber haben will und das erhoffe ich mir mit der neuen Generation von AMD das die mindestFPS so hoch sind wie bei nvidia,
weil was bringen 100FPS wenn sie bei der kleinesten Aktion unter 25FPS rutschen.
 
Das Nvidia immer die Performancekrone hatte bis zur HD 5000 Serie stimmt einfach nicht, dabei wird immer ganz einfach über die Dualcore varianten hinweg gegangen. Auch wenn manche diese nicht mögen existieren sie trotzdem. Und hier war Nvidia entweder später dran oder konnte gar nicht solch ein Produkt liefern.

Natürlich sind die Dualgpu karten nur was für spinner, aber das sind die highendkarten von Nvidia auch (also das spitzenmodell). Kaufen sich ja auch nur spinner ne karte die 10-20% schneller ist für 50-100% mehr preis.

Darum gehts doch, selbst wenn man die Dualcore teile ignoriert und hier irgendwie Nvidia die Performancekrone zuschreiben würde (so what) wie viel % der Leute (selbst hier auf cb) kaufen sich ne Grafikkarte die >200 Euro kostet und ein 550W Netzteil benötigt?

Also performance/watt und performance/money ist selbst hier für 90% wichtiger und auf alle User bezogen wohl für 98% wichtiger.

Das mit Bildqualität ist relativ könntet auch mal 100,- mehr in den Monitor investieren und dann bessere Farben etc bekommen statt die 100,- in ne teurere Nvidia-karte zu investieren, die meisten Leute merken keinen unterschied, man sieht ihn meistens nur beim direkten Vergleich, ohne Vergleich fällt es den wenigsten auf.

Genau so ist mir bewusst das mein Opensource-treiber Argument für Linux von AMD karten auch kaum jemanden juckt, im Gegenteil viele kaufen sich wegen Linux noch Nvidia karten aus minimal oportonistischen Gründen. Wobei diese Leute auch nicht den Sinn von Opensource und Linux verstanden haben. Aber das ein anderes Thema.

AMD war mit der hd 3000 serie ungefähr gleich auf (rede nicht von leistungskrone) und ab der hd 4000 serie war man hier vor Nvidia bei der HD 5000 serie hats auch noch der letzte blinde gesehen.

Zu dem Linuxpunkt kleiner Nachtrag:
Wobei auch noch mehr als nur die Freiheit oder Offenheit an sich als idealistischer Wert für freie Treiber spricht: immer nah an den X entwicklungen an den Neuerungen, jede Alphaversion vom Kernel oder einer distribution direkt lauffähig keine nachträglichen Treiberinstallationen, oder warten darauf das der Hersteller mal seine Treiber an neuen Xserver anpasst. UND was grad ganz aktuell ist, wenn einer der Grafikkartenhersteller aufgekauft wird, kann dieser bei ausschließlich binär verfügbaren Treibern einfach aufhören neue Treiber rauszurücken, dann kommt irgendwann ein Xserver-api change dann laufen die Treiber mit ner aktuellen Distribution nicht mehr.
 
Zuletzt bearbeitet:
KainerM schrieb:
Wieso, der Fermi ist WESENTLICH schneller als der RV870.

Aha wesentlich schneller? Die GTX480 ist etwa 10% schneller verbraucht aber 50% mehr strom und hat etwa 33% mehr transistoren. Wirklich effizient ist das nicht.

KainerM schrieb:
Und wenn man z.B.: den GF104 anschaut, der liefert mit weniger Transistoren mehr Leistung als der RV870 in der HD5830. Entsprechend getaktet sogar mehr Leistung als in der HD5850.
Dir ist wohl nicht bekannt, dass bei der 5830 shader abgeschaltet sind, genau wie bei GTX460. Das heißt: Weniger Transistoren sind bei beiden Karten aktiv. Die Anzahl der aktivierten Transistoren bei der 5830 ist weniger als bei der GTX460.

KainerM schrieb:
@DvP: Langsamer als die 8800GT, aber in fast gleich teuer. Bei noch dazu schlechterer Bildqualität. Für mich ist das ein Flop. Stromverbrauch idle etwas niedriger, Last etwas höher.

Die HD3870 war IMMER um die 20-30 Euro günstiger als die 8800GT. Preis/Leistung war also bei beiden Karten etwa gleich. Die Bildqualität war bei der HD3870 auch nicht schlechter. Siehe hier:
https://www.computerbase.de/artikel...eite-28#abschnitt_performancerating_qualitaet

Wieso soll denn die HD3870 ein Flop gewesen sein? Du sollst aufhören so viel Mist zu schreiben.
Ergänzung ()

Kartenlehrling schrieb:
Ich weiss gar nicht wieso die ganzen Leute hier dauernt 30-40% Mehrleistung wollen,
ich kann bei vielen Spielen meine momentane HD5870 nicht richtig ausreizen

Die Leute wollen mehr Leistung/Watt und genau das wird die HD6000er-Serie haben. Wenn dir eine HD6870 zu viel Leistung hat, dann kaufst du dir dann halt meinetwegen eine HD6770.
 
Hier gibts echt eine paar Unklarheiten.

Wenn das Stromproblem, nicht mal das einzige Problem von Nvidia wäre, einfach viel zu laut bzw. zu große Abwärme.

Viele wollen die HD 6xxx mit den Fermi vergleiche, ich find das ist garnicht mehr nötig, einfach weil die HD 5xxxx reihe Fermi zur Zeit noch in Schach hält. Angenommen AMD kommt jetzt mit weniger Leistung als erwartet, würde es trotzdem reichen um die aktuelle Fermireihe zu übertrumphen, die würden sich nur noch bei Preissenkungen lohnen.

Das nvidia hier gleichzieht kann ich wirklich nicht glauben, allein wenn man sich die Entwicklungszeit jeweils anguckt.

Das was in den nächsten Wochen folgen wird, ist das Marketinggeblubber seitens nvidia, von wegen, dass sie bald neue GraKas rausbringen, CUDA, Physx und co ja haben ....
 
KainerM schrieb:
milamber!: Die HD 3870 war langsamer als nVidia, hatte aber dabei eine schlechtere Bildqualität. Erst die HD4870 war etwas schneller als die 8800er Serie, aber eineinhalb Jahre später. Und da gabs schon die 200er Serie. Außerdem brauchte die ATI vor allem im Idle unglaublich viel mehr Strom. 50W extra in dem Betriebspunkt, in dem der Rechner am meisten läuft.
Kurz gesagt: sie haben mit der HD2xxx, der HD3xxx, der HD4xxx NIE die Performancekrone gehabt, waren aber immer schlechter als nVidia im Verbrauch und meistens beim Lärm auch.

Das etwas langsamer ist, heißt niemals nicht, das es schlechter ist.
Das AMD nicht die Performance Krone inne hatte, oder mit den schnellsten Karten konkurrieren konnte, bedeutet in keinster Weise das ihre Produkte ein Disaster waren - auch wenn du das gerne so hinstellen magst.

Die 2900 XT war ein Desaster, ja. ATIs Umstellung auf die Unified Shader Architektur ist ihnen, im Gegensatz zu Nvidia, überhaupt nicht geglückt. Ein Monster an Chip, mit extremen Stromverbrauch und trotzdem nicht sehr schnell.
Mit der 3870 jedoch haben sie ihre Fehler in jeder Hinsicht wieder ausgebügelt;
Umstellung auf 55nm Struktur gegenüber 80 der XT, halbiertes Speicherinterface, etwas höhere Taktraten, und sie haben in 6 Monaten eine deutlich bessere Karte nachgelegt.
Preislich voll Konkurenzfähig, und im Idle besser als alle Nvidia Karten ihrer Zeit.
Die 4800er waren ebenso gute Karten, auch wenn sie nicht ganz auf die G200 aufschließen konnten, und Nvidia mit dem G200 eine Generation bezüglich dem Idle Verbrauch vorraus war. Preislich, und die Leistung betreffend waren auch der RV770 voll Konkurenzfähig.

Das ATI über die Jahre nicht mit dem High End Konkurrieren konnte, kann man nicht als Desaster bezeichnen. Ganz und gar nicht.

terraconz schrieb:
1. Nein als möglich wären.

2. Aber eben nur wenn entsprechende Qualitätssteigernde Features auch angeboten werden. Würde AMD ihr Bullet ...

3. Auch 3D gibt es bei AMD aber wo ist die Brille und wo ist der native Spiele Support? Das 3D was es bei AMD atm gibt ist genau das selbe wie das bekannte Freeware IZ3D tool. Kommt also leider noch nicht wirklich auf ein Niveau wo es angenehm spielbar wäre.

4. In meinen Augen schon wenn das drum herum vergessen wird.

5. Da müsste AMD eben wie es Nvidia macht die Entwickler gscheit supporten in dem sie entweder Geld, R&D oder Manpower zur Verfügung stellen.

6. Sry aber mir ist egal was im Sinne "des Kunden" ist, mich interessiert was es mir bietet!
Und bei Batman AA war es eben Nvidiakarten die Qualifeatures brachten die AMD Karten fehlten.

7. Natürlich ist es für mich von Vorteil. Entweder ich habe Physikberechnung oder nicht, mehr Wahl gibt es atm nicht. ....

8. OMG wie können die nur!
Die wagen es also tatsächlich für ein Produkt, ...

9. Genauso wenig ist 3D = 3D! Mich hat bis jetzt die Nvidia Lösung am meisten überzeugt und ich kann durch meinen Job fast alles austesten. (Servicetechniker bei Media Saturn)

10. Und hier haben wir wieder die Moral Keule! Du willst also lieber schlechte Quali dafür denkst du moralisch gut gehandelt zu haben als die beste Quali, das ist in Ordnung. Genauso ist es eben in Ordnung wenn für die meisten Leute bei einem Hardwarekauf die Moral aber sowas von an aller letzter Stelle steht.

11. Ok das heißt also es ist meine Aufgabe mich über AMDs Initiativen zu informieren als Kunde? Sollte das nicht eher die Aufgabe von AMDs Marketing Abteilung sein (falls die sowas besitzten^^)?!

12. Aber jetzt genug AMD vs Nvidia Bullshit sonst landet eh alles im Aquarium und der thread ist dicht!

1. Du weisst du gar nicht was möglich wäre, und allen voran; was nötig wäre.
Schau dich schlau, über die neue Generation HD6000.
Und ob GPU PhysX wirklich nötig ist, dazu bitte ich dich nochmal meinen Post zu lesen.

Vielmehr ist es für Nvidia nötig, um an einen Kunden zwei Grafikkarten zu verkaufen, oder es in kürzeren Abständen zu tun, weil die Spiele zusätzlich noch mit PhysX die Hardwareanforderungen in die Höhe treiben.

2. Yadda yadda, es ist eben NICHT AMDs Bullet - Bullet ist nicht auf AMDs mist gewachsen. Es ist daher doch auch gar nicht AMDs Aufgabe Entwickler dafür zu bezahlen, Bullet zu nutzen.
Wieso auch; Entwickler, die der Meinung sind von einer GPU Physik Bibliothek zu profitieren, die Nutzen eben jene, oder eine andere die GPU Berechnung unterstützt.
Aber wenn sie mit CPU Physik ebenso auskommen? Sind die mehreren Hundert Spiele mit CPU Havok, CPU PhysX, CPU Bullet und eigenen Physik Bibliotheken etwa nichts wert, nur weil sie keine GPU Unterstützen?
Wer zum Teufel sagt überhaupt, das wir zwingend GPU Physik benötigen, wo doch zu 99% die Grafikkarte der limitierende Faktor ist und dafür gar keine Luft mehr hat, und die CPU nicht ausgelastet ist?

3. Die 3D Unterstützung ist längst implementiert. Und Brillen kannst du von Drittanbietern wie iz3D und CO. kaufen. Du bist nicht auf Shutter Brillen von Nvidia angwiesen, sondern kannst Shutter oder PolFilter Brillen von eben diesen Drittanbietern nutzen.

Und die aller beste Option auf 3D, die kommt weder von Nvidia, noch von ATI oder id3D - die kommt von den Spiele Entwicklern selbst, und bieten Stereoskopisches 3D mit nahezu gar keinem Performanceverlust!

http://www.heise.de/newsticker/meld...-Stereo-ohne-Performance-Verlust-1060948.html

4. Das tun sie aber nicht, auch wenn du das behauptest, und irgenwelche Leute mit Lupen behaupten, und alle Energie darauf verwendet wird Fehler zu finden.

Und Physik ist nicht Bildqualität, 3D ist nicht Bildqualität. Das sind Eye Candys, ebenso wie Eyefinity.
Und wenn du wissen willst ob und was AMD für die Bildqualität tut, lies dir die Features durch, die ich verlinkt habe, oder warte auf den Release der HD6000.
Aber bitte höre doch auch in deinem Kopf Fakten zu schaffen die keine sind.

5. Wofür?
Sind die Entwickler mittlerweile nicht mehr selbst dazu fähig ein Spiel fertig zu stellen? Bedarf es jetzt wirklich das Implementieren von Hardwarespezifischen Features um ein Spiel Interessant wirken zu lassen?
Wie wurden denn bloß die richtigen Blockbuster der letzten Jahre solche Verkaufsschlager, ohne exklusive 3D Vision Funktionen und PhysX Support?

6. Dann entscheide für dich ganz persönlich was du willst, wenn es um dich geht. Aber tu nicht so als würde sich die Welt um dich drehen, und als wären deine Ansichten die Tatsachen des Universums.
Im übrigen war es nicht die Nvidia Hardware AA in Batman geschaffen hat, sondern das Spiel, das AA bei nicht Nvidida Karten deaktiviert hat.
Nur was diese Funktion nicht gemacht zu haben scheint ist der Schreibzugriff auf die Z-Buffer, womit Radeon Karten bei gleicher Optik eine schlechtere Performance in diesem Spiel dargelegt haben - da hat mit Moral überhaupt nichts zu tun, das ist ganz billiger Pfusch.

7. Natürlich hast du die;
wie bei den hunderten Spielen die bisher mit PhysX, Havok, Bullet oder sonstiges auf der CPU berechnet, und dabei toll ausgesehen haben.
Erst wenn GPU PhysX ins Spiel kommt, werden Physik Effekte so übertrieben implementiert, das der GPU Vorteil total aufgefressen wird, von unnötiger Effekthascherei. Einer Menge bling bling, die dem Großteil der Käufer verwehrt bleibt, weil er die falsche, oder viel zu schwache Hardware besitzt, die für alle anderen Spiele ausreichen.
Und was diesen Kunden dann im Endeffekt erhalten ist weniger, und optisch schlechter, als wenn ganz auf diesen Hardwarefresser verzichtet worden wäre.

8. Es wundert mich nicht das du den Zusammenhang nicht nachvollziehen kannst.
Es geht nicht darum ihre Produkte zu unterstützen, sondern darum das du nicht erkennen willst das Nvidia zu ihrem Vorteil einer IHRER Proprietären Lösungen etablieren wollen, um sich selbst auf dem Markt zu Bevorteilen. Und du siehst das als Leistung am Kunden. Das ist verdammt witzig.

9. Ich würde mich nicht wundern, bei den Posts die ich von dir gewohnt bin, wenn du glaubst "ATI Stereo 3D" wäre Anaglpyh, und nur Nvidia bietet Shutter Technik an. :P
Mein Freund, es gibt kein Nvidia 3D.

10. Nö, das hat ganz und gar nichts mit Moral zu tun. Im Gegenteil, das ist ein einfacher, praktikabler Gedanke.
Warum sollte ich mir eine Technik wünschen, welche mich persönlich in allen anderen Entscheidungen beim Hardwarekauf einschränkt, wenn sie mir nicht nur teurer zu stehen kommt, sondern auch keine großen Vorteile bringt?
Hier geht es nicht um Physik oder kein Physik - es bedarf keine GPU für Physik. Es bedarf nur einer 500€ Karte (oder besser gleich zwei), um diese fern aller Vernunft und Not implementierten Effekte im übertriebenen Maße darstellen zu können.

11. Was du machst für deinen persönlichen Seelenfrieden ist mir scheiß egal.
Wenn du aber die Welle machst, hier Unterstellungen und Behauptungen aufführst, und überhaupt nicht weißt wovon du redest, DANN hast du deine Aufgabe - dich vorher zu informieren - nicht erfüllt.


12. Warum hast du das nicht von Anfang an beherzigt, und diese Offtopic Themen aus dem Thread gelassen?
 
Hatte eine HD5970 Wakkü @1000 MHZ und die brauchte ich nicht für Benchmarks sondern zum daddeln.
Wenn jemand sagt eine HD5870 oder eine GTX480 reicht für alles in Full HD mit 8FAch 16 Fach aus um Flüssig zu Spielen belügt sich selbst.
Bei manchen neuen Games brauch man noch nicht mal so hoches AA um die Karten zu killen.
Leistung kann man selbst wenn sich bei den Spielen noch nicht all zu viel getan hat nie genug haben.
Zu PhysiX man kann auch ATI Karten eine NV bei seite stellen und mit ein bissel rumprockeln PhysiX geniessen.
Aber wenn ich sehe wie eine Einzelnde GTX 480 bei Mafia 2 läuft naja.
 
Zuletzt bearbeitet:
Und noch eine Meldung, die in die Kerbe schlägt, Barts käme als 6800 zur Welt;
http://translate.google.fr/translat...hd-6870-och-6850-lanseras-den-18-oktober.html

3332223e-2933-493f-899b-b1fca052b9b5.jpg


Edit:
auch wenn ich es weiterhin bescheuert fände, wenn die 6870 langsamer werden würde als die 5870, an der Hardware selbst würde das ja nichts ändern.
Möglicherweise ist ihnen der Barts für ne 6770 zu schnell geraten, wer weiß ..
 
Zuletzt bearbeitet:
Als vorläufiges Fazit bleibt also nur die Bestätigung der weiteren Ungewissheit...

Ja gut, ich schau dann wieder rein wenn man FAKTEN hat, solche News die nur helfen Gerüchte und Fakes zu verteilen gehn mir mittlerweile derbst am Keks.
 
Weltenspinner schrieb:
Effizienz ist wichtig. Wir sind keine Amerikaner, die Unmengen Benzin
durch den Motor jagen, weil es Ölkriege sei Dank kaum etwas kostet
und die Entwicklung guter Motoren dort weniger einbringt als ein zweiter
Halter für Cola-Becher.


Kleiner, bevor du hier so ein Mist verzapfst, rate ich dir, mal ueber den Tellerrand zu schauen.

Bei den Geschwindigkeiten (60mph max.), die die Leute hier fahren und den grossen und langen Strassen (d.h. sie fahren diese Geschwindigkeit konstat mit Tempomat) ist der Benzinverbrauch auch mit einem 6 Zylinder oder 8 Zylinder geringer, als wenn du mit deinem Uralt Golf 2 irgendwelche Vollgasorgien auf der Autobahn hinlegst.
(Ausgenommen vielleicht die Pick Ups. Mit ihrem cw Wert jenseits von gut und boese. Aber auch hier fahren die meisten doch normale PKW).

Bei unserer daemlichen Art zu fahren nutzen diese ganzen 1.4l TSI bla Motoren nichts. Die brauchen bei 150 kmh sicher mehr, als der olle 6 Zylinder bei 100 kmh. Dann noch das staendige beschleunigen und bremsen...

Und dann waeren da noch die zig Millionen Dieselfahrzeuge. Der Feinstaub ist auch nicht gerade das beste, oder?

Ich wuerde mich mit solchen Kommentaren mal besser zurueckhalten. Von wegen Gruenes Land Deutschland...
 
@milamber!
http://www.3dcenter.org/
Dan würde das hier zu treffen.
Von der Leistung einer HD5870 ausgegangen
Radeon HD 6990 ~570 Euro ?
Radeon HD 6970 ~430 Euro +30%
Radeon HD 6950 ~340 Euro +10%
Radeon HD 6870 ~230 Euro -10%
Radeon HD 6850 ~190 Euro -30%
Bzw so die zuordnung
HD6990 Neue HD5970
HD6970 Neue HD5870
HD6950 Neue HD5850
HD6870 Neue HD5830
HD6850 Neue HD5770
Die grösste unbekannte scheint so wäre immer noch die Namens bezeichnung für die Chips aber meisten verbreitet ist das gerücht gewesen HD6750,HD6770 usw.
jetzt ist das durch einander perfeckt.
Lol egal wie sie heissen druck muss in die Hütte.
 
Zuletzt bearbeitet:
Zurück
Oben