News Verwirrung um „Radeon HD 6700“-Spezifikationen

Na ja die Karten werden schon mehr Leistung haben und wieviel ist noch die frage weil wenn die 6700er reihe mehr leistung hat als die 5800er reihe dann wird die 6750 warscheinlich die 5830 ablösen und die 6770 die 5850 ablösen und die AMD Karten sollen ja vor allem mehr leistung bei Tesselation haben. So die frage ist ob so wie ich das grade beschrieben werde auch so passieren wird als das Mittelklassen karte in den High-End Segment rutschen.
Oder ob es alles gar nichts stimmt mit den Namen und es bleibt alles so wie es ist das ebend nur die Leistung gesteigert wird und die Effizienz und das es ebend eine Hybrid architektur ist...
inmoment sehr verwirrend find ich weil alles kein hand und fuß hat von den gerüchten.
 
Marketing hin oder her, wenn die Karten im Oktober auf dem Markt sein sollen, dann müßten die doch schon schick verpackt in irgendwelchen asiatischen Häfen in Containern liegen.

Selbst wenn es November werden sollte, müßten die Dinger schon verpackt irgendwo liegen, die werden ja schließlich nicht zum Endverbraucher hingebeamt.

Wenn dieses der Fall wäre, dann hätten doch bestimmt schon irgendwelche findigen Reporter ein paar Fotos der Karten incl. Verpackung gemacht und es wären schon die ersten echten Tests aufgetaucht.

Ich finde das alles sehr fraglich.
 
@ Whoozy
@ Fuzi0n

Ich sagte ja auch, dass die KArte unter Last effizenter ist. was sich in einem absolut höherern Stromverbauch äußert.
ES geht mir jedoch vorranging um den Idle Verbrauch. Der ist um 28% gestiegen. Im Idle brauch ich aber keine gesteigerte Leistung.
 
keine Angst NVIDIA hat auch schon einiges vor und wird wahrscheinlich mit der 485er oder 490er GTX punkten mit stromsparenden gpu´s auch noch...abwarten was die zukunft bringt ob ATI oder NVIDIA hauptsache endlich mal gute Karten

OH JA. Hauptsache gute Karten xD Bin ja mal gespannt, was die 485er so mitsich bringt. da müssen sie einiges machen, wenn die gut werden will xD

aber wieso ist der IDLE der 6000er so viel höher als der 5000er? komische sache. naja, abwarten und wie immer Tee trinken^^

aber somit warte ich wohl noch mit dem kauf einer neuen karte^^
 
@mrpellepelle
Na den würde ich sagen warten bis zur 28nm Fertigung an deiner Stelle.
Der Stromverbrauch im Idle liegt daran das 6770 mehr Shader als die letzte 5770 hat.
1D Resultiert anscheinend in 5 Watt mehr im Idle
HD6770 280*4D hat 23W
HD5850 288*5D hat 25W.
HD6750 280*4D hat 20W.
HD5770 160*5D hat 18W.
Also doch recht efizient wenn man bedenkt das eine HD6770 23W IDLE eine HD5850 25W IDLE überflügeln soll in der Leistung.
 
Zuletzt bearbeitet:
Fuzi0n schrieb:
AMD verbessert die Leistung seiner Grafikkarten (also MEHR Leistung/Watt) und das soll falsch sein!? :lol:
Versuch mal etwas logisch zu denken, sonst fliegst du noch von der Hauptschule. :)



Jetzt haben die Karten doch mehr Leistung pro Watt, was soll den daran falsch sein? Wenn man die Daten auf andere Grafikkartenmodelle übertragen würde hätte meinetwegen eine 6670 oder 6570 mehr Leistung als eine 5770, würde aber weniger verbrauchen. Also ist doch alles in Ordnung, besser kann es doch gar nicht kommen! :)

Bäm ein Hauptschul flame jetzt tanzt das Niveau hier wiedermal Samba! :freak:
Ausserdem wäre ich mit meinen 30 Jahren heilfroh wieder in der Schule zu sein, die lernt man erst schätzten wenn man von 9-19Uhr arbeitet.

Also dir geht es rein um Leistung/Watt? Genau das meinte ich mit "Balkenmentalität"!
Dann kannst du genauso eine HD5750 kaufen und alles auf low quality mit 400fps spielen. Was glaubst was da erst für lange Balken hast.:freak:
Leider denken die meisten so wie du und setzten Avg FPS > all. Auf Sachen wie Bildquali, Filtermodi, GPGPU, Profilmanagment, "Modbarkeit" (ich weiß ist kein Wort deshalb die Anführungszeichen), Lautstärke, Gamesupport, 3D und und und.............
Für mich geht IQ > alles (das mag für jemand anderen nicht so sein) und alle Features die die IQ steigern kann ich nur begrüßen und dazu zähle ich unter anderem eben Sachen wie Filter, Physikberechnung (egal mit welcher engine), 3D oder Multimonitorbetrieb in Games.

Bloodie24 schrieb:
Hm, ich will Spielen und dafür brauche ich Leistung zu einem guten Preis.
Warum sollte ich für Features bezahlen, die ich nicht haben will?

Du musst die Features doch nicht nutzten, oder?!
Ich finde das 3D, GPGPU, Filter, usw einer Karte die 30€-50€ mehr kostet als eine ohne Features, es schon wert sind. Aber wie so oft kommt es eben auf die eigenen Ansprüche an, will ich eh nur alte Spiele mit durchschnittlicher IQ zocken und sind mir 3D, Eyefinity und all die anderen Features egal dann ist das ja schön für die betreffende Person, für mich wäre das nichts.

@Whozzy:

Ich glaube du hast gar nicht verstanden was ich ansprechen wollte, oder?!
Es ging mir nicht um Bullet oder Physx oder Havok sondern darum wer mit seinem Geld und Entwicklern/R&D die PC Spiele Entwickler stützt wenn Nvidia nicht mehr da wäre? Versteif dich nicht so auf Bullet > Physx oder Physx > Bullet, es ging mir um die PC Gaming Industrie als ganzes, die braucht in einer Lage wie momentan (und auch in absehbarer Zukunft) einen Supporter wie es atm Nvidia ist. Würde AMD die Rolle übernehmen würde ich mich freuen (vielleicht würden sie dann auch endlich wieder an ihre gute alte Zeit anknüpfen) ebenso wenn Intel diese Rolle übernehmen würde, nur leider deutet atm alles darauf hin das die beiden in dem Bereich leider keinen Finger rühren werden. Die einzigen die vielleicht da noch was bewirken könnten abseits von Nvidia sind Apple, nur haben die nur an Handheld Gaming interesse und nicht an Desktop Gaming.
 
terraconz schrieb:
Meiner Meinung beschreitet AMD genau den falschen Weg mit seinen Karten atm. Es hat ja zur Vorstellung der der HD5k Reihe kurz Hoffnung gegeben durch Eyefinity das AMD endlich auch mal an den Features arbeitet und nicht nur an der Rohleistung. Was interessiert mich Rohleistung wenn das was dabei rauskommt scheiße aussieht/weniger Funktionen bereit stellt?

Weniger Funktionen als was? Als Nvidia?
Jedes Prozent mehr an Leistung, für dein Geld kannst du in Qualitätseinstellungen wie Antialiasing stecken. Oder auch in 3D - ja auch mit ATI Karten, es gibt nicht nur 3D Vision, aber das hab ich ja schon mehrere Dutzend mal geschrieben.

ATI bietet seit Veröffentlichung von Windows 7 und damit DX11, performante, und im Vergleich zu den Vorgänger Generationen sparsame und Effiziente Grafikkarten an. Ist das der falsche weg?

Sicher nicht.

terraconz schrieb:
Im Moment ist AMD nichts weiter als der Aldi der IT, so billig wie möglich und nur mit Balkenlänge überzeugen zu wollen.

Wenn ich deine Posts lese kommt mir viel eher der Vergleich mit Sarrazin in den Sinn, der über Genetik spricht.


terraconz schrieb:
Es geht darum das Nvidia atm mit ihrem Geld (nennt es von mir aus Schmiergeld) die PC Spiele Entwickler massivst unterstützt. Da wird Code von Nvidia Developers geschrieben oder eigens Developer auf Nvidias kosten eingeflogen um Sachen wie AA oder eben Physikberechnungen zu implemetieren. Siehe Batman AA z.b.! Wer springt dann in die Bresche? Denkst du ernsthaft das AMD oder Intel da nen Finger rühren? Und denkst du ernsthaft das die AAA Spiele Entwickler von sich aus mehr für die PC Fassung tun?

Denkst du ernsthaft, das was Nvidia da tut ist einzig und allein in deinem Interesse?
Meinst du wirklich, implementiertes AA in einem Titel, welches mit seiner Blockade für andere Hardware eben diese mit einer 'Fehlfunktion sabotiert' (Stichwort Z-Buffer) ist im Sinne des Kunden?

Glaubst du tatsächlich, die Entwicklung von PhysX ist zu deinem Vorteil? Ein Physik Standard der proprietär ist, und die Hardwareanforderung nicht nur Herstellerspezifisch vorgeben, sondern um ein großes Maß noch erhöhen? Wo gab es denn durch Nvidia in den GPU PhysX Titeln Vorteile für uns als Kunden? Ein kleiner Teil durfte GPU berechnete Physik Effekte bestaunen, Effekte die es weniger übertrieben in mehreren Hundert Spielen seit gedenken schon gegeben hat. Der viel größere Teil der Kundschaft hingegen, bekommt ein in der Performance unbefriedigendes, oder in den Effekten beschnittenes Spiel, weil sie die sehr hohen Hardwareanforderungen nicht erfüllen, oder gar die komplett falsche Hardware besitzen.

Da buttert Nvidia Geld in ein paar Spiele, um die Entwickler dazu zu bringen ein Feature zu Supporten, das uns Kunden dazu bringen soll noch mehr Hardware von Nvidia zu kaufen, wenn wir es nutzen wollen, und Leute wie du sehen das als Dienst am Kunden?!

Das Verstehe wer will, ich tue es nicht.

3D bekommst du seit langem, auch günstiger als 3D Vision. Spiele Physik gibt es ebenso seit jeher, und das auch ohne zusätzlich benötigte Hardware.
Und nur weil Nvidia beides mit großen Tamtam auf den Markt drückt, denken Leute wie du, sie 'bräuchten' es;
Frag dich mal lieber, warum der Großteil der Spiele nicht mit GPU Physik daher kommt, egal ob PhysX, Bullet oder DMM? Weil sie es wahrscheinlich nicht für nötig ansehen, oder warum muß Nvidia für jedes Spiel mit PhysX Support blechen?

Selbst wenn es an den Konsolenports liegt; lieber habe ich CPU berechnte, wengier pompöse Physikeffekte, weil das Spiel auch auf ner PS3 zu spielen ist, als das ein Game Nvidia Exklusiv entwickelt wird.
Würde Beispielsweise DMM oder Bullet verwendet, würde das nämlich alles geneimsam Funktionieren - Physik + GPU und das trotz Konsolen.

terraconz schrieb:
Wie gesagt völlig unabhängig von Physx, würde AMD ihr Bullet ähnlich pushen und ne Art TWIMTBP Programm auflegen wäre ich genauso zufrieden, das Problem ist sie kommen nicht in die pushen oder haben kein Interesse daran. Was auch verständlich ist da sowas die Karten verteuern würde und das ist das letzte was AMD brauchen kann.

Mit dem Gamer Manifesto, und de Gaming Evolved Entwicklerprogramm haben sie das schon längst getan. Ebenso mit der Open Physic und Open Stereo 3D Initiative.
Leider alles Dinge, von denen nicht ein Sterbens Wörtchen auf Computerbase zu lesen war.
Und falls du es nicht mit bekommen hast, ist erst vor ein paar Tage geschrieben worden, das zukünftig die Catalyst Treiber über Steam aktualisiert werden.

Wenn dir das alles nicht reicht, das tut es mir leid für dich, aber doch musst du akzeptieren, das es nicht nur Schwarz und Weiß gibt.
Und nur weil dir das eine Unternehmen nicht Engagiert genug zur Tat schreitet, ist das, was die Konkurrenz tut nicht automatisch das richtige. Denn das ist es mit PhysX Beispielsweise ganz und gar nicht.

Und mal wieder frage ich mich, warum ich überhaupt so ausführlich auf deine Posts eingehe (zumal es Offtopic ist), es ist bei dir ja überhaupt keine Objektivität zu erkennen.
 
Visualist hat da vollkommen recht und wie gesagt ist die 40nm dann schon bis aufs blut ausgereitzt effizient wird wirklich erst wieder bei der 28nm. Technologie!
 
Dr. MaRV schrieb:
Hier wird aber nicht um 100W sondern um 20, 30 oder gar nur 5W gejammert, 5W das macht nach 200 Betriebsstunden 19 Cent aus, so arm ist kein Schwein das man nicht jede Woche 20 Cent in die Spardose werfen könnte. Man kann es auch übertreiben mit dem ganzen Verbrauchsgelaber...
Mit solchen Gedanken kommt eine Menge bei heraus. Also: Wozu gibt es Sparlampen, wieso werden Häuser gedämmt, wieso werden Stromsparende Technologien überhaupt entwickelt? Deiner Meinung nach braucht man das doch alles nicht, weil wir alle so viel Geld haben, richtig? Wer eine Nvidia Karte kaufen möchte kann und soll das meinetwegen auch tun, er wird seine Gründe haben. Aber die Aussage "es ist egal wieviel die Karte verbraucht" ist heuchelei, weil das eben NICHT egal ist.

Und außerdem: Es geht sehr wohl auch um 100W. Welche Karte hat etwa 10% mehr Leistung und verbraucht 100W (also 50%!) mehr Strom? Genau, eine Nvidia GTX480.

Dr. MaRV schrieb:
Wie kommst du auf eine Steigerung der Leistung von 70%?
Weil ich in der Lage bin die Daten zu interpretieren. Auch der Verfasser des Themas hat Schätzungen zur Leistung abgegeben. Aber die News hast du als NV-Fanboy selbstverständlich nicht gelesen (oder vielleicht auch nicht verstanden?), du bist nur zum trollen hier.

Dr. MaRV schrieb:
Nimm es mir nicht übel, aber für mich du ein typischer AMD/ATI Fanboy.
Mir ist Preis/Leistung wichtig und das beste Preis/Leistungsverhältnis hat mMn nun mal AMD, du brauchst mich deshalb nicht als Fanboy zu bezichtigen. Würde Nvidia bessere Grafikkarten als AMD anbieten, so würde ich mir eine Nvidia Karte auch kaufen, so wie ich es früher auch getan habe.
Aber die Nvidia Karten sind im Moment Leistungstechnisch schlechter als die AMD Karten. Da ich nicht nur in der Lage bin logisch denken zu können sondern auch des Rechnens mächtig bin, nehme ich dann natürlich die AMD Karte zum zocken.

Aber mal eine Frage an dich: Würdest du dir eine AMD Grafikkarte kaufen, wenn sie eine geringere Leistungsaufnahme hätte und dazu auch noch schneller wäre? Neeeein? Also wer ist denn hier eigentlich der Fanboy. :)

Dr. MaRV schrieb:
Und ja, wenn ich unbedingt die stärkste und schnellste Karte haben möchte sch**ße ich auf 100W Mehrverbrauch, da kann das Ding auch 200W mehr verbrauchen.
Kannst du meinetwegen auch tun. Wenn du unbedingt Nvidia im Recher haben willst, dann tue dir keinen Zwang an und kaufe dir eine Nvidia Karte. Das sieht wohl so aus bei dir: "200W mehr Verbrauch und genau so viel Leistung?! EGAL, ICH WILL EINFACH NUR NVIDIA!" lol :lol:

Dr. MaRV schrieb:
Die 20 Cent mehr am Tag zum Zocken gönne ich mir dann.
Gut, jährlich 73€ also. Ist zwar viel, aber du kannst mit deinem Geld machen, was du willst.

Dr. MaRV schrieb:
Wer seinen Rechner 24/7 laufen lässt um zu downloaden oder sonst was und sich dann über zu hohen Verbrauch aufregt/ärgert, macht so oder so generell etwas Falsch, dafür reicht auch ein kleines System auf Atom Basis was unter Vollast nicht mehr als 25-30W verbraucht.

Ich downloade eigentlich nicht, ich möchte nur, dass mein PC besonders effizeint ist. :)
Letztendlich läuft es immer auf den Stromverbrauch hinaus. Ich möchte, dass mein Zocker-PC möglichst wenig Strom verbraucht und mein Laptop soll es auch tun. Übrigens: Mein Laptop verbraucht gerade mal 10W.
 
Zuletzt bearbeitet:
@Sephiroth51
Jop ich will eigentlich nur noch mehr Power sehen bei den 6***.
Vor allem denke ich das es am Ende im Gesamtverbrauch stimmt wenn man dan die 400Serie von NV gegen hält.
Und dort dann auch deutlich für jeden ersichtlich wird ,um wieviel efizienter das Design von AMD wirklich ist.
Ich hätte sogar nichts dagegen wenn ATI mal mit einem 550mm² Chip zeigen würde wo der Hammer hängt.
Also in der grösse einer GTX480 vom Die.
MFG
 
Zuletzt bearbeitet:
Hier noch was zu den Features der 6000er:
http://www.xtremesystems.org/forums/showpost.php?p=4567603&postcount=691
http://bbs.expreview.com/viewthread.php?tid=37063&from=recommend_f

AMD Radeon™ HD 6800 Series GPU Detailed Feature Summary
AMD Radeon™ HD 6870 GPU Feature Summary:
 GDDR5 memory interface
 PCI Express® 2.1 x16 bus interface
 ―Eye-Definition‖ graphics
o Second generation graphics with full DirectX® 11 support
 Shader Model 5.0
 DirectCompute 11
 Programmable hardware tessellation unit
 Accelerated multi-threading
 HDR texture compression
 Order-independent transparency
o Image quality enhancement technology
 AMD Eyefinity multi-display technology1
 AMD EyeSpeed visual acceleration3
o AMD Accelerated Parallel Processing (APP) technology
 OpenCLSupport
 DirectCompute 11
 Accelerated video encoding, transcoding, and upscaling2
o UVD 3 dedicated video playback accelerator
o Enhanced Video Quality features
 Advanced post-processing and scaling
 Dynamic contrast enhancement and color correction
 Brighter whites processing (Blue Stretch)
 Independent video gamma control
 Dynamic video range control
 AMD HD3D technology
o Stereoscopic 3D display/glasses support
o Blu-ray 3D support
o Stereoscopic 3D gaming
o 3rd party Stereoscopic 3D middleware software support
 AMD CrossFireX™ multi-GPU technology5
o Dual GPU scaling3
 Cutting-edge integrated display support
o Integrated dual-link DVI output with HDCP
o Integrated DisplayPort 1.2 output
o Integrated HDMI 1.4a with support for stereoscopic 3D
o Integrated VGA output
 Integrated HD audio controller
o Output protected high bit rate 7.1 channel surround sound over HDMI with no additional cables required
o Supports AC-3, AAC, Dolby TrueHD and DTS Master Audio formats
 AMD PowerPlay™ power management technology
o Dynamic power management with low power idle state
o Ultra-low power state support for multi-GPU configurations
 AMD Catalyst™ graphics and HD video configuration software
o Certified drivers for Windows 7, Windows Vista, and Windows XP
o AMD Catalyst™ Control Center - AMD Catalyst™ software application and user interface for setup, configuration, and accessing features of ATI Radeon products.
o Unified Graphics display driver - AMD Catalyst™ software enabling other PC programs and devices to use advanced graphics, video, and features of AMD Radeon™ products.
Quote:AMD Radeon™ HD 6850 GPU Feature Summary
 GDDR5 memory interface
 PCI Express 2.1 x16 bus interface
 ―Eye-Definition‖ graphics
o Second generation graphics with full DirectX® 11 support
 Shader Model 5.0
 DirectCompute 11
 Programmable hardware tessellation unit
 Accelerated multi-threading
 HDR texture compression
 Order-independent transparency
o Image quality enhancement technology
 AMD Eyefinity multi-display technology
 AMD EyeSpeed visual acceleration
o AMD Accelerated Parallel Processing (APP) technology
 OpenCLSupport
 DirectCompute 11
 Accelerated video encoding, transcoding, and upscaling
o UVD 3 dedicated video playback accelerator
o Enhanced Video Quality features
 Advanced post-processing and scaling
 Dynamic contrast enhancement and color correction
 Brighter whites processing (Blue Stretch)
 Independent video gamma control
 Dynamic video range control
 AMD HD3D technology
o Stereoscopic 3D display/glasses support
o Blu-ray 3D support
o Stereoscopic 3D gaming
o 3rd party Stereoscopic 3D middleware software support
 AMD CrossFireX™ multi-GPU technology3
o Dual GPU scaling
 Cutting-edge integrated display support
o Integrated dual-link DVI output with HDCP
o Integrated DisplayPort 1.2 output
6800 planned Oct. 19 release, the original 6870 production early August was going quite well (we visit it its own calculation of Distribution), the end product, 6900 Series is scheduled for release in November. First burst so much, next time be adjourned to the......
 
Zuletzt bearbeitet:
So wie ich das verstanden habe, werden also die Karten mit der Bezeichnung 6850 bzw 6870 in den Handel kommen?!? Macht bei einem entsprechenden Leistungssprung vllt. auch mehr Sinn.
 
@ milamber!

Ui, da werden sich einige freuen:

" AMD HD3D technology
o Stereoscopic 3D display/glasses support
o Blu-ray 3D support
o Stereoscopic 3D gaming
o 3rd party Stereoscopic 3D middleware software support"

Der spezielle Stromsparmodus für Multi-GPU klingt auch sehr interessant. Vielleicht kann nun eine Karte komplett deaktiviert werden....wer weiß.

@ s4smo
Auch das ist ein Gerücht. Hier kann man aber bisher absolut nur mutmaßen. Sinn machen würde es, aber wie werden dann die 57XX Karten besetzt? Egal...die Diskussion ist noch immer ausgeartet, also lasse ich die weiteren Gedanken erstmal weg *gg*
 
Zuletzt bearbeitet:
Da kommt die Meldung gerade richtig rein.
War drauf und dran mir den Spiele-PC laut Forumempfehlung für 475€ zu bauen, da wäre unter anderem die AMD HD 5770 verbaut, um letzteren Nachfolger es hier ja geht.
Dieser Kauf hätte mich im Nachhinein sehr geärgert.

Hoffentlich wird die AMD HD 6770 für die dargebotene Leistung eine nicht wesentlich höhere Leistungsaufnahme als ihr Vorgägner vorweisen, um damit dann sehr effizient, schnell und leise zu bleiben, sprich dem Segment für mittlere Leistungsfähigkeit treu zu bleiben.
 
@milamber!
Na das liest sich doch brilliant.
 
dann heißt es also wieder vorbestellen. Letzten Endes werden die Karten dann erst wieder Februar/März 2011 verfügbar sein.
 
mrpellepelle schrieb:
@ Whoozy
@ Fuzi0n

Ich sagte ja auch, dass die KArte unter Last effizenter ist. was sich in einem absolut höherern Stromverbauch äußert.
ES geht mir jedoch vorranging um den Idle Verbrauch. Der ist um 28% gestiegen. Im Idle brauch ich aber keine gesteigerte Leistung.

domidragon schrieb:
aber wieso ist der IDLE der 6000er so viel höher als der 5000er? komische sache. naja, abwarten und wie immer Tee trinken^^

aber somit warte ich wohl noch mit dem kauf einer neuen karte^^

Ihr habt das wohl was falsch interpretiert. Eine 6770 wird schneller als eine 5850 sein, der Idle-Verbrauch ist bei der 6770 jedoch weniger. AMD hat den Idle-Verbrauch also tatsächlich verbessert.

terraconz schrieb:
Bäm ein Hauptschul flame jetzt tanzt das Niveau hier wiedermal Samba! :freak:
Etwas frech, aber ich fands halt lustig. Bitte nicht so ernst nehmen. :)

terraconz schrieb:
Ausserdem wäre ich mit meinen 30 Jahren heilfroh wieder in der Schule zu sein, die lernt man erst schätzten wenn man von 9-19Uhr arbeitet.
Lasse dich vom Arbeitgeber nicht hier beim flamen erwischen. :)

terraconz schrieb:
Also dir geht es rein um Leistung/Watt?
Ja na klar will ich mehr Leistung/Watt, ist doch logisch. Und die Grafikkarte soll selbstverständlich auch die Features haben, die ich benötige (z.B. Eyefinity).

terraconz schrieb:
Genau das meinte ich mit "Balkenmentalität"!
Der Balken sollte doch möglichst lang sein, oder? Will doch nicht, dass das Spiel ruckelt. :)

terraconz schrieb:
Dann kannst du genauso eine HD5750 kaufen und alles auf low quality mit 400fps spielen. Was glaubst was da erst für lange Balken hast.:freak:
Wieso sollte ich alles auf low stellen um mit 400fps ein Spiel zu zocken? Das ist Unsinn.

terraconz schrieb:
Leider denken die meisten so wie du und setzten Avg FPS > all. Auf Sachen wie Bildquali, Filtermodi, GPGPU, Profilmanagment, "Modbarkeit" (ich weiß ist kein Wort deshalb die Anführungszeichen), Lautstärke, Gamesupport, 3D und und und.............
Klar ist doch alles wichtig. Aber du meinst Nvidia kann das alles und AMD nicht? Ööööhm. :rolleyes:

Gut, manche benötigen Cuda für ein bestimmtes Programm. Wenn er unbedingt CUDA braucht, dann muss er zu Nvidia greifen.
 
domidragon schrieb:
Gut, manche benötigen Cuda für ein bestimmtes Programm. Wenn er unbedingt CUDA braucht, dann muss er zu Nvidia greifen.

:heul: Ja, leider. Auch wenn ich meine absolut primäre Anwendung für Cuda nicht oft brauche so könnte ich es nicht aushalten ohne, da der Zeitaufwand beim Rendern (Videoeffekt) so brutal steigen würde, dass es nicht auszuhalten ist.
Wann, wann nur wird endlich die Entwicklung von OpenCL und DirectCompute Anwendungen vorran getrieben. Kann doch nur im Sinn der Programmierer sein, dass die Programme auf so vielen Systemen wie möglich in optimaler Geschwindigkeit arbeiten. Also, warten und hoffen :(

@Swissjustme
Verstehe weder das Eine noch das Andere was du gerade geschrieben hast!? :confused_alt:
 
Da sieht man mal, wie Glücklich nVidias Kunden mit CUDA sind. XD
 
Jetzt wird es OT, aber gut. In meinem Rechner steckt eine nVidia weil ich damals irgendeine Grafikkarte gebraucht habe, da war die GTX260 mit 155€ eben die erstbeste die mir über den Weg gelaufen ist. Mir ist das egal wie viel eine Grafikkarte Verbraucht, wer sich an ein paar Watt mehr stört soll sich eine andere Kaufen, ist jedem selbst überlassen. Mich nervt es nur das manche Leute anscheinend der Meinung sind mit ein paar W/h weniger Stromverbrauch könnte man das Weltklima retten. Nur zur Info, die zur Zeit lauteste, mit eine der heißesten und Stromgierigste Karte ist eine AMD/ATI. Als nicht Fanboy habe ich die News komplett gelesen, weil auch ich darüber nachdenke in absehbarer Zeit meine Grafikkarte zu tauschen. Ich lese Aufmerksam was sich bei ATI tut, da ich mit den von mir benutzen ATI Karten damals Probleme hatte die ich von nVidia und 3dfx nicht kannte. Trotzdem ziehe ich wieder eine ATI in Betracht. Und ja, wäre die ATI schneller als eine nVidia und würde weniger Strom verbrauchen (was sie aktuell auch tun) würde auch sie kaufen, aber features wie PhysX oder CUDA finde ich gut, die Spiele wirken schöner und ein Video recodieren nimmt weniger Zeit in Anspruch. Zudem bilde ich mir kein Urteil darüber wie gut oder schlecht eine GTX480 ist, oder wie warm sie im Gehäuse wird. Ich glaube das können die wenigsten hier, daher geht mir das pauschale nVidia gebashe genau so auf die Nerven. Es kommen immer die gleichen Argumente, zu laut, zu warm, zuviel Strom. Wer von denen die hier so großkotzig über nVidia herziehen hat denn schon eine GTX480 oder überhaupt eine nVidia in seinem Rechner gehabt um sie so schlecht machen zu können. Das was ständig als Argumentationsgrundlage kommt ist immer das gleiche, was zuvor irgendein anderer mal geschrieben hat. Ich überzeuge mich gern selbst von etwas bevor ich es schlecht mache.
 
Zuletzt bearbeitet:
Zurück
Oben