News Präsentiert AMD die Radeon-HD-7000-Serie bereits in Kürze?

@Geodomus:
Das ist auch dein gutes Recht. Nur gibt es Leute, die keine 60fps brauchen (grad bei langsameren Spielen wie Skyrim z.B.), die weniger anspruchsvolle Spiele in allem Glanz spielen wollen oder die die nötige Power haben, um auch in aktuellen Titeln beides genießen zu können. AMD mischt im Enthusiastbereich mit, da wäre es eben fein, wenn man da in diesem Punkt noch mehr Fortschritte machen würde.

Edit:
Ich weiß, für manche ist diese Diskussion nervig, aber wenn man mehr Leute für das Thema sensibilisiert, passiert vielleicht mal was. Die Vorstellung ist möglicherweise naiv, aber es kostet nix, das Thema hin und wieder aus der Versenkung zu holen.
 
Zuletzt bearbeitet:
bezüglich BQ sollte man einfach schauen, dass das Bild gleich aussieht und dann benchen, meine Meinung... Dabei ist mir dann egal ob ich bei AMD 3 Qualistufen hochschrauben muss oder es der DAU im Normalbetrieb nicht sieht. Gleiche Bedingungen eben.

Das gilt auch für AA, 4x != 4x...

Ich hoffe ja dass die Karten der neuen Architektur, die neuen Topmodelle zügig kommen.
 
Zuletzt bearbeitet:
Wie willst du das ohne standardisiertes Vergleichsverfahren machen? Das geht nicht. Man sollte aber zusätzliche Tests fahren, die nicht in die Wertung einfließen und solche Dinge ausdrücklich im Text erwähnen, am besten mit Videovergleichen. Screenshots reichen nicht.
 
boxleitnerb schrieb:
Wie willst du das ohne standardisiertes Vergleichsverfahren machen? Das geht nicht. Man sollte aber zusätzliche Tests fahren, die nicht in die Wertung einfließen und solche Dinge ausdrücklich im Text erwähnen, am besten mit Videovergleichen. Screenshots reichen nicht.

oder so... solange der Unterschied deutlich gemacht wird (natürlich mit Videos) ist mir das recht auf Standardeinstellungen zu testen. Problem hierbei ist ja dass sich tw. in Vergangenheit diese Standardeinstellungen im Treiber geändert haben... eine Karte so mit neuen Treibern in der Performance gepushed wurde.
 
Wenn jemandem die Bildqualität nicht passt sollte er/sie vllt. erst mal gucken, ob da nicht ne rotzige TN-Gurke als schnittstelle zwischen mensch - maschine auf dem schreibtisch sein unwesen treibt! klar, wenn man mit der lupe sucht, findet man sicherlich unterschiede aber das ist in erster linie jammern auf höchstem niveau... wäre ja blöd wenn man mal nix hat, worüber man sich ausweinen kann ;) Hatte diverse NV und auch AMD/ATI-Karten im PCI-E Steckplatz prangern und bei keiner etwas bezüglich der bildqualität zu bemängeln. also AMD, hopp hopp, her mit den euen kärtchen und zeig was du mit der neuen serie geschaffen hast :)
 
Zuletzt bearbeitet:
Es gab nur einmal eine echte Steigerung der Bildqualität und zwar von der Firma 3dfx. :D

Ich hoffe nur, dass dadurch die letzte Generation der AMD ewtas günstiger wird, die Einführungspreise neuer Graks sind meist extrem hoch.

Viel getan hat sich die letzten Jahre eh nicht, früher wurde man mit Sonderheften überschüttet, die jedes neues Graka-feature bis ins kleinste Detail beleuchteten.

Naja ich bin seit 1995 dabei, und echte Grafikrevolutionen sind einfach nicht mehr zu erwarten.

Ich freue mich schon auf den Test von CB, obwohl echt mal ein paar neue/weitere Test-Games angesagt wären. ;) Viel neues wird nicht dabei rauskommen, etwas mehr Leistung, bei hoffentlich geringejm Stromverbrauch. Lautstärke dürft ihr behalten!

Noch an die Fanboys (egal welche): Man kann wirklich von vielem Fan sein, aber von Grafikkartenherstellern? Das ist meiner Meinung nach einfach nur Arm. Wenn man von einer Marke überzeugt ist, schön und gut, abe rman kanns echt übertreiben!
 
hatte in den letzten 2 jahren amd > nvidia > amd und hab echt keinen bildunterschied gesehen. mag ja sein, dass es leute gibt, die wirklich da was wahrnehmen, aber man sollte sich von einigen beiträgen hier wirklich nicht abschrecken lassen. für den normalo besteht kein spürbarer unterschied, das ist meine meinung.

ich weiss noch als ich die nvidia karte gekauft habe, da habe ich selbst auf eine bessere quali gehofft, weil man das hier ja teilweise so megamäßig liest, aber ich habe gesucht und gesucht, aber in mehreren games und testläufen ist mir nix aufgefallen. na ja, jedem seine eigene esoterik^^ und mir die schlechten augen oder was auch immer ;)

ich freu mich auf die amd generation 7000. vor allem erwarte ich eine effiziente karte, die endlich power hat UND auch mal leise ist und nicht wieder so brüllmonster wie die 69xx. viel mehr geschwindigkeit braucht man ja eh net bei den ganzen konsolenports...
 
SavageSkull schrieb:
Ich frage mich warum ich so einem Post überhaupt antworte, hast dich ja praktisch schon selbst disqualifiziert, aber egal

Schonmal de Vergleich einer Nvidia auf einem vernünftigen Bildschirm gesehen?
Das sind Welten. Fehlender Kontrast und Farbtiefe und das schon im 2D Bild.

Hast du einen link wo man vergleich screenshots zwischen Nvidia und ATI sehen kann? Nein? Hab ich mir doch gedacht, wird immer nur das selbe wiederholt aber keinerlei beweise geliefert. So ists richtig.

HD5850 AF-Tester mich würde der gleiche Screenshot mal mit einer Nvidia interessieren wie das bild da aussieht.
 
Zuletzt bearbeitet:
Also ich hatte bisher immer abwechselnd AMD und nV. Vor meiner GTX4601GB hatte ich eine HD4890, davor 8800GTS 512. Beim Umstieg auf die nVKarte ist mir wieder aufgefallen: Sattere Farbdarstellung, weniger Texturflimmern. Allerdings beides in so geringem Maße, dass P/L und Lautstärke für mich immernoch mehr Bedeutung beim Kauf bekommen.

Bin gespannt wie die 7000er sich schlagen werden :) Wer weis, vllt. steht ja eine kleine Revolution an.
 
Ich hatte wirklich immer nur ATI bzw. AMD karten. Die letzte war die 5850 die jetzt im Computer von meinem Vater ist, dann hab ich zur GTX580 gewechslet und bereue den wechsel nicht. Erstens ist sie wirklich leiser, klingt komisch ich weiss, (vater und ich haben das selbe Gehäuse, Delfine mit Dämmung) und auch die Qualität ist spürbar besser. Nicht nur wegen den Frams einfach die Bildqualität ist besser. Schönere Ränder, kein Flimmern beim AF, schönerer Aufbau etc etc. wenn sich da nichts tut, werde ich auch nicht mehr zu AMD wechseln.
 
Wer im Profibereich eine Matrox gesehen hat, wird sicher nicht sagen wollen das NVIDIA sehr gut in Sachen Bildqualität ist ;-)

Da wäre so als würde Opel Fahrer vom VW Fahrer gedisst und der Porschefahrer lächelt nur darüber ;-)

Ansonsten abwarten und Tee trinken, PCIe 3.0, 28nm Shrink (mehr Takt/weniger Stromverbrauch) vielleicht DX 11.1 usw klingt sehr viel versprechend.

mfg.
 
boxleitnerb schrieb:
Ich reite auf dieser Geschichte deshalb so rum, weil wir heutzutage soviel Leistung haben und es da immer wieder Fortschritte gibt, aber auf der anderen Seite bekommen wir nur so einen Scheiß wie FXAA/MLAA.
Kauf dir doch erst mal einen gescheiten 30" Monitor mit hochwertigem Panel für 1500-2000€ und knall bei 2560x1600 die gängigen Bildverbesserungen rein. Ich schätze, da wird nicht wirklich viel Rohleistung auf der Strecke bleiben. ;)

Towatai schrieb:
Wenn jemandem die Bildqualität nicht passt sollte er/sie vllt. erst mal gucken, ob da nicht ne rotzige TN-Gurke als schnittstelle zwischen mensch - maschine auf dem schreibtisch sein unwesen treibt!
Seh ich ähnlich. Es wirkt nicht glaubhaft, wenn über die Texturqualität von AMD geschimpft und gleichzeitig von manchem, wenngleich nicht von jedem, ein 1000 Euro SLI-Setup auf nem 150€ TN-Panel mit kalten Fehlfarben betrieben wird. Komisch, dass vom Monitor nie jemand redet.

Schönere Ränder, kein Flimmern beim AF, schönerer Aufbau etc etc. wenn sich da nichts tut, werde ich auch nicht mehr zu AMD wechseln.
Nur so nebenbei: Ich sage nicht, dass du falsch liegst. Aber du vergleichst Mainstream mit Highend.

===

Die Karten an sich kann ich kaum erwarten. Wenn AMD seine Sache so gut macht, wie seinerzeit bei der HD4770, ist alles in Butter. Mal sehen, wann tatsächlich geliefert werden kann, oder ob Apple zu viele 28nm Chips aufgekauft hat ...
 
Es gab nur einmal eine echte Steigerung der Bildqualität und zwar von der Firma 3dfx.

WORD HOMIE!

jeder der diese zeit, diesen quantensprung der PC-Grafik NICHT erlebt hat, kann sich eigentlich gleich aus der thematik ausklinken ;)
 
Schonmal de Vergleich einer Nvidia auf einem vernünftigen Bildschirm gesehen?
Das sind Welten. Fehlender Kontrast und Farbtiefe und das schon im 2D Bild.
Ich rede noch gar nicht, von dem miserablen AF Filter, der auch mal am Rande von CB erwähnt wurde. Das Bild hat sich seit meiner ersten ATI (9800Pro) bis heute nicht geändert.

Wenn der "Kontrast" und die "Farbtiefe" nicht stimmen würde ich mir mal Gedanken über einen ordentlichen Monitor machen ^^

Na so miserablen AF Filter hat AMD auch wieder nicht.. Dafür hat AMD aber das bessere AA ;)

Das Bild hat sich seit meiner ersten ATI (9800Pro) bis heute nicht geändert

Das ist ja mal eine Aussage :D Vielleicht mal ein Spiel aus dem Jahre 2011 zocken und nicht eins vom 1995 !?
 
Zwirbelkatz schrieb:
Kauf dir doch erst mal einen gescheiten 30" Monitor mit hochwertigem Panel für 1500-2000€ und knall bei 2560x1600 die gängigen Bildverbesserungen rein. Ich schätze, da wird nicht wirklich viel Rohleistung auf der Strecke bleiben. ;)

Das werde ich bestimmt nicht tun. Die Leistung reicht mir schon jetzt kaum, da will ich Kanten- und Shaderflimmern nicht noch auf einer größeren Fläche sehen. Die Pixeldichte ist bei 30 Zöllern auch nicht besser als bei kleineren Monitoren. Sicherlich, Bildfläche ist auch ein Qualitätsaspekt, aber der ist mir weniger wichtig wie ein glattes homogenes Bild.

Die Qualitätsfrage auf den Monitor zu schieben, ist nicht zielführend. Flimmereien und Grieseleien hat man auch dort. Schlussendlich will man sicher beides haben, ein glattes UND großes Bild. Soweit sind wir aber bei weitem noch nicht. Erstmal gilt es, der FXAA/MLAA-Seuche mit gesteigerten Qualitätsansprüchen entgegenzutreten. Hier sehe ich Grafikchiphersteller in der Pflicht, denn die Spieleentwickler kriegen es ja augenscheinlich nicht gebacken.
 
Nureinnickname! schrieb:
Hast du einen link wo man vergleich screenshots zwischen Nvidia und ATI sehen kann? Nein? Hab ich mir doch gedacht, wird immer nur das selbe wiederholt aber keinerlei beweise geliefert. So ists richtig.

HD5850 AF-Tester mich würde der gleiche Screenshot mal mit einer Nvidia interessieren wie das bild da aussieht.

Vergleich von Nvidia 560 Ti
Den Unterschied kann man deutlich sehen.
 
Bei der nVidia passt das Muster zur Mitte hin nicht mehr und bei der ATI wird's verwaschen!?
 
Ich gehe zwar nicht davon aus daß die neue Generation noch in diesem Jahr im Laden steht , aber das wäre sowieso Utopie. Trotzdem bin ich überzeugt die 7000 Reihe wird richtig gut! - Was AMD/ATI in den letzten Generationen dem Grafiksektor beschert hat, verdient meine Anerkennung. Auch wenn NV wiederholt die absolut schnellsten (Single) GPU´s fertigen, hat AMD doch in den letzten Jahren gute Grafikleistung und Grafiklösungen für jedes Budget erschwinglich gemacht , und zudem gute weil stromsparende GPU Architektur entwickelt. Daß eine GTX580 irre schnell ist ,steht ausser Frage, daß sie genauso irre teuer ist ebenso !

Ich finde es unfair, daß wegen so "0,000815" Differenzen in der Bildqualität ATI immer und immer wieder niedergemacht wird. Der tatsächliche Unterschied zwischen dem AF Filterung bei ATI und NV ist doch meist eh bloß in Ruhe und meist nur bei einem direkten A/B Vergleich erkennbar - also für mich sind daß keine Argumente mehr gegen ATI !

Versteht mich nicht falsch , ich bin kein Fanboy. Wenn ich ab morgen ne 'grüne Karte' im PCIE Slot stecken habe, geht für mich die Welt nicht unter , aber die oft zu lesende Überdramatisierung gegenüber ATI ist einfach kleinlich.
 
@ Topic

Ich hoffe ja, dass sich hauptsächlich beim Stromverbrauch wieder etwas tut und eventuell kommen die GCN Karten ja wirklich mit XDR2 RAM. Das wäre interessant.

@ AF Filter

Nvidia flimmert beim AF Filter weniger, das erkennt man auch in den hier geposteten Links deutlich, denn auch ganz zur Mitte hin, bleibt das Bild relativ scharf.

Der AMD AF Filter hat aber bessere Winkelunabhängigkeit. Dies juckt aber irgendwie nie jemanden in der Diskussion, obwohl es auch deutlich zu erkennen ist auf Vergleichsscreenshots.

Muss aber jeder selber wissen, was er kauft. Ich finds nur idiotisch, wenn Leute dann pauschal Nvidia eine deutlich bessere Bildqualität zuschreiben, denn die Unterschiede sind zum einen Minimal (vor allem in realen Spielsituationen) und es gibt zum anderen eben Vor- und Nachteile auf beiden Seiten.
 
Zurück
Oben